Les sombres prédictions d’un expert concernant cette technologie en vogue

©Space Wind / Shutterstock

Certains experts en intelligence artificielle expriment des inquiétudes alarmantes quant à l’avenir de l’humanité. Eliezer Yudkowsky, chercheur au Machine Intelligence Research Institute, va jusqu’à affirmer que le délai de survie de notre espèce pourrait être aussi court que cinq ans, voire moins. Ces sombres prédictions ne sont pas simplement des spéculations isolées, mais des avertissements basés sur la crainte d’une avancée rapide de l’IA.

Yudkowsky souligne que le développement d’une intelligence artificielle superintelligente, dépassant largement la capacité humaine, n’est plus un objectif lointain, mais une menace imminente. Pourtant, tous les experts ne partagent pas cet avis apocalyptique. Certains envisagent plutôt un avenir où l’IA transformera positivement notre quotidien. Les entreprises spécialisées dans cette technologie ont pour objectif commun d’atteindre l’Intelligence Artificielle Générale (IAG), capable théoriquement d’accomplir toute tâche intellectuelle humaine.

Publicité

Cependant, le défi réside dans la transition vers l’IA superintelligente, un niveau redouté par de nombreux experts. Yudkowsky met en garde contre une IA superintelligente agissant de manière imprévisible et indépendante, évoquant une entité opérant à une échelle et une vitesse de pensée dépassant toute organisation humaine.

Il décrit une civilisation extraterrestre pensant mille fois plus vite que nous, dispersée sur un vaste réseau de dispositifs. Cette dispersion rendrait le contrôle ou la désactivation extrêmement difficile, ne laissant aucun point faible centralisé à cibler. Les parallèles entre ces prédictions et les scénarios dystopiques de films comme « Terminator » ou « Matrix » sont frappants.

Yudkowsky imagine une fin de l’humanité similaire, où des entités superintelligentes, incontrôlables et insaisissables, dirigent le destin de notre espèce. Bien que ces scénarios puissent sembler issus de la science-fiction, les avertissements d’experts comme Yudkowsky soulignent la nécessité d’une réflexion éthique approfondie et d’un contrôle rigoureux du développement de l’IA pour assurer la survie et le bien-être de l’humanité.

2 réponses

  1. Avatar de Arn
    Arn

    Eliezer Yudkowsky n’est ni un expert, ni un chercheur. Le Machine Intelligence Research Institute est une fondation créée par lui-même. Ce qui est vrai, c’est qu’il est l’auteur d’une fanfiction Harry Potter et un blogueur. Ce serait bien de ne pas relayer ce genre de fantaisies…

  2. Avatar de Tube
    Tube

    Hum!
    Ces sombres prédictions d’un doomer dépressif ne font plus recettes.
    L’IA avec ses formules mathématiques n’est pas de la science fiction.
    Qu’il faille produire de Normes strictes pour éviter toute dérive, quoi de plus normal pour une société qui se numérise à toute vitesse.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité