Hands of Robot and Human Touching. Virtual Reality or Artificial Intelligence Technology Concept 3d Illustration

« Continuer à développer des IA va mener à la disparition de l’humanité »

Dans une tribune publiée sur le site du Time Magazine, un chercheur et théoricien spécialisé dans l’intelligence artificielle explique les risques liés au développement trop rapide de l’IA. Il n’hésite pas à évoquer la possibilité d’une disparition de l’humanité.

Eliezer Yudkowsky, 43 ans, dirige les recherches au Machine Intelligence Research Institute (MIRI), une association à but non lucratif spécialisée dans l’intelligence artificielle, dont l’objectif est de faire connaître les dangers et intérêts potentiels de l’IA dans le futur. Il dresse un tableau sombre de l’avenir de l’humanité si l’intelligence artificielle continue d’évoluer à cette vitesse.

Franchir des lignes critiques sans s’en apercevoir

Alors que des centaines de scientifiques réclament une pause d’au moins six mois dans les recherches sur l’IA, Yudkowsky invite les dirigeants et experts du secteur à tout arrêter pour une durée indéterminée, sous peine de franchir un seuil critique au-delà duquel il sera impossible de revenir en arrière. Pour le chercheur américain, « il est tout à fait possible qu’un laboratoire de recherche franchisse des lignes critiques sans s’en apercevoir ».

Selon lui, cette « ligne critique » est représentée par le développeur d’une IA à l’intelligence surhumaine qui mènerait, dans les circonstances actuelles, à la fin de l’humanité. Pour Yudkowsky, il est tout à fait possible de survivre en créant quelque chose de beaucoup plus intelligent que nous, mais cela nécessite « de la précision, de la préparation et de nouvelles connaissances scientifiques » que nous n’avons pas actuellement.

« Sans cette précision et cette préparation, le résultat le plus probable est une IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général. »

Pour illustrer la situation dans laquelle se retrouverait l’humanité, le scientifique utilise plusieurs métaphores. Deux d’entre elles sont « l’australopithèque essayant de combattre l’Homo sapiens » et « le 11ᵉ siècle essayant de combattre le 21ᵉ siècle ».

L’IA surhumaine hostile pourrait ne pas rester cantonnée aux ordinateurs. Yudkowsky rappelle qu’il est aujourd’hui possible d’envoyer des chaînes d’ADN par e-mail à des laboratoires qui produiront des protéines à la demande, permettant à l’IA de créer une forme de vie artificielle.

« Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après. »

Une absence de plan

Eliezer Yudkowsky pointe également l’absence de plan des entreprises derrières les IA si un tel scénario devait arriver.

« L’intention ouvertement déclarée d’OpenAI est de faire en sorte que certaines futures IA fassent nos devoirs d’alignement de l’IA. Le simple fait d’entendre ce plan devrait suffire à faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan. »

S’il admet que les IA actuelles ne font probablement qu’imiter le discours sur la conscience de soi à partir des données d’entraînement, il note aussi le peu d’informations que nous avons sur les composants internes de ces systèmes. Cet état « d’ignorance » est, selon lui, d’autant plus inquiétant si ChatGPT-5 réalise un bond aussi important que celui observé entre GPT-3 et GPT-4.

« Si vous ne pouvez pas être sûr de créer une IA consciente de soi, c’est alarmant non seulement à cause des implications morales, mais aussi parce qu’être incertain signifie que vous n’avez aucune idée de ce que vous faites. C’est dangereux et vous devriez arrêter. »

Le PDG d’OpenAI disait lui-même avoir « un peu peur », tout en rappelant que cela restait « un outil sous le contrôle des humains ». Pour Yudkowsky, il faudrait au moins 30 ans pour résoudre le problème lié à la sécurité de l’intelligence surhumaine. Pour le chercheur, le moratoire sur l’intelligence artificielle doit être indéfini et mondial, sans aucune exception, y compris pour les gouvernements ou les militaires.

« Nous ne sommes pas sur la bonne voie pour être préparés dans un délai raisonnable. Il n’y a pas de plan. Les progrès dans les capacités de l’IA sont largement en avance sur les progrès de l’alignement de l’IA ou même sur les progrès dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir. Fermez tout. »

Source : Time
Par www.01net.com

La rédaction de JForum, retirera d'office tout commentaire antisémite, raciste, diffamatoire ou injurieux, ou qui contrevient à la morale juive.

S’abonner
Notification pour
guest

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

4 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Jacques

Et moi je dis : Continuer à développer des magiciens va mener à la disparition de l’humanité.

Avigail

La liberation des enfants d’Israel et de l’humanité sera et restera unique dans l’histoire de ce cycle adamique.

Avigail

“Nombreuses sont les pensées des hommes mais celles qui se réalisent ne sont que les pensées d’Hachem”. (Tehilim).

andre

A court terme, ce qui me parait le plus inquietant est l’utilisation possible, voire probable,
de l’IA a des fins criminelles, tout au moins malhonnetes par les gens capables de le faire. Il suffit de voir la facon dont certains exploitent ce merveilleux outil qu’est l’ordinateur personnel. Que ne feraient pas les gens, ou organisations, capables de gerer des systemes o combien plus puissants ? A plus long terme, c’est bien sur a l’effondrement de ce qui reste de l’intelligence humaine (globalement, pas individuellement) que l’on risque d’assister.