Faut-il craindre un scénario à la « Terminator » avec la rapidité de développement de l’IA ?

I’LL BE BACK (OR NOT) Des centaines de chercheurs ont demandé au monde de stopper la recherche autour de l’IA. Un scénario à la « Terminator » est-il à envisager ?

Dans Terminator, une intelligence artificielle a décidé de s'émanciper et de détruite l'humanité.

Dans Terminator, une intelligence artificielle a décidé de s’émanciper et de détruite l’humanité. — Vadim Ghirda/AP/SIPA

 

« Devons-nous prendre le risque de perdre le contrôle de notre civilisation ? » En début de semaine, des experts ont demandé le ralentissement du développement de l’intelligence artificielle.
Certains craignent la « singularité », une théorie selon laquelle « une intelligence artificielle supérieure à l’homme, qui serait inarrêtable, qui se développerait d’elle-même » pourrait un jour se passer des hommes et des femmes.

Mais un scénario catastrophique est-il vraiment à craindre ?

« Devons-nous prendre le risque de perdre le contrôle de notre civilisation ? » Voici l’une des questions posées par des centaines d’experts et de personnalités influentes dans le milieu de l’intelligence Artificielle (IA). Parmi eux, le PDG de Tesla, de SpaceX et de Twitter Elon Musk, le cofondateur d’Apple Steve Wozniak, Jaan Tallinn, cofondateur de Skype… Tous demandent une même chose dans une lettre ouverte parue mardi 28 mars. Que « les laboratoires d’IA [interrompent] immédiatement, pendant au moins 6 mois, la formation de systèmes d’IA plus puissants que GPT-4 ». Ce dernier, disponible depuis le 14 mars, a déjà beaucoup fait parler de lui, et sa version améliorée, GPT-5, est déjà en développement.

« Le principe des IA d’aujourd’hui, c’est de pouvoir prédire ce que vous allez dire avant même que vous l’ailliez dit », explique à 20 Minutes, Colin de la Higuera, enseignant-chercheur en intelligence artificielle et titulaire d’une chaire Unesco mélangeant éducation et IA. Et s’il y a de ça quelques années, voire mois, cette technologie ne pouvait prédire que quelques mots, elle peut aujourd’hui prédire des phrases entières.

Les « vieux démons » de la science-fiction

Mais un scénario à la Terminator, où une intelligence artificielle autosuffisante déciderait de tuer et pourchasser l’humanité est-il envisageable ? Pour comprendre cette crainte, reprenons une vieille théorie qui en effraye plus d’un, celle de la singularité. « C’est un vieux démon de la science-fiction, qui semble revenir avec le débat actuel. La singularité, c’est l’idée qu’un jour nous aurions une intelligence artificielle supérieure à l’homme, qui serait inarrêtable, qui se développerait d’elle-même et qu’un jour, elle n’aurait plus besoin de nous », explique Colin de la Higuera.

Mais, aujourd’hui, selon ce chercheur, également cosignataire de la lettre ouverte mentionnée, le risque qu’une IA détruise d’elle-même notre civilisation n’existe pas. Une position partagée par Karine Deschinkel, professeur des universités en informatique et directrice du laboratoire informatique de l’institut Femto-ST. « Nous aurons toujours la main sur ces logiciels », rassure la chercheuse. Le risque n’est pas là pour ces experts, mais plutôt de la rapidité, sans garde-fou, à laquelle ces intelligences sont développées. « J’ai l’impression que nous sommes en train de décrocher des wagons très importants du train pour la recherche de l’IA, image Colin de la Higuera. Aujourd’hui, les chercheurs n’ont plus le temps d’analyser la technologie et l’impact sociétal de ces avancées. »

Alors, Colin de la Higuera, comme les autres experts cosignataires de la tribune, appelle à lever le pied. Mais pourquoi ? Le problème majeur pour ces experts, c’est qu’aujourd’hui, aucun cadre éthique n’existe. Quelques règles officieuses ont été écrites par l’Institute Future of Life, inspirées des fameuses « Trois lois de la robotique » d’Isaac Asimov. Mais rien d’officiel. « Mais pour écrire un cadre éthique, nous avons besoin de ce temps et nous avons un train de retard. Personne ne sait qu’elles sont les bonnes idées. Et pourtant, chaque semaine, nous avons des problèmes », soutient Colin de la Higuera.

Une course incoercible

Mais pour Karine Deschinkel, « aujourd’hui, la course à l’IA est incoercible » : « Si certains s’arrêtent, d’autres continueront. Avec les enjeux financiers derrière, c’est irréaliste et utopique de stopper la recherche », explique la chercheuse.

Et pour les aider dans cette tâche, peu d’actions et d’encadrements sont mis en place par les pouvoirs publics français, comme internationaux. Et les dangers sont là, loin d’un scénario avec Arnold Schwarzenegger en protagoniste, mais plutôt avec des « malfrats » qui pourraient se servir à mauvais escient de la technologie.

Mais tout n’est pas à jeter, loin de là. Aujourd’hui, l’IA est présente partout et vient apporter une aide non négligeable, notamment dans le domaine de la santé. Par exemple, « il existe une intelligence artificielle qui vient estimer le nombre d’intervention des services de secours dans les heures à venir en récupérant toutes les dernières données météorologiques, les crues, les mots tapés sur Google, sur les réseaux sociaux, les événements populaires à venir, ces données ont les fait apprendre et après de ça il arrive à prédire », raconte Karine Deschinkel. « Il ne faut pas avoir peur des IA », rassure aussi Colin de la Higuera, avant de conclure : « Ce qu’il faut, c’est réussir à donner du temps à une démocratie ».

JForum avec  www.20minutes.fr

 

La rédaction de JForum, retirera d'office tout commentaire antisémite, raciste, diffamatoire ou injurieux, ou qui contrevient à la morale juive.

S’abonner
Notification pour
guest

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

1 Commentaire
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Avigail

Heureusement que D’ les a créés idiots !!!!