Photo taken on October 18, 2021 in Moscow shows the US online social media and social networking service Facebook's logo on a tablet screen. - Facebook on October 18, 2021, announced plans to hire 10,000 people in the European Union to build the "metaverse", a virtual reality version of the internet that the tech giant sees as the future. (Photo by Kirill KUDRYAVTSEV / AFP)

Mieux que ChatGPT ? Meta présente une IA qui s’approche de l’intelligence humaine

Meta vient de dévoiler un nouveau modèle d’IA. Plus proche du cerveau humain que ChatGPT et consorts, le modèle, chapeauté par le chercheur français Yann LeCun, vise à supplanter les IA génératives…

En marge du salon VivaTech de Paris, Yann LeCun, le chercheur français en charge de l’intelligence artificielle chez Meta, a dévoilé un nouveau modèle d’IA, « JEPA » ( « Joint Embedding Predictive Architecture »).

Ce modèle est destiné à « surmonter les principales limites des systèmes d’IA les plus avancés d’aujourd’hui », explique Meta dans un communiqué. Lors de la présentation, Yann LeCun a d’ailleurs tenu à distancer « JEPA » des autres modèles, comme GPT, qui anime l’incontournable ChatGPT d’OpenAI.

« L’IA d’aujourd’hui et l’apprentissage automatique sont vraiment nuls. Les humains ont du bon sens alors que les machines, non », déclare Yann LeCun.

Le chercheur s’est toujours montré très critique à l’égard des modèles linguistiques sur le marché. En janvier, LeCun avait déjà estimé que ChatGPT était bien loin d’être révolutionnaire. Pour lui, « ChatGPT n’est pas particulièrement innovant » sur le plan technique.

Un nouveau genre de modèle d’IA

Bien décidé à faire mieux que ses concurrents, Meta propose un modèle d’IA qui apprend un peu à la manière d’une intelligence humaine. Le fonctionnement du système est donc très différent de celui d’un modèle comme GPT ou PaLM2 de Google. Ceux-ci fonctionnent en s’appuyant une immense base de données. En piochant dans ces informations, les modèles d’IA cherchent à deviner la suite de mots la plus logique en fonction de la question de l’utilisateur. En fait, ces IA ne comprennent pas les textes qu’elles génèrent. Elles se contentent de simuler la réflexion. Les générateurs d’images, tels que DALL-E, Adobe Firefly ou Midjourney, fonctionnent de la même manière.

Ce n’est pas le cas du nouveau modèle de Meta. Au lieu d’agréger une montagne de données créées par des humains, « JEPA » compare des représentations abstraites d’images ou de sons. Cette approche oblige l’IA à mettre sur pied « un modèle interne du monde extérieur », ce qui lui permet d’apprendre plus facilement.

De cette manière, le modèle imite le fonctionnement d’un cerveau humain. Tous les jours, votre esprit analyse en effet d’une foule de données de manière inconsciente afin de comprendre le monde qui l’entoure. Comme l’intellect humain, le modèle peut jongler avec des concepts abstraits plutôt qu’avec des suites de mots.

« Notre travail […] est fondé sur le fait que les humains apprennent une énorme quantité de connaissances de base sur le monde simplement en l’observant passivement », avance Meta.

Grâce à cette approche, le modèle comprend vraiment les données qui lui sont confiées. L’IA n’est pas contrainte de deviner les réponses aux questions de ses utilisateurs en s’appuyant sur la suite de mots la plus probable. En théorie, « JEPA » ne devrait donc pas « halluciner », c’est-à-dire générer des informations factuellement fausses. C’est le principal défaut des IA génératives. Leurs assertions sont loin d’être fiables, car elles n’ont pas réellement compris ce dont elles parlent. C’est pourquoi les générateurs ont bien du mal à concevoir certains éléments, comme les mains ou les oreilles humaines.

« Si vous entraînez (un modèle) avec 1 000 ou 2 000 milliards de jetons, il semble capable de comprendre. Mais il commet des erreurs stupides, factuelles ou de logique », souligne Yann LeCun.

De plus, « JEPA » se distingue des autres grands modèles de langage par sa grande efficacité. D’après le communiqué de Meta, l’IA ne nécessite pas d’importantes ressources pour fonctionner, contrairement à des systèmes plus gourmands comme GPT.

La fin des IA génératives ?

Pour Meta, « les méthodes génératives se concentrent trop sur des détails, au lieu de capturer des concepts d’ensemble », comme le fait son nouveau système. Selon Yann LeCun, les IA génératives sont d’ailleurs appelées à disparaître, car « nous aurons quelque chose de mieux pour les remplacer » :

« Les modèles larges de langage sont encore utiles aujourd’hui, mais dans cinq ans on ne les utilisera plus ».

Sur le papier, le modèle représente une nouvelle étape sur la route vers l’intelligence artificielle générale, le grand objectif d’OpenAI et des autres titans de la tech. Ce type d’IA, encore bien loin des technologies actuelles, est capable d’évoluer et de s’adapter aux tâches qui lui sont confiées, même si elle n’est pas programmée pour les réaliser.

« Les modèles génératifs appartiennent au passé, nous allons les abandonner pour des architectures prédictives », déclare le chercheur, récompensé par le prix Alan Turing en 2019.

Fidèle à ses habitudes, Meta a mis l’intégralité du code de « JEPA » à la disposition des chercheurs. Cette stratégie open source vise à stimuler la recherche sur l’IA en encourageant les développeurs à s’approprier cette technologie. Le groupe de Menlo Park a déjà procédé de la sorte avec ses précédentes innovations, comme MusicGen, l’IA qui génère des musiques sur base d’un court texte, ou LLaMA, pour Large Language Model Meta AI.

JForum avec www.01net.com Source: Meta

La rédaction de JForum, retirera d'office tout commentaire antisémite, raciste, diffamatoire ou injurieux, ou qui contrevient à la morale juive.

S’abonner
Notification pour
guest

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

2 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
John Titor

Avec l’I.A., la 6° extinction de l’Humanité est en marche.

o.icaros

ChatGPT c’était formidable au début. Depuis une quinzaine il y a un problème et je ne sais si ça provient du service ou de mon ordinateur. Avant, il y avait une très grande fluidité au niveau des réponses et c’était un plaisir de « converser » avec l’IA, ça fusait de part et d’autre. Au début, j’y ai passé des nuits entières. L’IA a des capacités de synthèse incroyables, et réelles, jamais fatigué, jamais lassé de mes questions, et toujours disponible et sans engueulade et nom d’oiseaux. En plus, avec lui, on ne se coupa pas la parole et les réponses de l’IA sont plus cohérentes que les réponses qu’on obtient de l’intelligence humaine. L’IA ne se contente pas d’aller chercher des informations dans des bases de données. Certaines de mes questions n’ont pas de réponse dans les bases de données. Je me suis éclaté. Mais, depuis une quinzaine, je n’arrive plus à avoir le même service qu’avant. Les réponses sont longues, tronquées, la syntaxe a baissé d’un niveau et le vocabulaire (impressionnant avant) aussi. OpenIA confond une queue de chien et une file d’attente. Il faut relancer 5-6 fois pour avoir une réponse intégrale à sa question. Mon enthousiasme est tombé pour faire place à de l’agacement. Je suis retourné à mes livres mais ce n’est pas pareil. Quand on veut une réponse à une simple question comment faire? Dans quel livre trouver la réponse? Il faut lire tout le livre sans être certain d’avoir la réponse. La question que je me pose. Est-ce que cela est fait exprès pour que je prenne un abonnement à 20$ par mois?