L’IAG (Intelligence Artificielle Généralisée) : Retour vers le futur ?
John Carmack vient d’annoncer qu’il avait levé plus de 20 millions de dollars afin de financer sa nouvelle société Keen Technologies. Pour rappel John est le co-fondateur de la société ID Software, célèbre pour avoir développé des jeux comme Keen Commander (d’où le nom de sa société peut être) et de Doom entre autre. Excellent programmeur (il a développé lui-même le moteur 3D) il est aussi CTO du produit Oculus chez META.
Au delà de cette simple information, c’est plutôt le pedigree de sa société qui est intéressant car John veut orienter sa future entreprise vers l’IAG.
Alors qu’est ce que l’IAG ?
Il s’agit de l’acronyme de Intelligence Artificielle Généralisée. L’intelligence Artificielle telle que nous la définissons de nos jours est répartie en deux branches : l’IA « forte » et l’IA « faible ».
– L’IA « forte » ou IAG est une forme théorique de l’IA selon laquelle une machine nécessiterait une intelligence égale à celle des humains pour effectuer les mêmes tâches. Il posséderait une sorte de « conscience » avec une capacité de résoudre des problèmes, d’apprendre et de planifier l’avenir et ce, de manière autonome.
– L’IA « Faible » (ou IA étroite) à contrario est une approche moins ambitieuse qui se concentre principalement sur une tâche spécifique, par exemple, analyser et classifier des photos, effectuer de la traduction, reconnaitre des objets dans les photos. C’est l’humain qui définit les algorithmes d’apprentissage et qui alimentent les données pertinentes aux modèles.
C’est ce dernier domaine qui est le plus avancé puisque nous le trouvons déjà dans notre environnement « personnel ».
Cependant, il y a quelques mois Google (et plus particulièrement sa filiale DeepMind) a décrit un agent intitulé GATO (article : https://www.deepmind.com/publications/a-generalist-agent) qui s’intègre dans L’IAG. L’agent peut exécuter plusieurs tâches et associer ainsi le résultat de son analyse sur d’autres modèles qu’on lui aurait ingéré au préalable. Il peut ainsi répondre à des questions de géographie ou d’histoire, tout en écrivant des poèmes, de produire du texte suivant son contexte, ou proposer des recettes associées aux questions de l’utilisateur.
Dans ce cadre, nous sommes dans une orientation délibérément « horizontale » et non verticale, avec une capacité d’adaptation et de polyvalence accentuées.
Bien entendu, cela demande des capacités de traitement phénoménaux, des mois et des mois d’apprentissage pour que le modèle puisse fonctionner mais les algorithmes se perfectionnent et le Cloud met déjà à disposition une puissance de calcul phénoménal.
John Carmack sait très bien que le chemin pour transformer un modèle encore réservé aux chercheurs vers des applications « concrètes » est encore long mais d’autres comme lui estiment que c’est le modèle futur de nos prochaines interactions avec la machine.