L’Intelligence Artificielle quantique ?
L’intelligence Artificielle est sur toutes les lèvres et fait l’objet d’articles, de discussions, et quelquefois de projets. Il sera le sujet prédominant des prochaines années pour le Gartner qui y voit une nouvelle révolution « industrielle » telle que nous l’avons connu au 18-19 ème siècle.
De nouveaux modèles sortent quasi quotidiennement (les fameux LLM pour Large Language Model qui permettent entre autre de résumer, traduire un document sans effort et d’assurer une conversation comme avec un humain), des évolutions des modèles existants fleurissent (on peut citer Claude 2 ou LLama 2 par exemple) qui brisent de manière impressionnante les limitations de la version précédente, et de nombreux outils sont développés pour mieux les exploiter (ainsi l’outil Langflow qui permet de rajouter des chaines de traitement aux modèles comme la possibilité « d’ingérer » des documents privés suivant des critères spécifiques).
Un bond vers le quantique
Cette évolution frénétique des traitements basés sur l’IA n’est pas sans rappeler l’engouement croissant pour une autre technologie toute aussi prometteuse : la recherche « quantique ». Encore sur forme de prototypes il y a quelques années, de plus en plus de constructeurs, startups font évoluer leurs produits (calculateurs, ordinateurs) pour atteindre des capacités de traitement incommensurables.
Les principes du quantique
Schématiquement cette technologie est basée sur des propriétés spécifiques de la matière qui ne peuvent être réalisées et exploitées qu’à de très basses températures. Alors que les ordinateurs « classiques » sont architecturés autour de composants électroniques « physiques » qui réalisent des calculs à partir d’opérations binaires représentées par l’unité Bit (qui ne peut prendre que deux valeurs : « 0 » ou « 1 »), l’ordinateur quantique utilise les Qbits qui, selon « l’état quantique », peut prendre plusieurs états en même temps !
Basée sur des années de recherches scientifiques (merci monsieur Bohr !), cette capacité de calcul énorme est évidemment un terrain de prédilection pour l’Intelligence Artificielle et ses différents sous-ensembles que sont le Machine Learning et le Deep Learning.
IA : Un besoin de puissance
A l’heure actuelle, pour pouvoir bénéficier d’une puissance suffisante pour exploiter vos modèles ou les enrichir, il est nécessaire, voire obligatoire, de disposer d’un environnement « puissant » avec des unités de calculs importants (usage de GPUs présents dans les cartes graphiques notamment). Dans le cas contraire (il est toujours possible d’utiliser des « petits » modèles avec l’usage des CPUs), l’expérience est beaucoup moins agréable et les temps de réponse sont interminables.
IA & Quantique : Une surpuissance
Associer la puissance de calcul du monde Quantique avec les demandes de traitement requis pour l’IA est effectivement une des voies vers laquelle beaucoup de grands constructeurs/éditeurs souhaite s’aventurer.
Imaginez un instant ce que l’on pourrait faire dans un proche avenir en fusionnant ces deux domaines : les « barrières techniques actuelles pourront être levées ».
On pense notamment à la notion de « context » pour les LLMs qui limite drastiquement le volume d’informations permettant au moteur d’apprendre et de se souvenir, on « rêve » des traitements massivement parallèles qui seront alors possibles et sur lesquels les moteurs pourront enrichir leur recherches au fil des réponses mais également des améliorations possibles dans le domaine de « la classification » qui demande énormément de Datasets pour être efficace (ainsi que des algorithmes encore « couteux »).
Les principaux acteurs
Nous en sommes encore qu’aux prémices de cette nouvelle aventure mais d’ores et déjà on en distingue les grands acteurs : les protagonistes de l’IA que sont les principaux fournisseurs de Cloud (Microsoft IBM, Google..), seront également les principaux fournisseurs de la technologie IA Quantique.
L’infrastructure qu’ils ont déjà mis en place pour le Cloud et dont l’investissement a été conséquent, sera renforcée par des Datacenters équipés de calculateurs et d’ordinateurs « Quantiques » qui alimenteront ainsi leurs offres IA. L’investissement des constructeurs dans ce domaine « quantique » sera tout aussi important. Un ordinateur « quantique » est extrêmement compliqué à construire car il doit pouvoir interagir avec les atomes dans une température proche du zéro absolu et ne peut être accessible que très peu de temps car la moindre instabilité peut provoquer des erreurs.
Bien sûr ces éditeurs/constructeurs proposeront d’accéder à cette formidable puissance via des abonnements payants ou du temps machine alloué mais nous resterons encore une fois dépendant de ces GAFAMs.
L’ avenir ?
Nous sommes engagés dans une marche « forcée » où la puissance de traitement va re-devenir l’arbitre des nouvelles technologies. Sans la puissance du « quantique », l’IA ne pourra que stagner ou progressera moins vite car elle restera dépendante des unités de puissances présentent physiquement dans les ordinateurs et dont Moore prédisait déjà les limites.
De quoi peut être nous faire regretter d’avoir rater le coche sur le Cloud il y a quelques années et de ne pas avoir pris le train en marche…