Malgré la frénésie boursière et les promesses de bouleversements technologiques, l’intelligence artificielle (IA) reste limitée par des contraintes matérielles, énergétiques et cognitives insurmontables.
Nos lecteurs savent au moins deux choses à propos de l’intelligence artificielle (IA). D’abord, la frénésie autour de l’IA a fait grimper les marchés boursiers ces trois dernières années, malgré quelques corrections en cours de route. Ensuite, l’IA est une technologie révolutionnaire, appelée à transformer le monde et à supprimer potentiellement de nombreux emplois – y compris certains qui exigent un haut niveau de formation et des compétences techniques.
Ces deux affirmations sont vraies, mais elles appellent de nombreuses nuances. Certes, l’IA a propulsé les marchés boursiers vers de nouveaux sommets, mais cette envolée prend déjà l’allure d’une super-bulle. Un krach peut survenir à tout moment et faire plonger les marchés de 50 % ou davantage.
Pour autant, ce n’est pas une raison pour vendre à découvert les grands indices boursiers dès maintenant. Une bulle peut durer plus longtemps que prévu, et celui qui parie trop tôt contre le marché risque de lourdes pertes. En revanche, il est prudent de réduire son exposition aux actions et d’augmenter sa part de liquidités pour limiter les dégâts lorsque le krach surviendra.
Sur le plan de l’emploi, l’IA rendra certains postes obsolètes ou facilement remplaçables. Mais, comme toute nouvelle technologie, elle créera aussi de nouveaux métiers nécessitant d’autres compétences. Les enseignants, par exemple, ne disparaîtront pas : ils passeront de l’enseignement de savoirs de base (mathématiques, lecture) – que l’IA maîtrise déjà bien – à celui de la pensée critique et du raisonnement, que les ordinateurs peinent à reproduire. Les transformations seront profondes, mais elles resteront des évolutions, pas un chaos.
Des limites bien réelles
L’intelligence artificielle est une force puissante, mais ses limites sont bien réelles. L’IA pourrait bientôt se heurter à des contraintes matérielles : puissance de calcul, ensembles d’entraînement et production d’électricité.
Les puces à semi-conducteurs deviennent plus rapides, et de nouvelles sont en cours de développement. Mais ces puces consomment d’énormes quantités d’énergie, surtout lorsqu’elles sont installées en immenses réseaux dans les nouveaux centres de données.
Les partisans de l’IA se tournent vers l’énergie nucléaire, y compris les petits réacteurs modulaires, pour couvrir les besoins énergétiques. Cette demande n’est pas linéaire : pour de petits progrès en puissance de calcul, il faut des quantités d’énergie exponentiellement plus importantes. L’IA s’approche donc rapidement des limites pratiques de sa capacité à améliorer ses performances.
Cette demande presque insatiable en énergie fait de la course à l’IA une véritable course à l’énergie. Cela pourrait faire des Etats-Unis et de la Russie les deux acteurs dominants (cela ne vous rappelle rien ?), car la Chine dépend de la Russie pour son énergie, et l’Europe dépend des Etats-Unis et de la Russie. Les sanctions sur les exportations d’énergie russes pourraient même aider la Russie : le gaz naturel pourrait être stocké et utilisé pour soutenir l’IA et le minage de cryptomonnaies.
L’IA manque de bon sens
Une autre limite de l’IA, moins connue, est la loi de conservation de l’information dans la recherche. Cette loi, démontrée mathématiquement, stipule que l’IA ne peut pas découvrir de nouvelles informations. Elle peut trouver des choses plus rapidement et établir des liens que les humains auraient du mal à faire – ce qui est précieux – mais elle ne peut pas créer d’informations nouvelles. Les nouvelles connaissances proviennent des humains : créativité, art, écriture et production originale. Les ordinateurs sont incapables de tâches véritablement créatives. Cela devrait rassurer les humains : ils ne seront jamais totalement remplacés.
Un autre problème est la dilution et la dégradation des ensembles d’entraînement, à mesure qu’une part croissante du contenu est produite par d’autres IA. L’IA est sujette aux erreurs, aux hallucinations – ou plutôt confabulations – et aux déductions sans fondement. Ce problème existe déjà. Mais lorsque ces productions alimentent à leur tour de nouveaux ensembles d’entraînement (soit l’intégralité du contenu d’Internet), la qualité baisse encore, et la production future se dégrade aussi. Il n’y a pas de solution miracle, sauf une curation humaine minutieuse. Or, si l’on doit mobiliser des experts pour constituer les ensembles d’entraînement et évaluer les résultats, l’intérêt économique de l’IA est fortement réduit.
Les ordinateurs manquent aussi d’empathie, et de bon sens. Ils traitent les données, mais ne pensent pas comme les humains. En réalité, l’IA ne pense pas : elle fait des calculs.
Lors d’une expérience récente, un ordinateur « intelligent » a été mis en compétition avec des enfants de 3 à 7 ans. Le défi : dessiner un cercle avec une règle, une théière et un objet sans rapport. L’ordinateur a cru qu’une règle pouvait remplacer un compas et a échoué. Les enfants ont vu que le fond de la théière formait un cercle parfait : ils l’ont simplement tracé. Là où l’IA applique une logique rigide, les enfants font preuve de bon sens – et ils gagnent. Cela ne changera jamais, car le bon sens (la logique abductive) ne peut pas être codé.
Les grandes entreprises de l’IA découvrent aussi que leurs systèmes peuvent être surpassés par d’autres, qui réutilisent simplement les résultats de leurs IA comme base d’entraînement. C’est un raccourci vers de bonnes performances, à faible coût. Les géants comme Microsoft et Google parlent de vol de propriété intellectuelle, mais ils ont eux-mêmes exploité des contenus existants sans payer de droits d’auteur. C’est peut-être du piratage, mais c’est facile à faire et presque impossible à empêcher. Cela ne signe pas la fin de l’IA, mais celle des profits faramineux promis. Les centaines de milliards investis pourraient bien rapporter beaucoup moins que prévu.
Sam Altman : visionnaire ou vendeur de rêve ?
Le personnage le plus connu dans le monde de l’IA est Sam Altman. Il dirige OpenAI, qui a lancé ChatGPT il y a quelques années. L’IA existe depuis les années 1950, a connu un coup d’arrêt dans les années 1980, est restée endormie dans les années 1990 et 2000, avant de connaître un regain spectaculaire ces dix dernières années. ChatGPT est devenue l’application la plus téléchargée de l’histoire en quelques mois, et compte désormais des centaines de millions d’utilisateurs.
L’an dernier, Altman a été évincé par le conseil d’administration d’OpenAI, une entreprise censée rester à but non lucratif, au service de l’humanité. Altman voulait en faire une société lucrative, avec une introduction en bourse de plusieurs centaines de milliards de dollars. Quand les meilleurs ingénieurs ont menacé de démissionner pour le suivre, le conseil d’administration a fait marche arrière et l’a réintégré, bien que la structure juridique reste floue.
Depuis, Altman poursuit ses promesses de « superintelligence », ou intelligence générale avancée – le mot clé étant « générale » : un système qui penserait comme un humain, mais en mieux. Selon la métaphore, nous serions aux ordinateurs ce que les singes sont aux humains. Altman affirme que « d’une certaine manière, ChatGPT est déjà plus puissant que n’importe quel humain ayant jamais vécu » et prédit que l’IA « effectuera un véritable travail cognitif » d’ici 2025 et « créera de nouvelles connaissances » d’ici 2026.
Tout cela est absurde pour plusieurs raisons : comme dit précédemment, les ensembles d’entraînement sont de plus en plus pollués par les productions d’autres IA, rendant les machines moins intelligentes. Et la loi de conservation de l’information reste inviolable. Enfin, personne n’a jamais réussi à coder le bon sens ou l’instinct, l’un des outils de raisonnement les plus puissants que possède l’être humain.
En bref, la superintelligence n’arrivera jamais. Altman ressemble de plus en plus à un vendeur de rêve de la Silicon Valley, promettant la prochaine grande révolution… sans que la réalité suive.