L’IA doit être surveillée, et il est important de se poser les bonnes questions. Mais il y a certainement des choses plus à craindre…
Comme vous le savez, l’intelligence artificielle (IA) fait fureur en ce moment. Du point de vue du marché, elle a pris une dynamique de bulle.
Je ne pense pas que l’euphorie autour de Nvidia, le principal fabricant de puces d’IA, va durer.
Mais si l’on s’intéresse à l’IA de façon plus générale, on peut lire beaucoup d’histoires sur la façon dont les machines dotées d’une grande puissance de calcul et d’une vitesse de traitement stupéfiante, ayant accès à des milliards de livres et de documents, et ayant la capacité d’apprendre par elles-mêmes, pourraient bientôt conquérir le monde.
Est-ce vrai ?
Je dois dire que j’étudie l’IA et son potentiel depuis des années, et j’ai donc une compréhension assez approfondie de son fonctionnement.
J’ai même vu le troisième superordinateur non gouvernemental le plus rapide au monde (l’ordinateur HiPerGator AI de l’université de Floride) dans le cadre d’un projet visant à appliquer la superintelligence généralisée et l’IA à des tâches de sécurité nationale.
Quel est le degré d’avancement de l’IA ? A quel point est-elle proche d’une parité approximative avec l’intelligence humaine ? Et quels dangers représente-t-elle pour l’humanité ?
Débrancher les machines
Les expérimentateurs pensent que les machines pourraient devenir autonomes et s’attaquer aux humains et à la civilisation. Mais il est important de se rappeler que si la machine perd la pédale, il suffit de la débrancher.
Les apologistes de la capacité de l’IA prétendent que débrancher la machine ne fonctionnera pas, car l’IA pourrait anticiper cette stratégie et « s’exporter » vers une autre machine, dans un scénario où la désactivation d’un endroit n’empêcherait pas le code et les algorithmes d’apparaître ailleurs et de continuer les attaques.
C’est possible. Mais cela pose toutes sortes de problèmes logistiques, notamment la disponibilité d’un nombre suffisant de machines dotées de la puissance de traitement nécessaire, le fait que les machines alternatives seront probablement entourées de pare-feu et de douves numériques, mais aussi une foule de problèmes de configuration et d’interopérabilité.
Pour l’instant, vous pouvez donc vous contenter de débrancher la prise.
En fait, un certain nombre de mesures de protection sont proposées pour limiter les dommages potentiels de l’IA tout en exploitant ses énormes avantages.
Ces garde-fous comprennent la transparence (afin que des tiers puissent identifier les failles), la surveillance, une forme de formation contradictoire (afin que la machine puisse résoudre des problèmes sans comploter contre nous pendant son temps libre), la modification basée sur l’approbation (la machine doit « demander la permission » avant d’activer l’apprentissage automatique autonome), la modélisation récursive des récompenses (la machine n’évolue que dans certaines directions lorsqu’elle reçoit une « gratification » de la part des humains) et d’autres outils similaires.
Bien entendu, aucune de ces mesures de protection ne fonctionne si la puissance qui se cache derrière l’IA est malveillante et veut réellement détruire l’humanité. Cela reviendrait à mettre des armes atomiques entre les mains d’un Adolf Hitler désespéré. Nous savons ce qu’il se serait passé ensuite.
James Bond et l’IA
Dans ce cas, la solution serait plus politique, médico-légale et axée sur la défense. La collecte de renseignements jouerait un rôle considérable. Bien sûr, cela évolue rapidement vers une guerre du renseignement machine contre machine.
Imaginez James Bond avec un hyperordinateur, au lieu d’un Walther PPK. La menace la plus immédiate de l’IA est moins grave, mais elle n’en est pas moins inquiétante, en particulier pour les investisseurs.
Les investisseurs doivent être prudents lorsqu’ils se fient aux systèmes TPG pour obtenir des conseils financiers, malgré leur énorme puissance de traitement. Les données d’entrée du marché sont truffées de mauvais modèles, d’hypothèses erronées, de prévisions médiocres et de préjugés.
L’IA est déjà programmée avec l’idéologie de la guerre, par exemple. Vous vous souvenez probablement du ridicule générateur d’images Gemini de Google, soutenu par l’IA, qui représentait des Vikings noirs, des femmes papes et d’autres images absurdes. Vous pouvez imaginer l’avenir dystopique qu’une superintelligence éveillée pourrait créer.
1984 arrive en Chine
Vous connaissez probablement le roman dystopique classique de George Orwell, 1984. Il a été écrit en 1948 ; le titre vient de l’inversion des deux derniers chiffres de 1948.
Orwell a créé un vocabulaire original pour son livre, dont la plupart des termes sont encore utilisés aujourd’hui, même s’ils sont sardoniques. Des termes tels que la « police de la pensée » ou « Big Brother » proviennent de 1984.
Orwell voulait y voir un avertissement sur la façon dont certains pays pourraient évoluer au lendemain de la Seconde Guerre mondiale et au début de la guerre froide. Il était certainement préoccupé par le stalinisme – mais ses avertissements s’appliquaient également aux démocraties occidentales.
Lorsque l’année 1984 s’est écoulée, beaucoup ont poussé un soupir de soulagement en constatant que la prophétie d’Orwell ne s’était pas réalisée. Mais ce soupir de soulagement était prématuré. La société cauchemardesque d’Orwell existe aujourd’hui sous la forme de la Chine communiste.
La Chine possède la plupart des appareils des sociétés totalitaires décrites dans le livre d’Orwell.
La Chine travaille d’arrache-pied sur l’IA tout en utilisant des logiciels de reconnaissance faciale et une surveillance numérique omniprésente pour suivre ses citoyens à la trace. Internet est censuré et surveillé. Une véritable police de la pensée vous arrêtera si vous exprimez des opinions opposées au gouvernement ou à ses politiques.
Si les pires excès de la Chine ne se produiront pas aux Etats-Unis ou dans les autres pays occidentaux, les aspects les moins extrêmes de l’Etat de surveillance chinois pourraient s’immiscer dans la société.
Et même si vous n’êtes pas arrêté pour avoir exprimé des opinions impopulaires ou remis en question les dogmes en vigueur (du moins pas encore), vous pouvez faire l’objet d’autres sanctions. Vous pourriez même perdre votre emploi et être dans l’impossibilité d’en trouver un autre.
Mais il n’y a pas que la Chine. Le fondateur de l’application de messagerie Telegram, Pavel Durov, vient d’être arrêté dans un aéroport français. Il est fort possible que le gouvernement américain ait joué un rôle dans cette arrestation, de même que l’Union européenne.
Les autorités affirment que Telegram faisait la promotion de la pornographie enfantine et d’autres actes condamnables. En réalité, M. Durov a été arrêté parce qu’il n’a pas accédé aux demandes des gouvernements occidentaux qui exigeaient de censurer certaines informations et certains points de vue. Il a également été arrêté parce qu’il ne voulait pas fournir aux autorités des informations sur les producteurs de ces contenus (Telegram offre aux producteurs des options de cryptage).
C’est la véritable raison pour laquelle M. Durov a été arrêté. Elon Musk est-il le prochain ?
Montrez-moi l’homme, et je vous dirai le crime qu’il a commis
Aux Etats-Unis, de nombreux conservateurs ont vu leurs réseaux sociaux fermés ou suspendus, non pas pour menaces, vulgarité ou promotion de la pédopornographie – mais pour avoir critiqué des points de vue « progressistes » (même si ces critiques sont parfois acerbes). Pendant ce temps, ceux qui ont des opinions progressistes peuvent dire presque n’importe quoi sur les médias sociaux, y compris approuver implicitement la violence. Mais rien ne se passe.
Le problème est que la tendance évolue très rapidement dans cette direction et qu’il est difficile de l’arrêter.
De plus, des technologies de surveillance sophistiquées permettant de contrôler les citoyens sont déjà en place…
Par exemple, les caméras équipées des dernières technologies de surveillance peuvent repérer et faire correspondre des millions de visages en temps réel avec un taux d’exactitude de plus de 99%. Elles sont présentées comme des outils de lutte contre le terrorisme et la criminalité, ce qu’elles sont assurément.
Mais, comme le disait Lavrentiy Beria, l’impitoyable chef de la police secrète de Staline : « Montrez-moi l’homme et je dirai le crime qu’il a commis. » Il est facile de voir que ce pouvoir peut être utilisé de manière abusive pour cibler des citoyens ordinaires. (D’ailleurs, Beria a fini par prouver qu’il avait raison, puisqu’il a été arrêté et exécuté pour trahison.)
Pour en revenir à l’IA, le problème est qu’une fois que les mauvais acteurs commencent à alimenter les données avec des informations trompeuses et que les préjugés des développeurs s’infiltrent dans le code, l’IA peut devenir un instrument de tyrannie.
Dans l’ensemble, l’IA doit être surveillée et il est important de se poser les bonnes questions. Mais nous ne devrions pas craindre qu’elle prenne le contrôle du monde dans un avenir proche.
Nous devrions plutôt nous inquiéter de prendre le même chemin que la Chine communiste.