Capable d’évaluer les probabilités d’un crash aérien mais incapable d’inventer la pénicilline, l’intelligence artificielle démontre qu’elle sait raisonner sans penser. Et pendant qu’elle apprend, l’humain, lui, perd son emploi.
L’IA n’est plus seulement une mode en matière d’investissement. Elle est désormais responsable de la perte de milliers d’emplois. PennyGem rapporte :
« L’IA fait une nouvelle victime alors qu’Amazon procède au plus grand licenciement de l’histoire du secteur technologique : 30 000 emplois supprimés en une semaine. »
Sur les marchés, l’IA fait aujourd’hui la différence entre un marché haussier et un marché baissier. Elle détermine aussi la frontière entre un boom des investissements en capital et leur effondrement. En intégrant ces flux au PIB, elle a même récemment fait la différence entre croissance et récession.
Mais que produit-elle réellement ? Les résultats obtenus jusqu’à présent sont décevants.
Une étude du MIT a montré que les Sept Magnifiques avaient dépensé 560 milliards de dollars en IA au cours des 18 derniers mois. Résultat : ces investissements n’ont généré que 35 milliards de dollars de revenus – pas de bénéfices. En supposant une marge de 10 %, cela correspond à un rendement d’à peine 0,006 %.
Il est donc temps de poser la question : l’IA, qu’es-tu vraiment ? Du poisson ou de la volaille ? La lumière ou l’obscurité ? Une promesse ou une menace ?
L’intelligence artificielle est en effet très artificielle. Mais elle n’a rien de très intelligent. Ces immenses centres de données dont on parle tant sont gigantesques pour une raison simple : ils servent à exécuter des milliards de calculs et de tâches répétitives et fastidieuses.
Conformément à nos tentatives de reductio ad simplicitas (simplifier les choses afin que même nous puissions les comprendre), les grands modèles linguistiques ne sont que des broyeurs de mots. Ils en broient des milliards et cherchent simplement la suite la plus probable d’une phrase. Vous dites « chien », ils répondent « aboiement ». Voilà pourquoi les réponses de ChatGPT paraissent souvent si convenues : il vous donne précisément ce à quoi vous vous attendez.
Mais il peut tout de même faire un travail remarquable. Si vous demandez ceci : « Dix avions s’apprêtent à atterrir à JFK. Quelles sont les chances qu’un d’entre eux s’écrase ? »
Voici la réponse de ChatGPT :
« Pour estimer les chances qu’un des dix avions s’écrase, nous devons connaître la probabilité d’un accident par atterrissage. Procédons étape par étape.
- Estimer la probabilité d’accident par vol ou par atterrissage
Selon les données sur la sécurité aérienne :
La probabilité d’un accident d’avion commercial (y compris non mortel) est d’environ 1 sur 1 million de vols.
La probabilité d’un accident mortel est encore plus faible : environ 1 sur 10 millions de vols (ou 10−710^{-7}10−7).
Utilisons p=1×10−7p = 1 \times 10^{-7}p=1×10−7 comme estimation prudente pour un accident par atterrissage.
- Probabilité qu’aucun avion ne s’écrase
Si chacun des 10 avions atterrit indépendamment :
P(aucun accident)=(1−p)10P(\text{aucun accident}) = (1 – p)^{10}P(aucun accident)=(1−p)10
Donc :
P(aucun accident)=(1−10−7)10≈1−10−6P(\text{aucun accident}) = (1 – 10^{-7})^{10} \approx 1 – 10^{-6}P(aucun accident)=(1−10−7)10≈1−10−6
- Probabilité qu’au moins un avion s’écrase
P(au moins un accident)=1−(1−p)10≈10−6P(\text{au moins un accident}) = 1 – (1 – p)^{10} \approx 10^{-6}P(au moins un accident)=1−(1−p)10≈10−6
Il y a environ 1 chance sur un million pour que l’un de ces 10 atterrissages se solde par un crash.
- Remettre les choses en perspective
Scénario :
1 avion sur 10 s’écrase
Probabilité approximative : 1×10−61 \times 10^{-6}1×10−6
Chances : 1 sur 1 000 000
Tous atterrissent en toute sécurité
Probabilité approximative : 0,9999990,9999990,999999
Chances : 99,9999 %
Réponse
Les chances qu’un des 10 avions prévus s’écrase à l’atterrissage à JFK sont d’environ 1 sur un million, ce qui est extrêmement improbable. »
Ce raisonnement montre que l’IA sait construire des démonstrations logiques rigoureuses, en plaçant les mots et les chiffres exactement là où ils doivent être. Et cela a des implications considérables : des millions de personnes gagnent leur vie en accomplissant précisément ce genre de tâches logiques, répétitives et limitées.
Lorsque vous passez un péage par exemple, vous pouvez arrêter votre voiture et décider d’uriner sur la cabine… ou simplement de sortir votre téléphone et discuter avec votre mère. Mais l’éventail des actions courantes est en réalité bien plus restreint. Vous payez le péage. Vous récupérez votre monnaie. La barrière se lève.
Cela ne nécessite pas beaucoup d’intelligence. Des mathématiques, et un langage routinier : « Voici votre monnaie. Merci. »
L’employé type reçoit un nombre limité de demandes. Et il n’a qu’un nombre limité de réponses à proposer. Personne ne lui demande son avis sur les images allégoriques de La Reine des fées (Edmund Spenser, 1590) par exemple.
Même si des défis insolites continuent de se présenter, la plupart des tâches routinières pourraient être prises en charge par une forme d’IA. Cela vaut non seulement pour les péagers et les vendeurs de peinture, mais aussi pour la plupart des médecins, avocats et autres professionnels, dont le travail pourrait être effectué – dans la mesure où il est logique et prévisible – par une créature dépourvue de cœur.
On n’attend pas d’un comptable, par exemple, qu’il ait du cœur. On ne l’encourage pas à laisser ses sentiments influencer ses calculs, ni à sortir des sentiers battus. Au contraire, il est censé rester dans un cadre. Lorsqu’il additionne deux et deux, il doit obtenir quatre — pas cinq, pas trois, pas même 4,001. Exactement comme une machine.
Une IA bien programmée donnera toujours quatre. A chaque fois.
C’est ce qui la distingue fondamentalement d’un être humain. Car l’humain, lui, sort des sentiers battus. C’est ainsi que naissent notre art, notre musique, notre littérature… mais aussi nos grandes catastrophes et nos grandes découvertes. On fait tomber par hasard du latex sur une cuisinière et l’on découvre le caoutchouc vulcanisé. On laisse une boîte de Pétri ouverte avant de partir en vacances et l’on revient pour constater qu’une moisissure bleue empêche la croissance des bactéries. On l’appelle pénicilline.
Pour rendre l’IA un peu plus « humaine », les programmeurs ont donc introduit une part d’aléatoire. Au lieu de toujours choisir le mot le plus probable – ou le chiffre le plus exact – la machine peut désormais « juger » par elle-même. C’est ce qui conduit aux erreurs factuelles et aux fameuses « hallucinations » qui perturbent les systèmes d’IA. Parfois, ils inventent des choses de toutes pièces. Parfois, ils tirent des conclusions erronées.
Comme l’a rapporté Forbes :
« Elon Musk affirme que Grok sera corrigé après que le chatbot a pris le parti de Sam Altman dans un différend concernant un éventuel procès contre OpenAI. »
Cette touche d’aléatoire séduit beaucoup les étudiants : elle donne à leurs dissertations générées par IA l’impression d’avoir été écrites par eux-mêmes. Mais le hasard devient tout de suite beaucoup moins séduisant quand on pilote un Boeing 737.
