L’IA pourra-t-elle remplacer les gestionnaires de patrimoine et autres traders ? Les premières expériences, et la réponse de ChatGPT à cette question, pointent dans la même direction.
ChatGPT n’en finit plus de faire parler de lui. Lancé fin novembre 2022, ce prototype d’agent conversationnel basé sur l’intelligence artificielle (IA), mis au point par la société OpenAI, a tout de suite séduit. Il est vrai que l’outil est, par bien des côtés, bluffant. Posez-lui une question sur n’importe quel sujet, et il vous répond dans un français correct (voire au-dessus de la moyenne) et sans dire trop de bêtises.
On comprend qu’il ait intéressé beaucoup de monde : les écoliers et les étudiants, les paresseux, les incultes, les débordés, les journalistes, les curieux, les pressés, tous ceux qui ne savent pas écrire (certains cumulant plusieurs de ces états), etc. Mais pas seulement.
Dans les entreprises, ChatGPT a vite trouvé ses partisans, notamment parce qu’il peut faire gagner un temps considérable. Il est une aide précieuse pour générer du contenu, de manière autonome, rapide et efficace. En quelques secondes, il est capable d’écrire un article, quel que soit le sujet. Il va, en effet, puiser dans les milliards de pages que l’on a mis à sa disposition, puis résumer les informations trouvées pour en tirer un texte impeccable par des biens des côtés.
Surtout, ChatGPT n’arrête pas d’apprendre, notamment des questions posées par ses utilisateurs. Il s’améliore donc au fur et à mesure de son emploi. Il peut écrire des textes pour les réseaux sociaux ou des sites internet par exemple, en suivant les consignes qu’on lui donne comme « ajouter une citation de tel auteur en rapport avec le sujet », « faire une liste à puces » ou « donner des exemples chiffrés ». Il peut même aider à faire une lettre de motivation, à destination d’une entreprise précise, à partir des informations contenues dans un CV.
Des réponses très scolaires et généralistes
Bien entendu, ChatGPT a des limites. La principale est que les données dans lesquelles il s’alimente peuvent être obsolètes (elles n’ont pas été mises à jour depuis septembre 2021 dans la version gratuite actuelle, basée sur le modèle GPT 3.5).
De plus, il n’a pas accès à internet et, par conséquent, ne peut intégrer des éléments d’actualité dans ses réponses. Je lui ai demandé combien il y avait eu de manifestations contre la réforme des retraites cette année, il n’a pas été capable de me répondre.
De ce fait, il peut par exemple manquer sérieusement de fiabilité sur des questions juridiques dans un pays comme la France, où l’instabilité réglementaire est la règle !
De plus, ChatGPT ne cite pas ses sources. Ainsi, il est possible que, sur une question très pointue, il ne s’abreuve qu’à une seule source de données qui, sans être obsolète, peut ne pas être fiable. Ce manque d’information sur les données utilisées est un problème pour celui qui reprend les textes de l’outil tels quels.
Enfin, on notera que les réponses fournies sont généralement « scolaires ». Ses contenus sont bien souvent remplis de généralités ; ils peuvent être répétitifs, voire barbants. ChatGPT a du mal à appréhender la complexité et les nuances, et ne donnera jamais son opinion, tout simplement parce qu’il n’en a pas. Ne comptez pas sur lui pour être original.
Or, je suis persuadé qu’aujourd’hui il n’y a pas trop de contenus sur internet, contrairement à ce que beaucoup prétendent, mais qu’il y a trop de mauvais contenus qui ne valent pas la peine d’être lus. On peut raisonnablement craindre que ChatGPT et l’IA en général ne viennent qu’ajouter des contenus médiocres. D’autant plus que l’outil est sérieusement soupçonné de wokisme ou du moins de bien-pensance.
Cela pourrait changer avec la nouvelle version, basée sur le modèle GPT-4. Celle-ci pourrait être tellement puissante – on parle de 100 000 milliards de paramètres, alors que le modèle actuel n’en propose que 175 milliards ! – et parfaite qu’elle serait irréprochable sur ces points. La concurrence – Google vient de lancer Bard – pourrait aussi proposer une plus grande qualité des contenus, une neutralité des réponses, etc.
Mais arrêtons-là les considérations sur les avantages et les inconvénients de l’IA, de ChatGPT et de Bard, sur lesquels nous pourrions disserter sur des pages et des pages, et revenons à notre question première : ces outils vont-ils devenir nos prochains conseillers financiers ou patrimoniaux ?
ChatGPT n’est pas un conseiller financier
Au début du mois, un site web n’hésitait pas à titrer : « ChatGPT peut choisir des actions mieux que votre gestionnaire de fonds ». Pour affirmer cela, il s’appuie sur une expérience menée par la plateforme Finder UK, qui a constitué un fonds de 38 actions choisies par ChatGPT. Au cours des neuf semaines de son existence, ce « fonds ChatGPT » a progressé de 4,66% alors qu’en moyenne les dix fonds les plus populaires au Royaume-Uni ont baissé de 1,86% sur la même période. Sur les 45 jours de l’expérience, le fonds ChatGPT a surperformé les dix fonds pendant 40 jours, soit 89% du temps.
Alors, les traders ont-ils du souci à se faire pour leur avenir, comme le prétend Jon Ostler, le PDG de Finder ?
C’est sans doute aller un peu vite en besogne, comme l’écrivait Jim Rickards dans ces colonnes il y a quelques jours :
« Les investisseurs doivent faire attention à ne pas se reposer aveuglément sur des systèmes GPT pour les conseils financiers, et ce malgré leur énorme puissance de traitement. Le résultat obtenu n’est jamais meilleur que les données utilisées pour l’obtenir et les données de marché regorgent de modèles erronés, d’hypothèses fausses, de mauvaises prévisions et de biais. »
Le quotidien économique Les Echos a posé quatre questions à ChatGPT en février, puis a fait lire ses réponses à des conseillers en gestion de patrimoine. En vrac, ceux-ci notent un manque de nuance, des approximations, parfois des affirmations risquées – comme « les prix de l’immobilier en France ne baisseront pas en 2023 » –, voire carrément des erreurs. Pour eux, l’outil n’aide donc pas à la décision.
En avril, le journal reposait les mêmes questions à la version payante de l’outil. Résultats : plus de modération et de prudence dans les réponses, mais toujours des généralités.
Plutôt que de s’en remettre à des intermédiaires, j’ai demandé moi-même à ChatGPT s’il serait mon prochain conseiller financier. Il a répondu par la négative comme vous pouvez le lire ci-dessous :
Je lui ai également demandé, comme je l’ai fait dans une série d’articles le mois dernier, si les cartes étaient des objets de spéculation rémunérateurs. Voici sa réponse :
En toute modestie, je pense avoir traité du sujet de manière plus approfondie. Faisons donc confiance à ChatGPT et ne le prenons pas pour ce qu’il n’est pas. Ce n’est pas un conseiller financier, ni un journaliste spécialisé.
Pour autant, l’intelligence artificielle ne peut-elle pas être utile en matière de finance ?
Nous en parlerons dans le prochain article !