Sans changement de pied sur la réglementation d’une part et les fonds de pension d’autre part, il est à craindre que l’UE reste un « nain technologique » !
Comme nous l’avons vu dans nos précédents articles (ici et là), le retard technologique de l’Europe s’explique par un déficit d’épargne de long terme qui freine l’innovation, aggravé par une réglementation lourde – comme le RGPD ou le DSA.
S’ajoute à cela le Digital Markets Act (DMA), qui vise à lutter contre les pratiques anticoncurrentielles des géants d’Internet et à corriger les déséquilibres de leur domination sur le marché numérique européen.
Très nettement, ce sont les GAFAM qui sont dans le collimateur de cette réglementation pour la masse de données qu’ils traitent et les algorithmes puissants qu’ils utilisent. La Commission européenne considère en effet qu’ils enferment les internautes dans leur réseau et que cela leur a permis d’acquérir une position de quasi-monopole sur le marché européen, laissant peu de place à la concurrence.
En gros, il s’agit de les empêcher de favoriser leurs produits sur leurs propres sites.
Dans la pratique, le DMA permet de s’affranchir des règles communautaires en matière de concurrence, sous prétexte qu’elles seraient d’une lenteur et d’une complexité inadaptées à l’accélération de l’ère numérique. Ainsi, le DMA simplifie le processus d’enquête sur les pratiques de marché en supprimant toute charge de preuve. Autrement dit, il n’est plus nécessaire de définir le marché pertinent, de déterminer la position dominante, de vérifier l’existence d’effets anticoncurrentiels et d’évaluer les avantages pro-concurrentiels. Ce n’est plus l’abus de position dominante qui est sanctionné, mais la position dominante en tant que telle.
Le résultat de tout cela est que, depuis le 6 mars 2024 – date d’entrée en vigueur du DMA –, Internet est plus lent en Europe. Cela pénalise les Européens et leurs entreprises. Surtout, cela n’encourage pas les entreprises de la tech à lancer de nouveaux produits et à investir. Si elles réussissent et parviennent à séduire les consommateurs, elles pourraient dominer leur marché et ainsi être sanctionnées !
Enfin, l’Artificial Intelligence Act (AIA), promulgué le 1er août 2024, va entrer en vigueur par étapes. Encore une fois, il s’agit officiellement de protéger les consommateurs, mais aussi la démocratie. La réglementation introduit un cadre hiérarchisé, basé sur les risques, qui catégorise les applications d’IA en fonction de leur impact potentiel.
A un extrême, les applications considérées comme présentant des « risques inacceptables », telles que les systèmes permettant la notation sociale par les gouvernements ou la surveillance biométrique en temps réel dans les espaces publics, sont purement et simplement interdites. Dans la catégorie « risque intermédiaire élevé », les systèmes ayant un impact sur des secteurs critiques tels que la santé, l’éducation, le maintien de l’ordre et l’emploi sont soumis à des exigences strictes comme des évaluations des risques obligatoires, une surveillance humaine et des tests rigoureux pour garantir le respect des normes de transparence et de responsabilité.
Ceux qui connaissent ChatGPT d’OpenAI, Llama de Meta ou Gemini de Google savent que ces systèmes d’IA à usage général sont polyvalents et adaptables, et répondent à d’innombrables applications. Cette polyvalence rend quasiment impossible l’évaluation exhaustive de tous les risques potentiels ou la création de réglementations anticipant toutes les utilisations possibles.
Tenter de réglementer de tels systèmes à ce stade précoce de leur développement rappelle la folie du Congrès continental nord-américain du XVIIIe siècle, qui tenta de réglementer toutes les utilisations de l’électricité. Tout comme le potentiel transformateur de l’électricité n’a pu être pleinement compris ni réglementé à ses débuts, il en va de même pour l’IA.
Cela risque d’imposer des coûts de conformité disproportionnés aux développeurs, en particulier aux petites entreprises et aux start-ups. Un rapport du Center for Data Innovation suggère que les coûts de conformité des systèmes d’IA à haut risque pourraient atteindre jusqu’à 400 000 € pour une petite entreprise réalisant un chiffre d’affaires annuel de 10 millions d’euros, soit environ 4% du chiffre d’affaires annuel. Dans ce cas, il est possible que seules les grandes entreprises (comme les GAFAM ?) aient les moyens d’absorber ces coûts.
De plus, les définitions de termes clés tels que « risque élevé » et « risque systémique » figurant dans la loi restent ambiguës, ce qui crée des incertitudes quant à l’application des règles. Par exemple, les technologies d’identification biométrique utilisées dans des environnements de niche contrôlés pourraient être soumises aux mêmes normes rigoureuses que celles déployées dans les espaces publics, malgré des profils de risque très différents.
Une telle ambiguïté réglementaire pourrait décourager l’investissement et l’expérimentation, certaines entreprises choisissant de se délocaliser vers des juridictions aux cadres plus souples, comme les Etats-Unis ou la Chine, où le développement de l’IA continue de prospérer sous une surveillance moins restrictive.
Nous nous sommes limités aux réglementations ayant un lien direct avec les technologies numériques au sens large. Malheureusement, l’Union européenne ne limite pas sa folie réglementaire à ce domaine. Dernièrement ont, par exemple, été promulguées les directives CSRD et CS3D.
La CSRD (corporate sustainability reporting directive) vise à harmoniser en Europe la manière dont les entreprises rapportent leurs données de « durabilité » (environnementales, sociales et de gouvernance). C’est « un enfer pour les entreprises », a reconnu Sophie Primas, la porte-parole du gouvernement. Quant à la CS3D (corporate sustainability due diligence directive), elle rend de facto les grandes entreprises responsables de toute atteinte à l’environnement ou aux droits de l’homme commise non seulement par elles-mêmes, mais aussi par tout maillon de leur chaîne d’approvisionnement, voire par leurs clients.
Tous ces textes font de l’Union européenne un « monstre réglementaire » qui pénalise ses entreprises et ses habitants. Nous disions, au début de cette série d’articles, que l’Europe consacrait peu d’argent à la R&D. Mais n’est-ce pas pertinent, au regard des obstacles qu’elle met à l’innovation ? Consacrer davantage de moyens financiers à la R&D ne reviendrait-il pas à jeter l’argent par les fenêtres ?
Sans changement de pied sur la réglementation d’une part et sur les fonds de pension d’autre part, il est à craindre que l’UE reste un « nain technologique », et par conséquent devienne de plus en plus aussi un « nain économique » !