AI Act : quel compromis pour permettre l’essor de l’intelligence artificielle européenne ?

6 min. de lecture

 

Le 8 décembre 2023, un accord politique a été trouvé au sein de l’Union européenne pour encadrer le développement de l’intelligence artificielle (IA). En quoi consiste cet accord, inédit au niveau mondial, et quelles sont ses implications pour les États membres et les lobbies du secteur technologique ? Quels ont été les principaux points d’achoppement des négociations entre les institutions européennes et certains États membres ? Que disent ces différends quant à la solidité de l’accord trouvé ? En quoi l’IA est-elle un enjeu majeur pour l’Europe ? Quelles seraient les conséquences pour l’économie européenne ? Qu’en est-il de la France ? Le point avec Rémi Bourgeot, économiste et chercheur associé à l’IRIS.

En quoi consiste cet accord, inédit au niveau mondial, et quelles sont ses implications pour les États membres et les lobbies du secteur technologique ?

L’AI Act, en gestation depuis 2021, a fait face à de nombreux défis cette année. L’explosion de l’IA générative en particulier a bouleversé son approche. Celle-ci est fondée sur les niveaux de risque associés à divers types d’application, d’un inoffensif filtre de spams à l’usage inacceptable de la reconnaissance faciale dans la vie de tous les jours. Les concepteurs de cette réglementation, essentiellement au Parlement européen, n’avaient pas envisagé le potentiel de l’IA générative et ont dû revoir leur copie, en y ajoutant des provisions spécifiques. Le besoin de régulation ne fait guère de doute en tant que tel. Ces ajouts dans l’urgence ont pour autant fait planer le spectre d’un écrasement des startups européennes, en plein début de rattrapage, sous le poids d’une réglementation labyrinthique, qui serait paradoxalement plus gérable pour les géants américains, bien plus avancés.

Les progrès spectaculaires des modèles de langage reposent sur des réseaux de neurones utilisant des milliards de paramètres calculés sur des données de nature peu transparentes. Cela soulève des questions allant du respect de la vie privée à celui du droit d’auteur en passant par de multiples risques sécuritaires liés à leur usage et à leur fonctionnement erratique. Ces évolutions très rapides appellent une réglementation flexible, adaptative même. À l’inverse, l’approche reposant sur des centaines de pages de considérations autoréférentielles, appelées à être inscrites dans le marbre législatif, court le risque d’une rapide obsolescence.

Au-delà de simples exemptions, une certaine flexibilité est rendue d’autant plus nécessaire par le rôle de plus en plus central de l’Open source dans l’IA, opportunité dont s’emparent les startups européennes. La plupart se réapproprient certains grands modèles de langage développés par les géants du secteur alors que certaines commencent aussi désormais à développer leurs propres modèles sous-jacents.

Ainsi, une approche réglementaire ouverte serait nécessaire autant pour faire face aux nouveaux risques qui ne manqueront pas d’émerger que pour permettre l’épanouissement d’une l’IA européenne inventive et originale, face aux mastodontes américains et chinois.

Quels ont été les principaux points d’achoppement des négociations entre les institutions européennes et certains États membres ? Que disent ces différends quant à la solidité de l’accord trouvé ?

Les législateurs ont pensé répliquer la démarche de la RGPD, qui s’est imposée comme une sorte d’étalon or de la réglementation des données dans le monde, face aux plateformes de réseaux sociaux. L’enjeu technologique est pourtant différent avec l’IA. L’Europe souffre d’un retard chronique face aux géants numériques américains. L’AI Act ajoute de l’incertitude aux débuts de succès, au moins en termes de financement, que l’on a vu en France avec la startup Mistral et Aleph Alpha en Allemagne.

Ces préoccupations ont conduit, ces dernières semaines, les gouvernements français, allemand et italien à tenter de renverser la table. Une certaine cacophonie s’est développée, entre deux sujets distincts : d’un côté les débats sur l’utilisation étatique de la reconnaissance faciale (à laquelle certains États membres refusent de renoncer intégralement), et de l’autre, l’enjeu consistant à préserver le potentiel des startups qui travaillent à des modèles de fondation, qui sous-tendent l’IA générative. Le trio des trois plus grands États a usé de termes qui prêtaient à confusion, en proposant une forme d’autorégulation et de code de conduite pour ces modèles.

Face à cette résistance, les institutions européennes ont cherché à maintenir le cap dans l’urgence, à renfort d’ONG exprimant une vision souvent générale, en faveur de l’adoption de l’AI Act en l’état. Il en est ressorti une forme de compromis prévoyant notamment une assez large exemption pour les milieux de l’open source, qui sont au cœur des initiatives européennes sur les modèles de fondation.

Alors que le ministre français du numérique Jean-Noël Barrot a déclaré que cet accord permettrait de préserver la capacité de l’Europe à développer ses propres technologiques d’intelligence artificielle et à préserver son autonomie stratégique, en quoi l’IA est-elle un enjeu majeur pour l’Europe ? Quelles seraient les conséquences pour l’économie européenne ? Qu’en est-il de la France ?

L’Europe affiche un retard préoccupant, face aux géants américains, mais aussi face à la Chine. Cela n’était pas une fatalité. Les réseaux de neurones ont bénéficié, ces dernières décennies, du travail acharné de visionnaires européens, qu’ils soient restés sur le continent ou partis aux États-Unis. Ceux-ci ont poussé les réseaux de neurones à une époque où d’autres types de modèles dominaient la scène de l’IA.

On pense bien sûr à Geoffrey Hinton, le « parrain de l’IA », britannique qui a rapidement quitté la Silicon Valley pour s’implanter à Toronto et ainsi garder quelques distances face au complexe militaire américain. Notons que ce pionnier, grand pédagogue, s’exprime dans un anglais admirable de clarté technique et philosophique, qui pourrait inspirer nos rédacteurs réglementaires. Le français Yann Le Cun œuvre également comme pionnier des réseaux de neurones depuis ses études d’ingénieur dans les années 1980. Il est aujourd’hui « Chief AI Scientist » de Meta, où il promeut notamment l’open source. Dès 1991, l’allemand Sepp Hochreiter avançait la notion de mémoire longue dans les réseaux de neurones, dans son mémoire de master… Cela aboutira dès 1995 à la fameuse architecture LSTM (long short term memory), encore utilisée et dont les avancées ont ouvert la voie aux modèles de langage à base de « transformers », au cœur de la révolution de l’IA générative depuis 2017. Les exemples européens sont légion dans la genèse des réseaux de neurones.

Malgré la crise éducative et du niveau de mathématiques en particulier, l’Europe et la France notamment gardent des poches d’excellence qu’il convient d’encourager à déployer leur talent au profit d’une IA différente. L’idée selon laquelle l’Europe s’épanouirait dans un rôle administratif de régulateur mondial, dans une dépendance généralisée vis-à-vis des États-Unis et de la Chine, semble suicidaire sur le plan économique et stratégique, au vu de l’importance de l’IA dans tous les aspects du développement technologique. L’appropriation des technologies de pointe a toujours été au cœur des mécanismes de rattrapage, de développement et de puissance. L’Europe s’était focalisée, ces dernières décennies, sur la politique de la concurrence aux dépens des enjeux industriels. Le citoyen européen a ainsi été vu plus comme un consommateur qu’un producteur et, aujourd’hui encore avec l’AI Act, davantage comme un utilisateur qu’un développeur. On a vu un début important de correction de cette tendance, notamment depuis la nomination de Thierry Breton, mais le chantier reste manifestement de taille.