Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

4 min. de lecture

 

Le sommet de Bletchley Park visait à rassembler les gouvernements mondiaux et les géants du secteur pour débattre de la réglementation de l’IA, dans sa variante générative en particulier. L’objectif affiché consiste notamment à mettre en place un institut dédié, avec une portée mondiale, alors même que les initiatives se multiplient dans le monde, et désormais notamment aux États-Unis. Les organisateurs et Rishi Sunak en premier lieu ont voulu centrer l’agenda sur les risques les plus extrêmes liés aux modèles dits « de frontière » : risques existentiels et de perte de contrôle par le biais de modèles qui s’émanciperaient de l’humain. Nombreux sont pourtant les problèmes à traiter, en premier lieu celui de la fiabilisation bien plus générale des modèles et du potentiel de manipulation tous azimuts, qui occupent les responsables politiques dans le monde.

Un agenda inspiré par la perspective de la Big tech

On peut ainsi voir dans l’organisation de ce sommet un biais qui correspond plutôt à la perspective des géants du secteur, qui ont volontiers répondu présents à l’appel. Ceux-ci développent des modèles massifs, qui, bien que dominant le secteur, ne reposent pas toujours sur des méthodes à la pointe conceptuelle de l’IA. Ainsi, les acteurs de la Big Tech s’affichent volontiers favorables à une volonté de réglementation qui se concentrerait sur les risques apocalyptiques pour l’humanité, venant des innovations de « frontière » et moins sur leurs propres modèles. Il s’agit là de fonder la réglementation sur des systèmes de licences qui viendront aussi ralentir la concurrence d’agents émergents, notamment ceux issus de l’open source, sans tellement entraver l’expansion des acteurs établis.

Les géants sont évidemment plus réticents face aux tentatives de réglementation plus détaillées, qui sont au cœur des discussions politiques dans le monde. Celles-ci ne se focalisent naturellement pas que sur les risques apocalyptiques de la « frontière » technologique, mais aussi sur les failles béantes des modèles existants. Au début de l’été, on voyait ainsi Sam Altman, dans un paradoxe seulement apparent, soutenir avec une certaine emphase, au Congrès américain qui avait pris du retard sur le sujet, l’idée d’une régulation de l’IA, en pointant les risques existentiels, et quelques jours plus tard, menacer l’Europe de la déserter en cas de régulation plus large. Il annonçait quelques jours plus tard une première implantation européenne d’OpenAI au Royaume-Uni.

Fragmentation politique et course à la réglementation

Le gouvernement britannique a affiché la volonté d’impliquer des États très divers, au-delà des lignes de failles géopolitiques, en associant la Chine en particulier. Au-delà de cette voie de concertation géopolitique, se manifeste aussi une volonté consistant à attirer les grands groupes au Royaume-Uni, en ce qui concerne leurs investissements européens. Le symbole lié à Bletchley Park (où l’équipe d’Alan Turing perça le code Enigma) enrobe cette stratégie d’une belle aura historique, face au renforcement de la volonté d’encadrement à Washington et au tropisme bureaucratique qu’a manifesté le Parlement européen. Les États censés contribuer à cet exercice de gouvernance mondial en ont perçu les limites et ont eu tendance à rester sur leur réserve.

Aux États-Unis, l’administration Biden, après avoir tardé, cherche en effet à accélérer le processus d’encadrement et de transparence des risques des modèles, au moyen de décrets. En parallèle, Washington a affiché une certaine distance vis-à-vis de l’initiative de Londres et l’idée d’un institut mondial visant à la régulation de l’IA, privilégiant l’idée d’un organisme national.

En ce qui concerne l’Union européenne, son AI Act, en gestation, a pris les devants, mais présente des failles notables, en particulier en ce qui concerne sa complexité et le fait qu’il a été pensé sur la base de développements antérieurs à l’explosion des modèles de langage depuis 2017. De nombreux gouvernements, notamment français et en allemand, ont commencé à percevoir ce texte comme une menace pour le développement de l’IA en Europe et souhaitent adopter une approche plus flexible et adaptative de la réglementation. Pour autant, cela n’implique pas d’accorder un blanc-seing à la Big tech en renvoyant toute réglementation aux seuls risques existentiels des modèles « de frontière ».

Garantir la sécurité et l’émergence de nouveaux acteurs européens

L’Europe dispose de compétences poussées dans le domaine et d’un considérable vivier d’ingénieurs et de chercheurs qui se lancent aisément dans le développement de modèles d’IA suivant de nombreuses applications. Pour autant le manque de financement ralentit considérablement le rattrapage face aux États-Unis. Cela fait, plus en profondeur, craindre une dépendance de long terme aux modèles développés aux États-Unis. Une réglementation labyrinthique risque de creuser cet écart.

Le secteur de l’IA connaît une explosion du rôle de l’open source qui permet à des acteurs très variés de se lancer dans la course des applications de l’IA et de la réappropriation de modèle. De cette façon, l’Europe peut se positionner de la façon la plus directe. Cela est plus aisé en particulier que de viser à développer entièrement de nouveaux modèles géants ex-nihilo, bien que cet enjeu reste aussi crucial, pour des raisons notamment d’autonomie technologique. L’intérêt de l’Europe est ainsi d’offrir une réglementation lisible, qui s’adapterait aux risques en fonction des développements réels de la technologie, et d’abaisser autant que possible les barrières d’entrée.

Il est essentiel pour toutes les zones économiques que la régulation vienne garantir la sécurité des modèles ainsi que l’émergence de nouveaux acteurs de pointe, plutôt que d’assurer les positions établies des géants du secteur, qui ne constituent pas une garantie de sécurité au vu des failles de leurs propres modèles.