Londres — Les négociateurs du Union européenne est parvenu vendredi à un accord sur les premières règles de grande envergure concernant intelligence artificielle dans le mondeouvrant la voie à un contrôle juridique de la technologie utilisée sur des plateformes populaires comme ChatGPT, qui ont promis de transformer la vie quotidienne et ont sonné l’alarme sur les graves dangers qu’elles représenteraient pour l’humanité.
Les négociateurs du Parlement européen et des 27 pays qui composent le bloc ont surmonté d’importantes divergences sur des points controverséscomme l’IA générative et l’utilisation policière de la reconnaissance faciale, à signer un accord politique provisoire en vue de la loi sur l’intelligence artificielle.
« Deal ! » a tweeté le commissaire européen. Thierry Breton peu avant minuit. « L’UE devient le premier continent à établir des règles claires pour l’utilisation de l’IA. »
Le résultat est intervenu après de longues discussions à huis clos cette semaine, avec une session de 22 heures avant un deuxième tour qui débutera vendredi matin.
Les responsables ont fourni peu de détails sur ce qui sera exactement inclus dans la future loi, qui n’entrera en vigueur qu’en 2025 au moins. Leur objectif était d’assurer une victoire politique à cette loi historique, mais ils devaient laisser la porte ouverte à de nouvelles négociations pour finaliser les petits caractères, ce qui entraînerait probablement davantage de pressions internes.
Le Parlement européen devra encore voter sur l’accord au début de l’année prochaine, mais puisque c’est fait, ce n’est qu’une formalité, a déclaré vendredi à l’Associated Press Brando Benifei, un législateur italien qui codirige les efforts de négociation de l’organisme.
Les systèmes d’IA générative comme ChatGPT d’OpenAI ont ébloui les utilisateurs par leur capacité à produire des textes, des photos et des chansons de type humain, mais ils ont également fait naître des craintes quant aux risques que cette technologie présente pour l’emploi, la vie privée et la protection du droit d’auteur, voire pour la vie humaine. lui-même.
Aujourd’hui, les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales telles que le Groupe des Sept ont présenté leurs propres propositions pour réglementer l’IA, même s’ils n’ont pas encore rattrapé l’Europe.
Selon Anu Bradford, professeur à la faculté de droit de l’Université de Columbia et experte en matière de réglementation européenne et numérique, une réglementation européenne forte et complète « peut être un bon exemple pour de nombreux gouvernements envisageant de réglementer ». D’autres pays « ne copieront peut-être pas toutes les dispositions, mais ils en imiteront probablement de nombreux aspects ».
Les entreprises d’IA qui devront se conformer aux règles de l’UE étendront probablement également certaines de ces obligations aux marchés extérieurs au continent, a-t-il déclaré. « Après tout, il n’est pas efficace de former différents modèles pour différents marchés », a-t-il déclaré.
D’autres craignent que l’accord ait été conclu à la hâte.
« L’accord politique d’aujourd’hui marque le début d’un travail technique important et nécessaire sur des détails cruciaux de la loi sur l’intelligence artificielle, qui manquent encore », a déclaré Daniel Friedlaender, chef du bureau européen de la Computer and Communications Industry Association, un groupe de lobbying de l’industrie technologique. .
L’AI Act a été initialement conçue pour atténuer les dangers de fonctions spécifiques de l’IA en fonction de leur niveau de risque, de faible à inacceptable. Mais les législateurs ont poussé à l’étendre aux modèles fondamentaux, c’est-à-dire aux systèmes avancés qui sous-tendent les services d’IA à usage général comme ChatGPT et le chatbot Bard de Google.
Les modèles fondateurs semblent constituer l’un des plus grands obstacles pour l’Europe. Cependant, les négociateurs sont parvenus à un accord de principe au début des négociations, malgré l’opposition de la France, qui prônait l’autorégulation pour aider les entreprises européennes d’IA générative à rivaliser avec de grands rivaux américains tels que Microsoft, le partenaire d’OpenAI.
Ces systèmes, également appelés grands modèles de langage, sont formés avec d’énormes quantités d’œuvres écrites et d’images extraites d’Internet. Ils offrent aux systèmes d’IA générative la capacité de créer quelque chose de nouveau, contrairement à l’IA traditionnelle, qui traite les données et accomplit les tâches selon des règles prédéterminées.
En vertu de l’accord, les modèles fondamentaux les plus avancés qui posent les plus grands « risques systémiques » seront soumis à un examen plus approfondi, notamment en étant tenus de divulguer davantage d’informations, telles que la puissance de calcul utilisée pour entraîner les systèmes.
Les chercheurs ont averti que ces puissants modèles fondateurs, créés par une poignée de grandes entreprises technologiques, pourraient être utilisés pour alimenter la désinformation et la manipulation en ligne, les cyberattaques ou la création d’armes biologiques.
La question la plus épineuse concernait les systèmes de surveillance par reconnaissance faciale basés sur l’IA, et les négociateurs sont parvenus à un compromis après d’intenses négociations.
Les législateurs européens voulaient interdire purement et simplement l’utilisation publique du scanner facial et d’autres systèmes « d’identification biométrique à distance » pour des raisons de confidentialité, tandis que les gouvernements des pays membres voulaient des exemptions afin que les forces de l’ordre puissent les utiliser pour lutter contre des crimes graves tels que l’exploitation sexuelle des enfants ou les attaques terroristes.
Les groupes de la société civile étaient plus sceptiques.
« Quelles que soient les victoires dans ces négociations finales, la vérité est que le texte final comportera encore d’énormes défauts », a déclaré Daniel Leufer, analyste politique au sein du groupe de défense des droits numériques Access Now. Outre les exemptions pour les forces de l’ordre, il a également cité le manque de protection des systèmes d’IA utilisés dans le contrôle des migrations et des frontières, ainsi que « des lacunes majeures dans les interdictions des systèmes d’IA les plus dangereux ».