La régulation européenne de l’IA : les géants de la tech en mode défense
Publié le 27 09 2024 | Mis à jour le 21 12 2024
Les plus grandes entreprises technologiques mondiales redoublent d’efforts pour influencer la réglementation de l’intelligence artificielle en Europe, face à la perspective de sanctions financières massives. En mai dernier, l’Union européenne a adopté la première législation mondiale visant à encadrer cette technologie en pleine expansion : la loi sur l’IA. Cependant, les détails du texte, notamment concernant les systèmes d’IA « à usage général » comme ChatGPT d’OpenAI, restent flous, laissant place à des incertitudes pour les entreprises quant aux implications concrètes.
L’objectif de la loi sur l’IA est de garantir que les systèmes d’intelligence artificielle respectent des normes éthiques et légales strictes. Mais cette régulation soulève de nombreuses questions pour les entreprises. En effet, la loi prévoit des sanctions allant jusqu’à 6 % du chiffre d’affaires mondial des contrevenants, ce qui pourrait représenter des milliards d’euros pour des entreprises comme Google, Meta ou Amazon. Ces géants craignent que la législation, si elle est appliquée de manière trop stricte, freine l’innovation et entraîne une fragmentation du marché européen.
Le code de pratique, un équilibre délicat à trouver
L’UE a sollicité près de 1 000 experts, universitaires, entreprises et organisations à but non lucratif pour participer à la rédaction du code de pratique. Ce document, bien qu’il ne soit pas juridiquement contraignant, servira de guide aux entreprises pour démontrer leur conformité à la législation. En pratique, cela signifie que les entreprises qui prétendent suivre la loi sans respecter ce code pourraient être exposées à des actions juridiques. Le code inclura des obligations de transparence sur l’utilisation des données pour entraîner les modèles d’IA, ce qui inquiète particulièrement les entreprises qui se défendent en invoquant la protection des secrets commerciaux.
Des sociétés comme OpenAI et Stability AI, qui utilisent des données massives pour entraîner leurs modèles, ont déjà été interpellées sur la question de savoir si l’exploitation d’œuvres protégées par le droit d’auteur, telles que des livres ou des images, constitue une violation légale. La loi sur l’IA pourrait donc ouvrir la voie à des demandes de compensation de la part de créateurs dont les œuvres auraient été utilisées sans autorisation.
Le bras de fer avec les géants de la tech
Des entreprises comme Google, Amazon et Meta ont toutes exprimé leur volonté de participer aux groupes de travail de l’UE afin de façonner le code de pratique. Boniface de Champris, un responsable de l’organisation commerciale CCIA Europe, qui représente ces entreprises, a souligné que ce code était déterminant pour permettre aux entreprises de continuer à innover. Il met en garde contre une réglementation trop stricte, qui pourrait paralyser le secteur.