L’IA en Europe, elle choisit de la réguler ?
En résumé, cet article aborde la régulation de l'intelligence artificielle en Europe. Il mentionne l'émergence de ChatGPT, un modèle de langage conversationnel, et souligne que l'Europe a décidé de réguler cette technologie pour éviter les abus potentiels.
Le Parlement européen a produit un projet de loi qui s'inspire des réglementations existantes et impose des contrôles aux entreprises. Les dérives potentielles comprennent le pistage numérique des citoyens, la restriction de la liberté d'expression et la manipulation de l'information.
Bien qu'il y ait certains aspects positifs, comme l'interdiction de systèmes de surveillance de masse similaires à ceux utilisés en Chine, l'article critique également les actions contradictoires du Parlement européen, telles que l'autorisation d'un passeport vaccinal et de mesures drastiques au sein de son institution.
L'auteur exprime des doutes quant à l'efficacité de la réglementation proposée, soulignant que de nombreuses techniques d'intelligence artificielle sont déjà disponibles en open source et que la recherche se poursuit indépendamment des législateurs. Il suggère que la régulation pourrait entraver l'innovation et que les États pourraient contourner les lois pour leurs propres intérêts.
En conclusion, l'article critique les approches législatives de l'administration européenne, les comparant aux principes économiques socialistes de taxation, réglementation et subventionnement.
Committee on the Internal Market and Consumer Protection Committee on Civil Liberties, Justice and Home Affairs 9/5/2023 KMB/DA/AS Version: 1.0 DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD))
Juridiction très large :
La loi concerne les "fournisseurs et les opérateurs de systèmes d'IA établis ou situés dans un pays tiers, où le droit d'un État membre s'applique en vertu du droit international public ou où la sortie produite par le système est destinée à être utilisée dans l'Union européenne" (p. 68-69).
Vous devez enregistrer votre projet d'IA "à haut risque" ou votre modèle fondamental auprès du gouvernement. Les projets devront enregistrer les fonctionnalités anticipées de leurs systèmes. Les systèmes qui dépassent ces fonctionnalités peuvent faire l'objet d'un rappel. Cela posera problème pour de nombreux projets open-source plus anarchiques. L'enregistrement exigera également la divulgation des sources de données utilisées, des ressources informatiques (y compris le temps passé à l'entraînement), des critères de performance et des tests d'évaluation (p. 23-29).
Des tests de risque coûteux sont requis. Apparemment, les différents États membres de l'UE effectueront des évaluations "tiers" dans chaque pays, selon une échelle mobile de frais en fonction de la taille de l'entreprise demanderesse. Les tests doivent être des critères de référence qui n'ont pas encore été créés. Un suivi après la mise en service est requis (probablement par le gouvernement). Une nouvelle certification est requise si les modèles montrent des capacités inattendues. Une nouvelle certification est également requise après tout entraînement substantiel (p. 14-15, voir disposition 4a pour clarifier qu'il s'agit de tests gouvernementaux).
Risques très vaguement définis : La liste des risques inclut les risques pour des choses telles que l'environnement, la démocratie et l'État de droit. Qu'est-ce qu'un risque pour la démocratie ? Cette loi elle-même pourrait-elle représenter un risque pour la démocratie ? (p. 26).
Les LLM Open Source ne sont pas exempts : Les modèles fondamentaux open source ne sont pas exemptés de la loi. Les programmeurs et les distributeurs du logiciel sont responsables légalement. Pour les autres formes de logiciels d'IA open source, la responsabilité est transférée au groupe qui utilise le logiciel ou le met sur le marché (p. 70).
Les API sont essentiellement interdites. Les API permettent à des tiers de mettre en œuvre un modèle d'IA sans l'exécuter sur leur propre matériel. Certains exemples d'implémentation incluent AutoGPT et LangChain. Selon ces règles, si un tiers, en utilisant une API, découvre comment faire réaliser à un modèle quelque chose de nouveau, ce tiers doit ensuite faire certifier la nouvelle fonctionnalité.
Le fournisseur précédent est tenu, en vertu de la loi, de fournir au tiers ce qui serait autrement des informations techniques confidentielles afin que le tiers puisse terminer le processus de licence. La capacité de contraindre les divulgations confidentielles signifie que les start-ups et autres bricoleurs sont essentiellement interdits d'utilisation d'une API, même si le bricoleur se trouve aux États-Unis. Le bricoleur pourrait rendre son logiciel disponible en Europe, ce qui entraînerait la nécessité de le licencier et de contraindre les divulgations (p. 37).
Les développeurs open source sont responsables. La loi est mal rédigée. La loi ne couvre pas les composants d'IA open source gratuits. Les modèles fondamentaux (LLM) sont considérés comme distincts des composants. Ce que cela semble signifier, c'est que vous pouvez ouvrir des modèles d'apprentissage automatique traditionnels open source, mais pas des IA génératives.
Si un développeur open source américain place un modèle ou du code utilisant une API sur GitHub, et que le code devient disponible dans l'UE, le développeur serait responsable de la diffusion d'un modèle non autorisé. De plus, GitHub serait responsable d'héberger un modèle non autorisé (p. 37 et 39-40).
LoRA essentiellement interdit. LoRA est une technique pour ajouter progressivement de nouvelles informations et fonctionnalités à un modèle à moindre coût. Les projets open source l'utilisent car ils ne peuvent pas se permettre une infrastructure informatique coûteuse. On dit également que les grands modèles d'IA l'utilisent, car l'entraînement est moins coûteux et plus facile à vérifier en termes de sécurité que les nouvelles versions d'un modèle qui introduisent de nombreuses nouvelles fonctionnalités en une seule fois (p. 14).
Si un projet open source parvient d'une manière ou d'une autre à obtenir les certificats requis, il devra les renouveler chaque fois que LoRA est utilisé pour étendre le modèle.
Licence de déploiement. Les personnes ou entités utilisant des systèmes d'IA sont tenues de subir un examen rigoureux de permis avant le lancement. Les petites entreprises de l'UE sont exemptées de cette exigence (p. 26).
Possibilité pour des tiers de poursuivre en justice. Les tiers concernés ont le droit d'intenter des poursuites par l'intermédiaire de l'autorité de régulation de l'IA d'un pays (établie par la loi). Cela signifie que le déploiement d'un système d'IA peut être contesté individuellement dans plusieurs États membres. Les tiers peuvent intenter des poursuites pour contraindre une autorité nationale de régulation de l'IA à infliger des amendes (p. 71).
Très grosses amendes. Les amendes en cas de non-conformité vont de 2 % à 4 % du chiffre d'affaires mondial brut de l'entreprise. Pour les personnes physiques, cela peut atteindre 20 000 000 €. Les PME et les start-ups européennes bénéficient d'une exonération en ce qui concerne les amendes (p. 75).
Les systèmes de R&D et d'énergie propre dans l'UE sont exemptés. L'IA peut être utilisée pour des tâches de R&D ou la production d'énergie propre sans se conformer à ce système (p. 64-65).
Loi sur l'IA et droit américain
L'attribution très large de la compétence extraterritoriale posera problème. La loi sur l'IA permettrait à toute personne mécontente de l'IA - du moins si elle est citoyenne de l'UE - de contraindre les gouvernements de l'UE à engager des poursuites judiciaires si des modèles non autorisés étaient en quelque sorte disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises opérant dans l'UE de se conformer aux lois de l'UE.
Le principal problème concerne les restrictions sur les API. Actuellement, de nombreux fournisseurs de cloud américains ne restreignent pas l'accès aux modèles d'API, en dehors des listes d'attente que les fournisseurs s'efforcent de combler. Un programmeur à domicile ou un inventeur dans son garage peut accéder aux dernières technologies à un prix raisonnable. Sous les restrictions de la loi sur l'IA, l'accès aux API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.
Ce que veut l'UE va à l'encontre de ce que demande la FTC. Pour qu'une entreprise américaine impose de telles restrictions aux États-Unis, cela soulèverait de nombreux problèmes de concurrence. Les coûts de formation des modèles limitent leur disponibilité aux acteurs très capitalisés. La FTC a été très claire en disant qu'elle ne veut pas voir se reproduire la situation d'Amazon, où une plus grande entreprise utilise sa position pour s'approprier la majeure partie des bénéfices - au détriment des plus petits partenaires. Agir de la manière recherchée par la loi sur l'IA soulèverait d'importants problèmes de concurrence pour les entreprises américaines.
En dehors des dispositions antitrust, la sanction de l'innovation par la loi sur l'IA représente un point de conflit. Pour les acteurs américains, trouver un nouveau moyen d'utiliser un logiciel pour gagner de l'argent est une bonne chose. Selon la loi de l'UE, trouver un nouveau moyen d'utiliser un logiciel annule la certification de sécurité et nécessite un nouveau processus de licence. Les désincitations à l'innovation sont susceptibles de créer des frictions étant donné la portée extraterritoriale de la loi.
Enfin, les dispositions sur les logiciels open source posent un problème majeur. La loi sur l'IA considère les développeurs open source travaillant sur des modèles fondamentaux ou avec ceux-ci comme des acteurs néfastes. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles fondamentaux non autorisés, ainsi que de codes améliorant apparemment les modèles fondamentaux. Pour toutes les autres formes d'apprentissage automatique open source, la responsabilité de la licence incombe à la personne qui déploie le système.
Tenter de sanctionner certaines parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne réagiront probablement pas bien à l'idée qu'un gouvernement leur dise qu'ils ne peuvent pas programmer quelque chose, surtout si le gouvernement n'est pas le leur. De plus, que se passe-t-il si GitHub et les différents "co-pilotes" disent simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.
Il existe donc de nombreux points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain, notamment en ce qui concerne la portée extraterritoriale, les restrictions sur les API, les problèmes de concurrence, les obstacles à l'innovation et les dispositions sur les logiciels open source. Ces points de friction peuvent entraîner des conflits juridiques et des différences d'approche réglementaire entre les deux juridictions.
« Lorsque toute la vie est pénétrée de rapports juridiques, il se crée une atmosphère de médiocrité morale qui asphyxie les meilleurs élans de l'homme » Soljenitsyne.
Aucun commentaire:
Enregistrer un commentaire