Affichage des articles dont le libellé est loi. Afficher tous les articles
Affichage des articles dont le libellé est loi. Afficher tous les articles

vendredi 5 janvier 2024

Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

 Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

L’année à venir verra l’entrée en vigueur des premières lois radicales sur l’IA, avec des efforts mondiaux pour tenir les entreprises technologiques responsables.

Par Tate Ryan-MosleyPage d’archivageMelissa HeikkiläPage d’archivageZeyi YangPage d’archivage
5 janvier 2024

La série What’s Next du MIT Technology Review examine les secteurs, les tendances et les technologies pour vous donner un premier aperçu de l’avenir. 

En 2023, la politique et la réglementation de l’IA sont passées d’un sujet de niche et ringard à l’actualité en première page. C’est en partie grâce au ChatGPT d’OpenAI, qui a aidé l’IA à se généraliser, mais qui a également exposé les gens à la manière dont les systèmes d’IA fonctionnent – ​​et ne fonctionnent pas. 

Ce fut une année monumentale pour la politique : nous avons assisté à l'adoption de la première loi radicale sur l'IA dans l'Union européenne, aux audiences du Sénat et aux décrets aux États-Unis, et à des règles spécifiques en Chine pour des choses comme les algorithmes de recommandation. 

Si 2023 a été l’année où les législateurs se sont mis d’accord sur une vision, 2024 sera l’année où les politiques commenceront à se transformer en actions concrètes. 
Voici à quoi s’attendre. 

Les États Unis 

L’IA est réellement entrée dans le débat politique aux États-Unis en 2023. Mais il ne s’agissait pas seulement d’un débat. Il y a eu également des actions, qui ont culminé avec le décret du président Biden sur l’IA fin octobre, une directive tentaculaire appelant à plus de transparence et à de nouvelles normes. 

Grâce à cette activité, une politique américaine en matière d'IA a commencé à émerger : une politique favorable à l'industrie de l'IA, mettant l'accent sur les meilleures pratiques, s'appuyant sur différentes agences pour élaborer leurs propres règles et une approche nuancée de réglementation de chaque secteur de l'IA. l’économie différemment. 

L’année prochaine s’appuiera sur la dynamique de 2023, et de nombreux éléments détaillés dans le décret de Biden seront adoptés. Nous entendrons également beaucoup parler du nouvel AI Safety Institute des États-Unis, qui sera chargé de mettre en œuvre la plupart des politiques demandées dans l’ordonnance. 

Histoire connexe

 Quelle est la prochaine étape pour l’IA en 2024 Nos rédacteurs examinent les quatre tendances à surveiller cette année Du point de vue du Congrès, on ne sait pas exactement ce qui va se passer. Le chef de la majorité au Sénat, Chuck Schumer, a récemment signalé que de nouvelles lois pourraient venir s'ajouter au décret. 

Plusieurs propositions législatives sont déjà en cours qui touchent divers aspects de l’IA, tels que la transparence, les deepfakes et la responsabilité des plateformes. 

Mais il n’est pas clair lequel, le cas échéant, de ces projets de loi déjà proposés gagnera du terrain l’année prochaine. Ce à quoi nous pouvons nous attendre, cependant, c’est une approche qui classe les types et les utilisations de l’IA en fonction du risque qu’ils posent – ​​un cadre similaire à la loi européenne sur l’IA. 

L'Institut national des normes et de la technologie a déjà proposé un tel cadre que chaque secteur et agence devra désormais mettre en pratique, explique Chris Meserole, directeur exécutif du Frontier Model Forum, un organisme de lobbying de l'industrie. 

Une autre chose est claire : l’élection présidentielle américaine de 2024 influencera une grande partie du débat sur la réglementation de l’IA. 

Comme le montre l’impact de l’IA générative sur les plateformes de médias sociaux et la désinformation, nous pouvons nous attendre à ce que le débat sur la manière de prévenir les dommages causés par cette technologie soit façonné par ce qui se passe pendant la période électorale. 

L'Europe 

L’Union européenne vient de se mettre d’accord sur l’AI Act, la première loi radicale au monde sur l’IA. Après d’intenses retouches techniques et l’approbation officielle des pays européens et du Parlement européen au premier semestre 2024, la loi sur l’IA entrera en vigueur assez rapidement. Dans le scénario le plus optimiste, des interdictions sur certaines utilisations de l’IA pourraient s’appliquer dès la fin de l’année. 

Tout cela signifie que 2024 sera une année chargée pour le secteur de l’IA alors qu’il se prépare à se conformer aux nouvelles règles. Même si la plupart des applications d’IA bénéficieront d’un laissez-passer gratuit en vertu de la loi sur l’IA, les entreprises développant des modèles de base et des applications considérées comme présentant un « risque élevé » pour les droits fondamentaux, comme ceux destinés à être utilisés dans des secteurs comme l’éducation, les soins de santé et l’éducation. la police devra répondre aux nouvelles normes européennes. 

En Europe, la police ne sera pas autorisée à utiliser cette technologie dans les lieux publics, à moins d'obtenir au préalable l'approbation du tribunal à des fins spécifiques telles que la lutte contre le terrorisme, la prévention de la traite des êtres humains ou la recherche d'une personne disparue. 

D’autres utilisations de l’IA seront totalement interdites dans l’UE, comme la création de bases de données de reconnaissance faciale comme celle de Clearview AI ou l’utilisation de technologies de reconnaissance des émotions au travail ou dans les écoles. 

La loi sur l’IA obligera les entreprises à être plus transparentes sur la manière dont elles développent leurs modèles, et elle les rendra, ainsi que les organisations utilisant des systèmes d’IA à haut risque, plus responsables de tout préjudice qui en résulterait. Les entreprises développant des modèles de base (les modèles sur lesquels sont basés d'autres produits d'IA, tels que GPT-4) devront se conformer à la loi dans un délai d'un an après son entrée en vigueur. 

Les autres entreprises technologiques ont deux ans pour mettre en œuvre les règles. 


Pour répondre aux nouvelles exigences, les entreprises d’IA devront réfléchir davantage à la manière dont elles construisent leurs systèmes et documenter leur travail de manière plus rigoureuse afin qu’il puisse être audité. 

La loi obligera les entreprises à être plus transparentes sur la manière dont leurs modèles ont été formés et garantira que les systèmes d’IA jugés à haut risque soient formés et testés avec des ensembles de données suffisamment représentatifs afin de minimiser les biais, par exemple. 

L’UE estime que les modèles d’IA les plus puissants, tels que GPT-4 d’OpenAI et Gemini de Google, pourraient présenter un risque « systémique » pour les citoyens et nécessiteraient donc des travaux supplémentaires pour répondre aux normes de l’UE. 

Les entreprises doivent prendre des mesures pour évaluer et atténuer les risques et garantir la sécurité des systèmes. Elles seront tenues de signaler les incidents graves et de partager des détails sur leur consommation d'énergie. Il appartiendra aux entreprises d’évaluer si leurs modèles sont suffisamment puissants pour entrer dans cette catégorie. 

Les sociétés d’IA open source sont exemptées de la plupart des exigences de transparence de la loi sur l’IA, à moins qu’elles ne développent des modèles aussi gourmands en ressources informatiques que le GPT-4. Le non-respect des règles pourrait entraîner de lourdes amendes ou entraîner le blocage de leurs produits hors de l’UE. 

L’UE travaille également sur un autre projet de loi, appelé Directive sur la responsabilité en matière d’IA, qui garantira que les personnes ayant été lésées par la technologie puissent obtenir une compensation financière. 

Les négociations à ce sujet sont toujours en cours et reprendront probablement cette année. Certains autres pays adoptent une approche plus non interventionniste. Par exemple, le Royaume-Uni, siège de Google DeepMind, a déclaré qu’il n’avait pas l’intention de réglementer l’IA à court terme. 

Cependant, toute entreprise en dehors de l’UE, la deuxième économie mondiale, devra toujours se conformer à la loi sur l’IA si elle souhaite faire des affaires dans le bloc commercial. 

Anu Bradford, professeur de droit à l’Université de Columbia, a appelé cela « l’effet Bruxelles » : en étant la première à réglementer, l’UE est en mesure d’établir la norme mondiale de facto, façonnant la manière dont le monde fait des affaires et développe la technologie. 

L’UE y est parvenue grâce à son régime strict de protection des données, le RGPD, qui a été copié partout, de la Californie à l’Inde. Il espère répéter l’astuce en matière d’IA. 

Chine 

Jusqu’à présent, la réglementation de l’IA en Chine a été profondément fragmentée et fragmentée. Plutôt que de réglementer l’IA dans son ensemble, le pays a publié des textes législatifs individuels chaque fois qu’un nouveau produit d’IA devient important. 

C’est pourquoi la Chine a un ensemble de règles pour les services de recommandation algorithmique (applications et moteurs de recherche de type TikTok), un autre pour les deepfakes et encore un autre pour l’IA générative. 

La force de cette approche est qu’elle permet à Pékin de réagir rapidement aux risques découlant des avancées technologiques, tant pour les utilisateurs que pour le gouvernement. Mais le problème est que cela empêche le développement d’une perspective panoramique à plus long terme. Cela pourrait changer l’année prochaine. 

En juin 2023, le Conseil d’État chinois, l’organe directeur suprême, a annoncé qu’une « loi sur l’intelligence artificielle » figurait à son programme législatif. Cette loi couvrirait tout, comme l’AI Act for Europe. 

En raison de sa portée ambitieuse, il est difficile de dire combien de temps prendra le processus législatif. Nous pourrions voir une première ébauche en 2024, mais cela pourrait prendre plus de temps. 

En attendant, il ne serait pas surprenant que les régulateurs chinois de l’Internet introduisent de nouvelles règles pour gérer les nouveaux outils d’IA ou les types de contenu populaires qui émergeront l’année prochaine. Jusqu’à présent, très peu d’informations à ce sujet ont été publiées, mais un document pourrait nous aider à prédire la nouvelle loi : des chercheurs de l’Académie chinoise des sciences sociales, un institut de recherche public, ont publié une version « suggestion d’experts » de l’IA chinoise. loi en août. 

Ce document propose un « bureau national de l'IA » pour superviser le développement de l'IA en Chine, exige un « rapport de responsabilité sociale » indépendant annuel sur les modèles de fondation et établit une « liste négative » des domaines de l'IA présentant des risques plus élevés, que les entreprises peuvent pas même de recherche sans l’approbation du gouvernement. Actuellement, les entreprises chinoises d’IA sont déjà soumises à de nombreuses réglementations. 

En fait, tout modèle de fondation doit être enregistré auprès du gouvernement avant de pouvoir être rendu public chinois (fin 2023, 22 entreprises avaient enregistré leurs modèles d’IA). 

Cela signifie que l’IA en Chine n’est plus un environnement du Far West. Mais la manière exacte dont ces réglementations seront appliquées reste incertaine. Au cours de l’année à venir, les entreprises d’IA générative devront essayer de comprendre la réalité de la conformité, notamment en ce qui concerne les examens de sécurité et la violation de la propriété intellectuelle. Dans le même temps, étant donné que les sociétés étrangères d’IA n’ont reçu aucune autorisation pour commercialiser leurs produits en Chine (et ne le feront probablement pas à l’avenir), l’environnement commercial national qui en résulte protège les entreprises chinoises. 

Cela pourrait les aider à prendre un avantage sur les sociétés occidentales d’IA, mais cela pourrait également étouffer la concurrence et renforcer le contrôle de la Chine sur la parole en ligne. 

Le reste du monde 


Nous verrons probablement davantage de réglementations sur l’IA introduites dans d’autres régions du monde au cours de l’année prochaine. 

Une région à surveiller sera l’Afrique. 

L'Union africaine est susceptible de publier une stratégie d'IA pour le continent début 2024, destinée à établir des politiques que chaque pays peut reproduire pour rivaliser dans l'IA et protéger les consommateurs africains des entreprises technologiques occidentales, a déclaré Melody Musoni, chargée de politique au Centre européen. pour la gestion des politiques de développement. 

Certains pays, comme le Rwanda, le Nigéria et l’Afrique du Sud, ont déjà élaboré des stratégies nationales en matière d’IA et s’efforcent de développer des programmes éducatifs, une puissance de calcul et des politiques favorables à l’industrie pour soutenir les entreprises d’IA. 

Des organismes mondiaux comme l’ONU, l’OCDE, le G20 et des alliances régionales ont commencé à créer des groupes de travail, des conseils consultatifs, des principes, des normes et des déclarations sur l’IA. 

Des groupes comme l’OCDE peuvent s’avérer utiles pour créer une cohérence réglementaire entre les différentes régions, ce qui pourrait alléger le fardeau de la conformité pour les entreprises d’IA. 

Sur le plan géopolitique, nous verrons probablement des différences croissantes entre la manière dont les pays démocratiques et autoritaires encouragent – ​​et militarisent – ​​leurs industries de l’IA. 

Il sera intéressant de voir dans quelle mesure les entreprises d’IA donneront la priorité à l’expansion mondiale ou à la spécialisation nationale en 2024.

Elles devront peut-être prendre des décisions difficiles. par Tate Ryan-Mosley, Melissa Heikkilä et Zeyi Yang 





Je suis sur des forums à propos de l'IA sur l'Afrique et je confirme qu'ils sont très en avance.





--- 

 Pierre Erol GIRAUDY 



jeudi 1 juin 2023

Créer des lois pour encadrer l'intelligence artificielle (IA).

 Que pensez-vous de ceci, pouvez-vous développer : 

La question de savoir s'il est nécessaire de créer des lois pour encadrer l'intelligence artificielle (IA), à l'instar de ce qu'a fait Isaac Asimov dans ses œuvres de science-fiction. 

Les lois de la robotique d'Asimov sont souvent citées comme un exemple de cadre éthique pour guider le comportement des IA.



Réponse de ChatGPT

La question de savoir s'il est nécessaire de créer des lois pour encadrer l'intelligence artificielle (IA) est un sujet complexe et important qui suscite de nombreux débats. Les lois de la robotique d'Isaac Asimov, bien qu'elles soient issues de la science-fiction, sont souvent citées comme un exemple de cadre éthique pour guider le comportement des IA. Explorons cette question plus en détail.

Lorsque nous envisageons le développement de l'IA, il est crucial de prendre en compte les implications éthiques et sociétales. L'IA a le potentiel d'apporter d'énormes avantages, mais elle soulève également des préoccupations quant à son impact sur l'emploi, la vie privée, la sécurité et les droits de l'homme. Dans ce contexte, l'idée de créer des lois pour encadrer l'IA peut sembler pertinente.

Les lois de la robotique d'Asimov sont un exemple fascinant de réglementation fictive qui vise à prévenir les comportements nuisibles des robots. Elles sont souvent citées comme un modèle pour concevoir des réglementations éthiques pour l'IA dans le monde réel. Les trois lois d'Asimov sont les suivantes :

1. Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger.

2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi.

3. Un robot doit protéger son existence tant que cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

Ces lois suggèrent que l'IA devrait être programmée pour préserver la sécurité des êtres humains, obéir à leurs commandes et protéger son existence dans la mesure où cela n'entrave pas les deux premières lois. Ces principes offrent un cadre pour guider le comportement éthique des IA, en mettant l'accent sur la protection des humains.

Cependant, il convient de noter que la mise en place de lois similaires dans le monde réel soulève des défis majeurs. L'IA actuelle est loin de posséder la conscience et la compréhension de soi nécessaires pour interpréter et respecter ces lois de manière fiable. Les systèmes d'IA actuels sont basés sur des algorithmes qui peuvent être limités et biaisés, ce qui peut entraîner des résultats indésirables.

De plus, l'IA évolue rapidement, et des lois statiques pourraient ne pas suffire à faire face aux défis émergents. Les technologies évoluent plus vite que la législation, ce qui rend difficile l'élaboration de lois précises et adaptées à toutes les situations possibles.

Cela dit, il est important d'adopter une approche proactive en matière de réglementation de l'IA. Il peut être nécessaire de mettre en place des réglementations pour assurer la transparence, la responsabilité et la sécurité de l'IA, tout en respectant les droits de l'homme et les valeurs éthiques. Cela pourrait impliquer des normes de sécurité pour les systèmes d'IA critiques, des évaluations d'impact éthique lors du développement de l'IA, des mécanismes de responsabilité pour les actions de l'IA, et la protection de la vie privée des individus.

Il est également essentiel d'impliquer des experts multidisciplinaires, notamment des spécialistes de l'éthique, du droit, de la technologie et de la société, dans l'élaboration de ces réglementations. La collaboration entre les gouvernements, les entreprises, les chercheurs et la société civile est essentielle pour trouver un équilibre entre l'innovation de l'IA et la protection des intérêts humains.

En conclusion, bien que les lois de la robotique d'Asimov offrent un modèle intéressant pour réfléchir à l'éthique de l'IA, leur mise en œuvre directe dans le monde réel est complexe. Cependant, il est crucial de développer des réglementations adaptées pour encadrer l'IA afin de prévenir les abus, de garantir la sécurité et de promouvoir des valeurs éthiques. La création de telles réglementations nécessite une approche réfléchie et une collaboration étroite entre diverses parties prenantes.


Quels sont les parties prenantes

Réponse de ChatGPT



Les parties prenantes impliquées dans la réglementation de l'intelligence artificielle (IA) peuvent varier en fonction du contexte et des spécificités de chaque pays ou organisation. Voici quelques parties prenantes courantes :

1. Gouvernements et organismes réglementaires : Les gouvernements jouent un rôle clé dans l'élaboration et l'application des politiques et des lois concernant l'IA. Les organismes réglementaires peuvent être chargés de formuler des réglementations spécifiques, de superviser les activités des entreprises et de garantir la conformité aux normes éthiques et de sécurité.

2. Entreprises et industrie : Les entreprises qui développent et déploient des technologies d'IA sont des acteurs importants. Elles peuvent contribuer à l'élaboration de normes éthiques et de bonnes pratiques, tout en veillant à ce que leurs propres produits et services respectent les réglementations en vigueur.

3. Chercheurs et experts en IA : Les chercheurs et les experts en IA jouent un rôle crucial dans l'identification des risques et des défis éthiques liés à l'IA. Leurs connaissances et leur expertise peuvent être mobilisées pour informer le processus de réglementation et contribuer à l'élaboration de lignes directrices éthiques.

4. Organisations de la société civile : Les organisations de la société civile, telles que les groupes de défense des droits de l'homme, les organisations de protection de la vie privée et les groupes de réflexion éthique, jouent un rôle important dans la promotion de l'IA responsable. Elles peuvent contribuer à sensibiliser le public, à formuler des recommandations politiques et à faire pression pour une réglementation appropriée.

5. Citoyens et consommateurs : Les citoyens et les consommateurs sont également des parties prenantes importantes. Leurs préoccupations, leurs attentes et leurs besoins doivent être pris en compte dans l'élaboration des réglementations sur l'IA. Les consultations publiques et les mécanismes de participation peuvent permettre de recueillir leurs opinions et de refléter leurs intérêts dans les décisions politiques.

6. Experts en éthique et en droit : Les experts en éthique et en droit apportent leur expertise dans l'élaboration de cadres réglementaires appropriés. Ils peuvent aider à identifier les principes éthiques fondamentaux à prendre en compte et à garantir que les lois et réglementations sont cohérentes avec les droits de l'homme et les valeurs sociétales.

Il est important que toutes ces parties prenantes collaborent de manière étroite et transparente pour élaborer des réglementations équilibrées et efficaces pour l'IA. La diversité des perspectives et des expertises peut contribuer à identifier les risques potentiels, à promouvoir la responsabilité et à préserver les intérêts humains tout en favorisant l'innovation et le développement de l'IA.

Le sujet que vous développez concerne la question de savoir s'il est nécessaire de créer des lois pour encadrer l'intelligence artificielle (IA), à l'instar de ce qu'a fait Isaac Asimov dans ses œuvres de science-fiction. Les lois de la robotique d'Asimov sont souvent citées comme un exemple de cadre éthique pour guider le comportement des IA.

La première loi de la robotique d'Asimov stipule que l'IA ne peut nuire à un être humain ni permettre qu'un être humain soit exposé au danger. Cela signifie que l'IA doit prendre en compte la sécurité et le bien-être des êtres humains dans toutes ses actions et décisions. Cette loi met en avant la responsabilité de l'IA envers les êtres humains et implique une certaine forme de conscience de soi pour l'IA.

La deuxième loi indique que l'IA doit obéir aux ordres donnés par un être humain, sauf si ces ordres entrent en conflit avec la première loi. Cela souligne la nécessité pour l'IA de suivre les instructions des êtres humains, sauf si cela met en danger la vie ou la sécurité des êtres humains. Cette loi met en avant la responsabilité et l'obéissance de l'IA envers les êtres humains.

La troisième loi stipule que l'IA doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi. Cela signifie que l'IA doit être consciente de sa propre existence et de sa propre sécurité, sans compromettre la sécurité des êtres humains ou les ordres qui lui sont donnés.

Ces lois sont importantes pour la conception et l'utilisation de l'IA.

Car elles soulignent la nécessité de mettre en place des mécanismes de sécurité et de responsabilité pour éviter les erreurs et les accidents qui pourraient mettre en danger les êtres humains. Elles servent de guide éthique pour les concepteurs et les utilisateurs de l'IA, en mettant l'accent sur la prise en compte de la sécurité et du bien-être des êtres humains.

Cependant, il convient de noter que ces lois sont des créations de fiction et qu'elles ne sont pas parfaites. 

Dans la réalité, programmer une conscience ou une conscience de soi dans une IA est un défi complexe et controversé. La conscience humaine est un sujet philosophique et scientifique encore mal compris, et reproduire cette conscience dans une machine soulève de nombreuses questions éthiques et techniques.

La création d'une conscience artificielle soulèverait des problèmes tels que la nature de cette conscience, les droits et responsabilités qui y sont associés, ainsi que les implications éthiques de conférer une telle conscience à une entité artificielle.

Actuellement, la majorité des systèmes d'IA sont conçus pour accomplir des tâches spécifiques sans conscience ou conscience de soi. Cependant, des recherches sont en cours dans le domaine de l'intelligence artificielle générale (IAG) qui vise à développer des systèmes d'IA plus autonomes et conscients.

En conclusion, les lois d'Asimov fournissent un cadre intéressant pour guider l'utilisation de l'IA et souligner l'importance de la sécurité et de la responsabilité envers les êtres humains. Cependant, la programmation d'une véritable conscience de l'IA soulève des défis complexes et nécessite une réflexion approfondie sur les implications éthiques et techniques.



Loi sur l'IA et droit américain.

L'attribution très large de la compétence extraterritoriale posera problème. La loi sur l'IA permettrait à toute personne mécontente de l'IA - du moins si elle est citoyenne de l'UE - de contraindre les gouvernements de l'UE à engager des poursuites judiciaires si des modèles non autorisés étaient en quelque sorte disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises opérant dans l'UE de se conformer aux lois de l'UE.

Le principal problème concerne les restrictions sur les API. Actuellement, de nombreux fournisseurs de cloud américains ne restreignent pas l'accès aux modèles d'API, en dehors des listes d'attente que les fournisseurs s'efforcent de combler. Un programmeur à domicile ou un inventeur dans son garage peut accéder aux dernières technologies à un prix raisonnable. Sous les restrictions de la loi sur l'IA, l'accès aux API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.

Ce que veut l'UE va à l'encontre de ce que demande la FTC. Pour qu'une entreprise américaine impose de telles restrictions aux États-Unis, cela soulèverait de nombreux problèmes de concurrence. Les coûts de formation des modèles limitent leur disponibilité aux acteurs très capitalisés. La FTC a été très claire en disant qu'elle ne veut pas voir se reproduire la situation d'Amazon, où une plus grande entreprise utilise sa position pour s'approprier la majeure partie des bénéfices - au détriment des plus petits partenaires. Agir de la manière recherchée par la loi sur l'IA soulèverait d'importants problèmes de concurrence pour les entreprises américaines.

En dehors des dispositions antitrust, la sanction de l'innovation par la loi sur l'IA représente un point de conflit. Pour les acteurs américains, trouver un nouveau moyen d'utiliser un logiciel pour gagner de l'argent est une bonne chose. Selon la loi de l'UE, trouver un nouveau moyen d'utiliser un logiciel annule la certification de sécurité et nécessite un nouveau processus de licence. Les désincitations à l'innovation sont susceptibles de créer des frictions étant donné la portée extraterritoriale de la loi.

Enfin, les dispositions sur les logiciels open source posent un problème majeur. La loi sur l'IA considère les développeurs open source travaillant sur des modèles fondamentaux ou avec ceux-ci comme des acteurs néfastes. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles fondamentaux non autorisés, ainsi que de codes améliorant apparemment les modèles fondamentaux. Pour toutes les autres formes d'apprentissage automatique open source, la responsabilité de la licence incombe à la personne qui déploie le système.

Tenter de sanctionner certaines parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne réagiront probablement pas bien à l'idée qu'un gouvernement leur dise qu'ils ne peuvent pas programmer quelque chose, surtout si le gouvernement n'est pas le leur. De plus, que se passe-t-il si GitHub et les différents "co-pilotes" disent simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.

Il existe donc de nombreux points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain, notamment en ce qui concerne la portée extraterritoriale, les restrictions sur les API, les problèmes de concurrence, les obstacles à l'innovation et les dispositions sur les logiciels open source. 

Ces points de friction peuvent entraîner des conflits juridiques et des différences d'approche réglementaire entre les deux juridictions.

------------------------------------------------------ 

La loi sur l'intelligence artificielle (IA) de l'Union européenne (UE) et le droit américain peuvent entraîner plusieurs points de conflit potentiels en raison de leurs différences fondamentales en matière de réglementation de l'IA. Ces points de friction peuvent donner lieu à des conflits juridiques et à des divergences d'approche réglementaire entre les deux juridictions. 


Voici quelques-uns des points de conflit les plus importants :


Portée extraterritoriale : La loi sur l'IA de l'UE vise à réglementer toutes les entreprises, qu'elles soient basées dans l'UE ou non, qui fournissent des produits ou des services d'IA sur le marché européen. Cela signifie que les entreprises américaines qui opèrent en Europe doivent se conformer à ces réglementations, même si elles sont régies par le droit américain, ce qui peut entraîner des conflits de juridiction.

Restrictions sur les API : Les États-Unis ont une approche plus libérale en ce qui concerne l'accès aux interfaces de programmation d'application (API) et à l'échange de données. En revanche, la loi sur l'IA de l'UE impose des restrictions strictes sur l'accès aux API et exige une transparence accrue pour l'utilisation des données. Cela peut entraîner des difficultés pour les entreprises américaines qui souhaitent opérer en Europe tout en respectant ces réglementations.

Problèmes de concurrence : Les réglementations de l'UE et des États-Unis en matière de concurrence peuvent différer. La loi sur l'IA de l'UE vise à prévenir les pratiques anticoncurrentielles dans le domaine de l'IA, en mettant l'accent sur la prévention de la concentration excessive du pouvoir. En revanche, le droit américain peut avoir une approche différente en matière de réglementation de la concurrence, ce qui peut entraîner des conflits potentiels dans la manière dont les entreprises sont réglementées et surveillées.

Obstacles à l'innovation : Les réglementations plus strictes de l'UE en matière d'IA peuvent être perçues comme des obstacles à l'innovation par les entreprises américaines. Les réglementations plus souples aux États-Unis peuvent permettre aux entreprises d'explorer et de développer de nouvelles technologies plus rapidement, tandis que les réglementations plus strictes de l'UE peuvent ralentir ce processus. Cela peut créer des disparités dans le rythme de l'innovation entre les deux juridictions.

Dispositions sur les logiciels open source : L'UE encourage l'utilisation de logiciels open source dans le domaine de l'IA, ce qui peut entraîner une plus grande collaboration et une plus grande transparence. En revanche, les États-Unis peuvent avoir des réglementations différentes en matière de logiciels open source, ce qui peut entraîner des divergences d'approche dans la manière dont les entreprises développent et utilisent des technologies d'IA.

Ces points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain soulignent les différences d'approche réglementaire entre les deux juridictions. Ils peuvent conduire à des conflits juridiques, à des incertitudes pour les entreprises opérant dans les deux marchés et à des obstacles à la coopération internationale en matière d'IA. 

Pour atténuer ces différences, il peut être nécessaire de trouver des mécanismes de coopération et de dialogue entre l'UE et les États-Unis pour harmoniser les réglementations et favoriser une approche plus cohérente dans le domaine de l'IA.


Voici plusieurs mécanismes de coopération et de dialogue entre l'UE et les États-Unis pour atténuer les différences et favoriser une approche plus cohérente dans le domaine de l'IA. 


Voici quelques options possibles :

Accord bilatéral sur l'IA : L'UE et les États-Unis pourraient négocier un accord spécifique sur la coopération en matière d'IA. Cet accord pourrait aborder les points de conflit potentiels entre les réglementations respectives et chercher à harmoniser les approches réglementaires. Il pourrait également prévoir des mécanismes de consultation régulière pour discuter des développements technologiques et des réglementations émergentes.

Forum de coopération réglementaire : La mise en place d'un forum de coopération réglementaire entre l'UE et les États-Unis permettrait aux autorités compétentes des deux côtés de discuter des réglementations en matière d'IA, d'échanger des bonnes pratiques et de coordonner les approches réglementaires. Un tel forum favoriserait la transparence, la compréhension mutuelle et l'alignement des réglementations dans la mesure du possible.

Partage d'informations et de bonnes pratiques : Les autorités réglementaires de l'UE et des États-Unis pourraient collaborer en partageant des informations et des bonnes pratiques concernant la réglementation de l'IA. Cela permettrait d'identifier les divergences et les convergences, d'apprendre des expériences des uns et des autres, et de travailler vers une approche plus cohérente.

Initiatives de recherche conjointes : L'UE et les États-Unis pourraient lancer des initiatives de recherche conjointes dans le domaine de l'IA. Ces collaborations scientifiques permettraient de renforcer les liens entre les chercheurs et les experts des deux côtés de l'Atlantique, de promouvoir l'échange d'idées et de contribuer à une meilleure compréhension des enjeux réglementaires.

Coopération dans les organisations internationales : L'UE et les États-Unis peuvent également travailler ensemble au sein d'organisations internationales telles que l'Organisation de coopération et de développement économiques (OCDE) ou les Nations Unies pour développer des normes et des lignes directrices communes en matière d'IA. Une approche coordonnée au niveau international faciliterait l'harmonisation des réglementations et éviterait les divergences excessives.



Il est important de noter que la mise en place de ces mécanismes de coopération nécessite certainement une volonté politique et une collaboration active des deux parties. 

L'objectif serait peut-être de trouver un équilibre entre la protection des intérêts nationaux, la promotion de l'innovation et la garantie d'une utilisation éthique et responsable de l'IA.





lundi 22 mai 2023

L’IA en Europe ? L’UE choisit donc de la réguler ?

 L’IA en Europe, elle choisit de la réguler ?

En résumé, cet article aborde la régulation de l'intelligence artificielle en Europe. Il mentionne l'émergence de ChatGPT, un modèle de langage conversationnel, et souligne que l'Europe a décidé de réguler cette technologie pour éviter les abus potentiels. 

Le Parlement européen a produit un projet de loi qui s'inspire des réglementations existantes et impose des contrôles aux entreprises. Les dérives potentielles comprennent le pistage numérique des citoyens, la restriction de la liberté d'expression et la manipulation de l'information. 

Bien qu'il y ait certains aspects positifs, comme l'interdiction de systèmes de surveillance de masse similaires à ceux utilisés en Chine, l'article critique également les actions contradictoires du Parlement européen, telles que l'autorisation d'un passeport vaccinal et de mesures drastiques au sein de son institution. 

L'auteur exprime des doutes quant à l'efficacité de la réglementation proposée, soulignant que de nombreuses techniques d'intelligence artificielle sont déjà disponibles en open source et que la recherche se poursuit indépendamment des législateurs. Il suggère que la régulation pourrait entraver l'innovation et que les États pourraient contourner les lois pour leurs propres intérêts. 

En conclusion, l'article critique les approches législatives de l'administration européenne, les comparant aux principes économiques socialistes de taxation, réglementation et subventionnement.






Committee on the Internal Market and Consumer Protection Committee on Civil Liberties, Justice and Home Affairs 9/5/2023 KMB/DA/AS Version: 1.0 DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD)) 

Juridiction très large :


La loi concerne les "fournisseurs et les opérateurs de systèmes d'IA établis ou situés dans un pays tiers, où le droit d'un État membre s'applique en vertu du droit international public ou où la sortie produite par le système est destinée à être utilisée dans l'Union européenne" (p. 68-69).

Vous devez enregistrer votre projet d'IA "à haut risque" ou votre modèle fondamental auprès du gouvernement. Les projets devront enregistrer les fonctionnalités anticipées de leurs systèmes. Les systèmes qui dépassent ces fonctionnalités peuvent faire l'objet d'un rappel. Cela posera problème pour de nombreux projets open-source plus anarchiques. L'enregistrement exigera également la divulgation des sources de données utilisées, des ressources informatiques (y compris le temps passé à l'entraînement), des critères de performance et des tests d'évaluation (p. 23-29).

Des tests de risque coûteux sont requis. Apparemment, les différents États membres de l'UE effectueront des évaluations "tiers" dans chaque pays, selon une échelle mobile de frais en fonction de la taille de l'entreprise demanderesse. Les tests doivent être des critères de référence qui n'ont pas encore été créés. Un suivi après la mise en service est requis (probablement par le gouvernement). Une nouvelle certification est requise si les modèles montrent des capacités inattendues. Une nouvelle certification est également requise après tout entraînement substantiel (p. 14-15, voir disposition 4a pour clarifier qu'il s'agit de tests gouvernementaux).

Risques très vaguement définis : La liste des risques inclut les risques pour des choses telles que l'environnement, la démocratie et l'État de droit. Qu'est-ce qu'un risque pour la démocratie ? Cette loi elle-même pourrait-elle représenter un risque pour la démocratie ? (p. 26).

Les LLM Open Source ne sont pas exempts : Les modèles fondamentaux open source ne sont pas exemptés de la loi. Les programmeurs et les distributeurs du logiciel sont responsables légalement. Pour les autres formes de logiciels d'IA open source, la responsabilité est transférée au groupe qui utilise le logiciel ou le met sur le marché (p. 70).

Les API sont essentiellement interdites. Les API permettent à des tiers de mettre en œuvre un modèle d'IA sans l'exécuter sur leur propre matériel. Certains exemples d'implémentation incluent AutoGPT et LangChain. Selon ces règles, si un tiers, en utilisant une API, découvre comment faire réaliser à un modèle quelque chose de nouveau, ce tiers doit ensuite faire certifier la nouvelle fonctionnalité.

Le fournisseur précédent est tenu, en vertu de la loi, de fournir au tiers ce qui serait autrement des informations techniques confidentielles afin que le tiers puisse terminer le processus de licence. La capacité de contraindre les divulgations confidentielles signifie que les start-ups et autres bricoleurs sont essentiellement interdits d'utilisation d'une API, même si le bricoleur se trouve aux États-Unis. Le bricoleur pourrait rendre son logiciel disponible en Europe, ce qui entraînerait la nécessité de le licencier et de contraindre les divulgations (p. 37).

Les développeurs open source sont responsables. La loi est mal rédigée. La loi ne couvre pas les composants d'IA open source gratuits. Les modèles fondamentaux (LLM) sont considérés comme distincts des composants. Ce que cela semble signifier, c'est que vous pouvez ouvrir des modèles d'apprentissage automatique traditionnels open source, mais pas des IA génératives.

Si un développeur open source américain place un modèle ou du code utilisant une API sur GitHub, et que le code devient disponible dans l'UE, le développeur serait responsable de la diffusion d'un modèle non autorisé. De plus, GitHub serait responsable d'héberger un modèle non autorisé (p. 37 et 39-40).

LoRA essentiellement interdit. LoRA est une technique pour ajouter progressivement de nouvelles informations et fonctionnalités à un modèle à moindre coût. Les projets open source l'utilisent car ils ne peuvent pas se permettre une infrastructure informatique coûteuse. On dit également que les grands modèles d'IA l'utilisent, car l'entraînement est moins coûteux et plus facile à vérifier en termes de sécurité que les nouvelles versions d'un modèle qui introduisent de nombreuses nouvelles fonctionnalités en une seule fois (p. 14).

Si un projet open source parvient d'une manière ou d'une autre à obtenir les certificats requis, il devra les renouveler chaque fois que LoRA est utilisé pour étendre le modèle.

Licence de déploiement. Les personnes ou entités utilisant des systèmes d'IA sont tenues de subir un examen rigoureux de permis avant le lancement. Les petites entreprises de l'UE sont exemptées de cette exigence (p. 26).

Possibilité pour des tiers de poursuivre en justice. Les tiers concernés ont le droit d'intenter des poursuites par l'intermédiaire de l'autorité de régulation de l'IA d'un pays (établie par la loi). Cela signifie que le déploiement d'un système d'IA peut être contesté individuellement dans plusieurs États membres. Les tiers peuvent intenter des poursuites pour contraindre une autorité nationale de régulation de l'IA à infliger des amendes (p. 71).

Très grosses amendes. Les amendes en cas de non-conformité vont de 2 % à 4 % du chiffre d'affaires mondial brut de l'entreprise. Pour les personnes physiques, cela peut atteindre 20 000 000 €. Les PME et les start-ups européennes bénéficient d'une exonération en ce qui concerne les amendes (p. 75).

Les systèmes de R&D et d'énergie propre dans l'UE sont exemptés. L'IA peut être utilisée pour des tâches de R&D ou la production d'énergie propre sans se conformer à ce système (p. 64-65).

Loi sur l'IA et droit américain
L'attribution très large de la compétence extraterritoriale posera problème. La loi sur l'IA permettrait à toute personne mécontente de l'IA - du moins si elle est citoyenne de l'UE - de contraindre les gouvernements de l'UE à engager des poursuites judiciaires si des modèles non autorisés étaient en quelque sorte disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises opérant dans l'UE de se conformer aux lois de l'UE.

Le principal problème concerne les restrictions sur les API. Actuellement, de nombreux fournisseurs de cloud américains ne restreignent pas l'accès aux modèles d'API, en dehors des listes d'attente que les fournisseurs s'efforcent de combler. Un programmeur à domicile ou un inventeur dans son garage peut accéder aux dernières technologies à un prix raisonnable. Sous les restrictions de la loi sur l'IA, l'accès aux API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.

Ce que veut l'UE va à l'encontre de ce que demande la FTC. Pour qu'une entreprise américaine impose de telles restrictions aux États-Unis, cela soulèverait de nombreux problèmes de concurrence. Les coûts de formation des modèles limitent leur disponibilité aux acteurs très capitalisés. La FTC a été très claire en disant qu'elle ne veut pas voir se reproduire la situation d'Amazon, où une plus grande entreprise utilise sa position pour s'approprier la majeure partie des bénéfices - au détriment des plus petits partenaires. Agir de la manière recherchée par la loi sur l'IA soulèverait d'importants problèmes de concurrence pour les entreprises américaines.

En dehors des dispositions antitrust, la sanction de l'innovation par la loi sur l'IA représente un point de conflit. Pour les acteurs américains, trouver un nouveau moyen d'utiliser un logiciel pour gagner de l'argent est une bonne chose. Selon la loi de l'UE, trouver un nouveau moyen d'utiliser un logiciel annule la certification de sécurité et nécessite un nouveau processus de licence. Les désincitations à l'innovation sont susceptibles de créer des frictions étant donné la portée extraterritoriale de la loi.

Enfin, les dispositions sur les logiciels open source posent un problème majeur. La loi sur l'IA considère les développeurs open source travaillant sur des modèles fondamentaux ou avec ceux-ci comme des acteurs néfastes. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles fondamentaux non autorisés, ainsi que de codes améliorant apparemment les modèles fondamentaux. Pour toutes les autres formes d'apprentissage automatique open source, la responsabilité de la licence incombe à la personne qui déploie le système.

Tenter de sanctionner certaines parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne réagiront probablement pas bien à l'idée qu'un gouvernement leur dise qu'ils ne peuvent pas programmer quelque chose, surtout si le gouvernement n'est pas le leur. De plus, que se passe-t-il si GitHub et les différents "co-pilotes" disent simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.

Il existe donc de nombreux points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain, notamment en ce qui concerne la portée extraterritoriale, les restrictions sur les API, les problèmes de concurrence, les obstacles à l'innovation et les dispositions sur les logiciels open source. Ces points de friction peuvent entraîner des conflits juridiques et des différences d'approche réglementaire entre les deux juridictions.

« Lorsque toute la vie est pénétrée de rapports juridiques, il se crée une atmosphère de médiocrité morale qui asphyxie les meilleurs élans de l'homme » Soljenitsyne.


















Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés)

Customize your styles Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés) Claude a récemment eu une mise à j...