Affichage des articles dont le libellé est europe. Afficher tous les articles
Affichage des articles dont le libellé est europe. Afficher tous les articles

mardi 4 juin 2024

Le bureau de l'IAvise

La Commission a dévoilé aujourd'hui le bureau de l'IA, créé au sein de la Commission. 


Le bureau de l'IAvise à permettre le développement, le déploiement et l'utilisation futurs de l'IA d'une manière qui favorise les avantages sociétaux et économiques et l'innovation, tout en atténuant les risques. L'Office jouera un rôle clé dans la mise en œuvre de la législation sur l'IA, en particulier en ce qui concerne les modèles d'IA à usage général. Elle s'emploiera également à encourager la recherche et l'innovation dans une IA digne de confiance et à faire de l'UE un acteur de premier plan dans les discussions internationales.

Le bureau de l'IA se compose: La Commission crée un bureau de l'IA (europa.eu)

https://ec.europa.eu/commission/presscorner/detail/fr/ip_24_2982

Unité «Réglementation et conformité» qui coordonne l'approche réglementaire afin de faciliter l'application et l'application uniformes de la législation sur l'IA dans l'ensemble de l'Union, en étroite collaboration avec les États membres. L'unité contribuera aux enquêtes et aux infractions éventuelles, en appliquant des sanctions;

Unité chargée de la sécurité de l'IA, axée sur l'identification des risques systémiques liés à des modèles à vocation générale très capables, des mesures d'atténuation possibles ainsi que des approches d'évaluation et d'essai;

Excellence de l'unité de l'IA et de la robotique qui soutient et finance la recherche et le développement afin de promouvoir un écosystème d'excellence. Il coordonne l'initiative GenAI4EU, en stimulant le développement de modèles et leur intégration dans des applications innovantes;

L'unité «L'IA au service du bien sociétal» pour concevoir et mettre en œuvre l'engagement international du bureau de l'IA dans le domaine de l'IA pour le bien, comme la modélisation météorologique, les diagnostics de cancer et les jumeaux numériques pour la reconstruction;

Unité d'innovation et de coordination des politiques en matière d'IA, qui supervise l'exécution de la stratégie de l'UE en matière d'IA, suit les tendances et les investissements, encourage l'adoption de l'IA au moyen d'un réseau de pôles européens d'innovation numérique et la création d'usines d'IA, et favorise un écosystème innovant en soutenant les bacs à sable réglementaires et les essais en conditions réelles.

Le bureau de l'IA sera dirigé par le chef du bureau de l'IA et travaillera sous la direction d'un conseiller scientifique principal pour garantir l'excellence scientifique dans l'évaluation des modèles et des approches innovantes, et d'un conseiller pour les affaires internationales afin de suivre notre engagement à travailler en étroite collaboration avec les partenaires internationaux sur une IA digne de confiance.

Mise en place et tâches du bureau de l'IA

Le bureau de l'IA emploiera plus de 140 personnes pour s'acquitter de ses tâches. Le personnel comprendra des spécialistes en technologie, des assistants administratifs, des juristes, des spécialistes des politiques et des économistes.

Le bureau veillera à la mise en œuvre cohérente de la législation sur l'IA. Pour ce faire, elle soutiendra les organes de gouvernance des États membres. Le Bureau de l'IA appliquera également directement les règles applicables aux modèles d'IA à usage général. En coopération avec les développeurs d'IA, la communauté scientifique et d'autres parties prenantes, le Bureau de l'IA coordonnera l'élaboration de codes de bonnes pratiques de pointe, effectuera des essais et des évaluations de modèles d'IA à usage général, demandera des informations et appliquera des sanctions, le cas échéant.

Afin de garantir une prise de décision éclairée, le Bureau de l'IA collaborera avec les États membres et la communauté d'experts au sens large dans le cadre de forums et de groupes d'experts spécialisés. Au niveau de l'UE, le Bureau de l'IA travaillera en étroite collaboration avec le Comité européen de l'intelligence artificielle, composé de représentants des États membres. Le groupe scientifique d'experts indépendants assurera un lien étroit avec la communauté scientifique et une expertise supplémentaire sera réunie au sein d'un forum consultatif, représentant une sélection équilibrée de parties prenantes, y compris l'industrie, les jeunes pousses et les PME, le monde universitaire, les groupes de réflexion et la société civile.

Le Bureau de l'IA promouvra un écosystème européen innovant pour une IA digne de confiance. Elle y contribuera en fournissant des conseils sur les meilleures pratiques et en permettant l'accès aux bacs à sable de l'IA, aux tests en conditions réelles et à d'autres structures européennes de soutien à l'adoption de l'IA, telles que les installations d'essai et d'expérimentation dans le domaine de l'IA, les pôles européens d'innovation numérique et les usines de l'IA. Il soutiendra les activités de recherche et d'innovation dans le domaine de l'IA et de la robotique et mettra en œuvre des initiatives, telles que GenAI4EU, afin de veiller à ce que les modèles à usage général de l'IA fabriqués en Europe et formés par l'intermédiaire des supercalculateurs de l'UE soient finalisés et intégrés dans de nouvelles applications dans l'ensemble de l'économie, ce qui stimulera les investissements.

Enfin, le Bureau de l'IA garantira une approche européenne stratégique, cohérente et efficace en matière d'IA au niveau international, devenant ainsi un point de référence mondial.

Étapes ultérieures

Les changements organisationnels décrits ci-dessus prendront effet le 16 juin. La première réunion du comité de l'IA devrait avoir lieu d'ici la fin du mois de juin. Le Bureau de l'IA élabore actuellement des lignes directrices sur la définition du système d'IA et sur les interdictions, qui doivent être adoptées six mois après l'entrée en vigueur de la législation sur l'IA. L'Office se prépare également à coordonner l'élaboration de codes de bonnes pratiques pour les obligations relatives aux modèles d'IA à usage général, 9 mois après l'entrée en vigueur.

Contexte

En avril 2021, la Commission a proposé la législation de l'UE sur l'IA et un nouveau plan coordonné avec les États membres, afin de garantir la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant les investissements et l'innovation dans l'ensemble des pays de l'UE. La législation de l'UE sur l'IA a été approuvée à titre provisoire par les colégislateurs en décembre 2023 et constitue la première loi globale au monde sur l'intelligence artificielle. La législation sur l'IA devrait entrer en vigueur d'ici la fin juillet 2024.

En janvier 2024, la Commission a lancé un ensemble de mesures visant à soutenir les jeunes pousses et les PME européennes dans le développement d'une intelligence artificielle (IA) digne de confiance. Dans le cadre de ces mesures, une décision de la Commission instituant le bureau de l'IA a été adoptée.

Pour plus d'informations

  • Bureau de l'IA
  • Une approche européenne de l'intelligence artificielle
  • Législation sur l'IA
  • Train de mesures sur l'innovation dans l'IA
  • Pacte sur l'IA
  • Citation(s)

Le bureau d’IA dévoilé aujourd’hui nous aidera à garantir une mise en œuvre cohérente de la législation sur l’IA. En collaboration avec les développeurs et une communauté scientifique, l’Office évaluera et testera l’IA à usage général afin de veiller à ce que l’IA nous serve d’êtres humains et de défendre nos valeurs européennes.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique

Avec le nouveau bureau de l’IA et ses 140 femmes et hommes talentueux, la Commission disposera de l’expertise nécessaire pour mener à bien la mise en œuvre de la législation sur l’IA et renforcer le rôle de l’Europe en tant qu’organisme de normalisation mondial dans le domaine de l’IA. L’Office favorisera un écosystème européen de l’IA innovant, compétitif et respectueux des règles et des valeurs de l’UE.

Thierry Breton, commissaire au marché intérieur

La Commission crée un bureau de l'IA (europa.eu)

https://ec.europa.eu/commission/presscorner/detail/fr/ip_24_2982


PIERRE EROL GIRAUDY 






vendredi 5 janvier 2024

Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

 Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

L’année à venir verra l’entrée en vigueur des premières lois radicales sur l’IA, avec des efforts mondiaux pour tenir les entreprises technologiques responsables.

Par Tate Ryan-MosleyPage d’archivageMelissa HeikkiläPage d’archivageZeyi YangPage d’archivage
5 janvier 2024

La série What’s Next du MIT Technology Review examine les secteurs, les tendances et les technologies pour vous donner un premier aperçu de l’avenir. 

En 2023, la politique et la réglementation de l’IA sont passées d’un sujet de niche et ringard à l’actualité en première page. C’est en partie grâce au ChatGPT d’OpenAI, qui a aidé l’IA à se généraliser, mais qui a également exposé les gens à la manière dont les systèmes d’IA fonctionnent – ​​et ne fonctionnent pas. 

Ce fut une année monumentale pour la politique : nous avons assisté à l'adoption de la première loi radicale sur l'IA dans l'Union européenne, aux audiences du Sénat et aux décrets aux États-Unis, et à des règles spécifiques en Chine pour des choses comme les algorithmes de recommandation. 

Si 2023 a été l’année où les législateurs se sont mis d’accord sur une vision, 2024 sera l’année où les politiques commenceront à se transformer en actions concrètes. 
Voici à quoi s’attendre. 

Les États Unis 

L’IA est réellement entrée dans le débat politique aux États-Unis en 2023. Mais il ne s’agissait pas seulement d’un débat. Il y a eu également des actions, qui ont culminé avec le décret du président Biden sur l’IA fin octobre, une directive tentaculaire appelant à plus de transparence et à de nouvelles normes. 

Grâce à cette activité, une politique américaine en matière d'IA a commencé à émerger : une politique favorable à l'industrie de l'IA, mettant l'accent sur les meilleures pratiques, s'appuyant sur différentes agences pour élaborer leurs propres règles et une approche nuancée de réglementation de chaque secteur de l'IA. l’économie différemment. 

L’année prochaine s’appuiera sur la dynamique de 2023, et de nombreux éléments détaillés dans le décret de Biden seront adoptés. Nous entendrons également beaucoup parler du nouvel AI Safety Institute des États-Unis, qui sera chargé de mettre en œuvre la plupart des politiques demandées dans l’ordonnance. 

Histoire connexe

 Quelle est la prochaine étape pour l’IA en 2024 Nos rédacteurs examinent les quatre tendances à surveiller cette année Du point de vue du Congrès, on ne sait pas exactement ce qui va se passer. Le chef de la majorité au Sénat, Chuck Schumer, a récemment signalé que de nouvelles lois pourraient venir s'ajouter au décret. 

Plusieurs propositions législatives sont déjà en cours qui touchent divers aspects de l’IA, tels que la transparence, les deepfakes et la responsabilité des plateformes. 

Mais il n’est pas clair lequel, le cas échéant, de ces projets de loi déjà proposés gagnera du terrain l’année prochaine. Ce à quoi nous pouvons nous attendre, cependant, c’est une approche qui classe les types et les utilisations de l’IA en fonction du risque qu’ils posent – ​​un cadre similaire à la loi européenne sur l’IA. 

L'Institut national des normes et de la technologie a déjà proposé un tel cadre que chaque secteur et agence devra désormais mettre en pratique, explique Chris Meserole, directeur exécutif du Frontier Model Forum, un organisme de lobbying de l'industrie. 

Une autre chose est claire : l’élection présidentielle américaine de 2024 influencera une grande partie du débat sur la réglementation de l’IA. 

Comme le montre l’impact de l’IA générative sur les plateformes de médias sociaux et la désinformation, nous pouvons nous attendre à ce que le débat sur la manière de prévenir les dommages causés par cette technologie soit façonné par ce qui se passe pendant la période électorale. 

L'Europe 

L’Union européenne vient de se mettre d’accord sur l’AI Act, la première loi radicale au monde sur l’IA. Après d’intenses retouches techniques et l’approbation officielle des pays européens et du Parlement européen au premier semestre 2024, la loi sur l’IA entrera en vigueur assez rapidement. Dans le scénario le plus optimiste, des interdictions sur certaines utilisations de l’IA pourraient s’appliquer dès la fin de l’année. 

Tout cela signifie que 2024 sera une année chargée pour le secteur de l’IA alors qu’il se prépare à se conformer aux nouvelles règles. Même si la plupart des applications d’IA bénéficieront d’un laissez-passer gratuit en vertu de la loi sur l’IA, les entreprises développant des modèles de base et des applications considérées comme présentant un « risque élevé » pour les droits fondamentaux, comme ceux destinés à être utilisés dans des secteurs comme l’éducation, les soins de santé et l’éducation. la police devra répondre aux nouvelles normes européennes. 

En Europe, la police ne sera pas autorisée à utiliser cette technologie dans les lieux publics, à moins d'obtenir au préalable l'approbation du tribunal à des fins spécifiques telles que la lutte contre le terrorisme, la prévention de la traite des êtres humains ou la recherche d'une personne disparue. 

D’autres utilisations de l’IA seront totalement interdites dans l’UE, comme la création de bases de données de reconnaissance faciale comme celle de Clearview AI ou l’utilisation de technologies de reconnaissance des émotions au travail ou dans les écoles. 

La loi sur l’IA obligera les entreprises à être plus transparentes sur la manière dont elles développent leurs modèles, et elle les rendra, ainsi que les organisations utilisant des systèmes d’IA à haut risque, plus responsables de tout préjudice qui en résulterait. Les entreprises développant des modèles de base (les modèles sur lesquels sont basés d'autres produits d'IA, tels que GPT-4) devront se conformer à la loi dans un délai d'un an après son entrée en vigueur. 

Les autres entreprises technologiques ont deux ans pour mettre en œuvre les règles. 


Pour répondre aux nouvelles exigences, les entreprises d’IA devront réfléchir davantage à la manière dont elles construisent leurs systèmes et documenter leur travail de manière plus rigoureuse afin qu’il puisse être audité. 

La loi obligera les entreprises à être plus transparentes sur la manière dont leurs modèles ont été formés et garantira que les systèmes d’IA jugés à haut risque soient formés et testés avec des ensembles de données suffisamment représentatifs afin de minimiser les biais, par exemple. 

L’UE estime que les modèles d’IA les plus puissants, tels que GPT-4 d’OpenAI et Gemini de Google, pourraient présenter un risque « systémique » pour les citoyens et nécessiteraient donc des travaux supplémentaires pour répondre aux normes de l’UE. 

Les entreprises doivent prendre des mesures pour évaluer et atténuer les risques et garantir la sécurité des systèmes. Elles seront tenues de signaler les incidents graves et de partager des détails sur leur consommation d'énergie. Il appartiendra aux entreprises d’évaluer si leurs modèles sont suffisamment puissants pour entrer dans cette catégorie. 

Les sociétés d’IA open source sont exemptées de la plupart des exigences de transparence de la loi sur l’IA, à moins qu’elles ne développent des modèles aussi gourmands en ressources informatiques que le GPT-4. Le non-respect des règles pourrait entraîner de lourdes amendes ou entraîner le blocage de leurs produits hors de l’UE. 

L’UE travaille également sur un autre projet de loi, appelé Directive sur la responsabilité en matière d’IA, qui garantira que les personnes ayant été lésées par la technologie puissent obtenir une compensation financière. 

Les négociations à ce sujet sont toujours en cours et reprendront probablement cette année. Certains autres pays adoptent une approche plus non interventionniste. Par exemple, le Royaume-Uni, siège de Google DeepMind, a déclaré qu’il n’avait pas l’intention de réglementer l’IA à court terme. 

Cependant, toute entreprise en dehors de l’UE, la deuxième économie mondiale, devra toujours se conformer à la loi sur l’IA si elle souhaite faire des affaires dans le bloc commercial. 

Anu Bradford, professeur de droit à l’Université de Columbia, a appelé cela « l’effet Bruxelles » : en étant la première à réglementer, l’UE est en mesure d’établir la norme mondiale de facto, façonnant la manière dont le monde fait des affaires et développe la technologie. 

L’UE y est parvenue grâce à son régime strict de protection des données, le RGPD, qui a été copié partout, de la Californie à l’Inde. Il espère répéter l’astuce en matière d’IA. 

Chine 

Jusqu’à présent, la réglementation de l’IA en Chine a été profondément fragmentée et fragmentée. Plutôt que de réglementer l’IA dans son ensemble, le pays a publié des textes législatifs individuels chaque fois qu’un nouveau produit d’IA devient important. 

C’est pourquoi la Chine a un ensemble de règles pour les services de recommandation algorithmique (applications et moteurs de recherche de type TikTok), un autre pour les deepfakes et encore un autre pour l’IA générative. 

La force de cette approche est qu’elle permet à Pékin de réagir rapidement aux risques découlant des avancées technologiques, tant pour les utilisateurs que pour le gouvernement. Mais le problème est que cela empêche le développement d’une perspective panoramique à plus long terme. Cela pourrait changer l’année prochaine. 

En juin 2023, le Conseil d’État chinois, l’organe directeur suprême, a annoncé qu’une « loi sur l’intelligence artificielle » figurait à son programme législatif. Cette loi couvrirait tout, comme l’AI Act for Europe. 

En raison de sa portée ambitieuse, il est difficile de dire combien de temps prendra le processus législatif. Nous pourrions voir une première ébauche en 2024, mais cela pourrait prendre plus de temps. 

En attendant, il ne serait pas surprenant que les régulateurs chinois de l’Internet introduisent de nouvelles règles pour gérer les nouveaux outils d’IA ou les types de contenu populaires qui émergeront l’année prochaine. Jusqu’à présent, très peu d’informations à ce sujet ont été publiées, mais un document pourrait nous aider à prédire la nouvelle loi : des chercheurs de l’Académie chinoise des sciences sociales, un institut de recherche public, ont publié une version « suggestion d’experts » de l’IA chinoise. loi en août. 

Ce document propose un « bureau national de l'IA » pour superviser le développement de l'IA en Chine, exige un « rapport de responsabilité sociale » indépendant annuel sur les modèles de fondation et établit une « liste négative » des domaines de l'IA présentant des risques plus élevés, que les entreprises peuvent pas même de recherche sans l’approbation du gouvernement. Actuellement, les entreprises chinoises d’IA sont déjà soumises à de nombreuses réglementations. 

En fait, tout modèle de fondation doit être enregistré auprès du gouvernement avant de pouvoir être rendu public chinois (fin 2023, 22 entreprises avaient enregistré leurs modèles d’IA). 

Cela signifie que l’IA en Chine n’est plus un environnement du Far West. Mais la manière exacte dont ces réglementations seront appliquées reste incertaine. Au cours de l’année à venir, les entreprises d’IA générative devront essayer de comprendre la réalité de la conformité, notamment en ce qui concerne les examens de sécurité et la violation de la propriété intellectuelle. Dans le même temps, étant donné que les sociétés étrangères d’IA n’ont reçu aucune autorisation pour commercialiser leurs produits en Chine (et ne le feront probablement pas à l’avenir), l’environnement commercial national qui en résulte protège les entreprises chinoises. 

Cela pourrait les aider à prendre un avantage sur les sociétés occidentales d’IA, mais cela pourrait également étouffer la concurrence et renforcer le contrôle de la Chine sur la parole en ligne. 

Le reste du monde 


Nous verrons probablement davantage de réglementations sur l’IA introduites dans d’autres régions du monde au cours de l’année prochaine. 

Une région à surveiller sera l’Afrique. 

L'Union africaine est susceptible de publier une stratégie d'IA pour le continent début 2024, destinée à établir des politiques que chaque pays peut reproduire pour rivaliser dans l'IA et protéger les consommateurs africains des entreprises technologiques occidentales, a déclaré Melody Musoni, chargée de politique au Centre européen. pour la gestion des politiques de développement. 

Certains pays, comme le Rwanda, le Nigéria et l’Afrique du Sud, ont déjà élaboré des stratégies nationales en matière d’IA et s’efforcent de développer des programmes éducatifs, une puissance de calcul et des politiques favorables à l’industrie pour soutenir les entreprises d’IA. 

Des organismes mondiaux comme l’ONU, l’OCDE, le G20 et des alliances régionales ont commencé à créer des groupes de travail, des conseils consultatifs, des principes, des normes et des déclarations sur l’IA. 

Des groupes comme l’OCDE peuvent s’avérer utiles pour créer une cohérence réglementaire entre les différentes régions, ce qui pourrait alléger le fardeau de la conformité pour les entreprises d’IA. 

Sur le plan géopolitique, nous verrons probablement des différences croissantes entre la manière dont les pays démocratiques et autoritaires encouragent – ​​et militarisent – ​​leurs industries de l’IA. 

Il sera intéressant de voir dans quelle mesure les entreprises d’IA donneront la priorité à l’expansion mondiale ou à la spécialisation nationale en 2024.

Elles devront peut-être prendre des décisions difficiles. par Tate Ryan-Mosley, Melissa Heikkilä et Zeyi Yang 





Je suis sur des forums à propos de l'IA sur l'Afrique et je confirme qu'ils sont très en avance.





--- 

 Pierre Erol GIRAUDY 



vendredi 9 juin 2023

IA et Data : des textes européens qui changent la donne


On assiste ces derniers mois à une succession de nouveaux textes européens majeurs dans le secteur du numérique : le DGA, le DA, le DSA, le DMA et le AIA. Tous ces textes répondent à l’objectif que s’est fixé la Commission Européenne d’ici 2030 « d’adapter l’Europe à l’ère du numérique » pour permettre à l’Union Européenne et à ses entreprises de devenir des acteurs économiques incontournables sur le marché des données. Dans cette vidéo, Radoine Douhou (Directeur général adjoint de Cellenza) et Maud Lambert (Avocat spécialisé en Droit des technologies chez Smalt Avocats) font un état des lieux du marché des données et présentent les objectifs de la construction d’un nouveau cadre juridique. ----------- Découvrez les autres vidéos de cette série : - Data Governance Act :    • Data Governance A...   - Data Act :    • Data Act : Facili...   - Artificial Intelligence Act (partie 1) :    • Artificial Intell...   - Artificial Intelligence Act (partie 2) :    • Artificial Intell...   --------- Vous souhaitez en savoir plus et être accompagnés par des experts ? Contactez-nous : https://cellenza.com/ https://smaltavocats.com/








lundi 22 mai 2023

L’IA en Europe ? L’UE choisit donc de la réguler ?

 L’IA en Europe, elle choisit de la réguler ?

En résumé, cet article aborde la régulation de l'intelligence artificielle en Europe. Il mentionne l'émergence de ChatGPT, un modèle de langage conversationnel, et souligne que l'Europe a décidé de réguler cette technologie pour éviter les abus potentiels. 

Le Parlement européen a produit un projet de loi qui s'inspire des réglementations existantes et impose des contrôles aux entreprises. Les dérives potentielles comprennent le pistage numérique des citoyens, la restriction de la liberté d'expression et la manipulation de l'information. 

Bien qu'il y ait certains aspects positifs, comme l'interdiction de systèmes de surveillance de masse similaires à ceux utilisés en Chine, l'article critique également les actions contradictoires du Parlement européen, telles que l'autorisation d'un passeport vaccinal et de mesures drastiques au sein de son institution. 

L'auteur exprime des doutes quant à l'efficacité de la réglementation proposée, soulignant que de nombreuses techniques d'intelligence artificielle sont déjà disponibles en open source et que la recherche se poursuit indépendamment des législateurs. Il suggère que la régulation pourrait entraver l'innovation et que les États pourraient contourner les lois pour leurs propres intérêts. 

En conclusion, l'article critique les approches législatives de l'administration européenne, les comparant aux principes économiques socialistes de taxation, réglementation et subventionnement.






Committee on the Internal Market and Consumer Protection Committee on Civil Liberties, Justice and Home Affairs 9/5/2023 KMB/DA/AS Version: 1.0 DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD)) 

Juridiction très large :


La loi concerne les "fournisseurs et les opérateurs de systèmes d'IA établis ou situés dans un pays tiers, où le droit d'un État membre s'applique en vertu du droit international public ou où la sortie produite par le système est destinée à être utilisée dans l'Union européenne" (p. 68-69).

Vous devez enregistrer votre projet d'IA "à haut risque" ou votre modèle fondamental auprès du gouvernement. Les projets devront enregistrer les fonctionnalités anticipées de leurs systèmes. Les systèmes qui dépassent ces fonctionnalités peuvent faire l'objet d'un rappel. Cela posera problème pour de nombreux projets open-source plus anarchiques. L'enregistrement exigera également la divulgation des sources de données utilisées, des ressources informatiques (y compris le temps passé à l'entraînement), des critères de performance et des tests d'évaluation (p. 23-29).

Des tests de risque coûteux sont requis. Apparemment, les différents États membres de l'UE effectueront des évaluations "tiers" dans chaque pays, selon une échelle mobile de frais en fonction de la taille de l'entreprise demanderesse. Les tests doivent être des critères de référence qui n'ont pas encore été créés. Un suivi après la mise en service est requis (probablement par le gouvernement). Une nouvelle certification est requise si les modèles montrent des capacités inattendues. Une nouvelle certification est également requise après tout entraînement substantiel (p. 14-15, voir disposition 4a pour clarifier qu'il s'agit de tests gouvernementaux).

Risques très vaguement définis : La liste des risques inclut les risques pour des choses telles que l'environnement, la démocratie et l'État de droit. Qu'est-ce qu'un risque pour la démocratie ? Cette loi elle-même pourrait-elle représenter un risque pour la démocratie ? (p. 26).

Les LLM Open Source ne sont pas exempts : Les modèles fondamentaux open source ne sont pas exemptés de la loi. Les programmeurs et les distributeurs du logiciel sont responsables légalement. Pour les autres formes de logiciels d'IA open source, la responsabilité est transférée au groupe qui utilise le logiciel ou le met sur le marché (p. 70).

Les API sont essentiellement interdites. Les API permettent à des tiers de mettre en œuvre un modèle d'IA sans l'exécuter sur leur propre matériel. Certains exemples d'implémentation incluent AutoGPT et LangChain. Selon ces règles, si un tiers, en utilisant une API, découvre comment faire réaliser à un modèle quelque chose de nouveau, ce tiers doit ensuite faire certifier la nouvelle fonctionnalité.

Le fournisseur précédent est tenu, en vertu de la loi, de fournir au tiers ce qui serait autrement des informations techniques confidentielles afin que le tiers puisse terminer le processus de licence. La capacité de contraindre les divulgations confidentielles signifie que les start-ups et autres bricoleurs sont essentiellement interdits d'utilisation d'une API, même si le bricoleur se trouve aux États-Unis. Le bricoleur pourrait rendre son logiciel disponible en Europe, ce qui entraînerait la nécessité de le licencier et de contraindre les divulgations (p. 37).

Les développeurs open source sont responsables. La loi est mal rédigée. La loi ne couvre pas les composants d'IA open source gratuits. Les modèles fondamentaux (LLM) sont considérés comme distincts des composants. Ce que cela semble signifier, c'est que vous pouvez ouvrir des modèles d'apprentissage automatique traditionnels open source, mais pas des IA génératives.

Si un développeur open source américain place un modèle ou du code utilisant une API sur GitHub, et que le code devient disponible dans l'UE, le développeur serait responsable de la diffusion d'un modèle non autorisé. De plus, GitHub serait responsable d'héberger un modèle non autorisé (p. 37 et 39-40).

LoRA essentiellement interdit. LoRA est une technique pour ajouter progressivement de nouvelles informations et fonctionnalités à un modèle à moindre coût. Les projets open source l'utilisent car ils ne peuvent pas se permettre une infrastructure informatique coûteuse. On dit également que les grands modèles d'IA l'utilisent, car l'entraînement est moins coûteux et plus facile à vérifier en termes de sécurité que les nouvelles versions d'un modèle qui introduisent de nombreuses nouvelles fonctionnalités en une seule fois (p. 14).

Si un projet open source parvient d'une manière ou d'une autre à obtenir les certificats requis, il devra les renouveler chaque fois que LoRA est utilisé pour étendre le modèle.

Licence de déploiement. Les personnes ou entités utilisant des systèmes d'IA sont tenues de subir un examen rigoureux de permis avant le lancement. Les petites entreprises de l'UE sont exemptées de cette exigence (p. 26).

Possibilité pour des tiers de poursuivre en justice. Les tiers concernés ont le droit d'intenter des poursuites par l'intermédiaire de l'autorité de régulation de l'IA d'un pays (établie par la loi). Cela signifie que le déploiement d'un système d'IA peut être contesté individuellement dans plusieurs États membres. Les tiers peuvent intenter des poursuites pour contraindre une autorité nationale de régulation de l'IA à infliger des amendes (p. 71).

Très grosses amendes. Les amendes en cas de non-conformité vont de 2 % à 4 % du chiffre d'affaires mondial brut de l'entreprise. Pour les personnes physiques, cela peut atteindre 20 000 000 €. Les PME et les start-ups européennes bénéficient d'une exonération en ce qui concerne les amendes (p. 75).

Les systèmes de R&D et d'énergie propre dans l'UE sont exemptés. L'IA peut être utilisée pour des tâches de R&D ou la production d'énergie propre sans se conformer à ce système (p. 64-65).

Loi sur l'IA et droit américain
L'attribution très large de la compétence extraterritoriale posera problème. La loi sur l'IA permettrait à toute personne mécontente de l'IA - du moins si elle est citoyenne de l'UE - de contraindre les gouvernements de l'UE à engager des poursuites judiciaires si des modèles non autorisés étaient en quelque sorte disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises opérant dans l'UE de se conformer aux lois de l'UE.

Le principal problème concerne les restrictions sur les API. Actuellement, de nombreux fournisseurs de cloud américains ne restreignent pas l'accès aux modèles d'API, en dehors des listes d'attente que les fournisseurs s'efforcent de combler. Un programmeur à domicile ou un inventeur dans son garage peut accéder aux dernières technologies à un prix raisonnable. Sous les restrictions de la loi sur l'IA, l'accès aux API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.

Ce que veut l'UE va à l'encontre de ce que demande la FTC. Pour qu'une entreprise américaine impose de telles restrictions aux États-Unis, cela soulèverait de nombreux problèmes de concurrence. Les coûts de formation des modèles limitent leur disponibilité aux acteurs très capitalisés. La FTC a été très claire en disant qu'elle ne veut pas voir se reproduire la situation d'Amazon, où une plus grande entreprise utilise sa position pour s'approprier la majeure partie des bénéfices - au détriment des plus petits partenaires. Agir de la manière recherchée par la loi sur l'IA soulèverait d'importants problèmes de concurrence pour les entreprises américaines.

En dehors des dispositions antitrust, la sanction de l'innovation par la loi sur l'IA représente un point de conflit. Pour les acteurs américains, trouver un nouveau moyen d'utiliser un logiciel pour gagner de l'argent est une bonne chose. Selon la loi de l'UE, trouver un nouveau moyen d'utiliser un logiciel annule la certification de sécurité et nécessite un nouveau processus de licence. Les désincitations à l'innovation sont susceptibles de créer des frictions étant donné la portée extraterritoriale de la loi.

Enfin, les dispositions sur les logiciels open source posent un problème majeur. La loi sur l'IA considère les développeurs open source travaillant sur des modèles fondamentaux ou avec ceux-ci comme des acteurs néfastes. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles fondamentaux non autorisés, ainsi que de codes améliorant apparemment les modèles fondamentaux. Pour toutes les autres formes d'apprentissage automatique open source, la responsabilité de la licence incombe à la personne qui déploie le système.

Tenter de sanctionner certaines parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne réagiront probablement pas bien à l'idée qu'un gouvernement leur dise qu'ils ne peuvent pas programmer quelque chose, surtout si le gouvernement n'est pas le leur. De plus, que se passe-t-il si GitHub et les différents "co-pilotes" disent simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.

Il existe donc de nombreux points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain, notamment en ce qui concerne la portée extraterritoriale, les restrictions sur les API, les problèmes de concurrence, les obstacles à l'innovation et les dispositions sur les logiciels open source. Ces points de friction peuvent entraîner des conflits juridiques et des différences d'approche réglementaire entre les deux juridictions.

« Lorsque toute la vie est pénétrée de rapports juridiques, il se crée une atmosphère de médiocrité morale qui asphyxie les meilleurs élans de l'homme » Soljenitsyne.


















mardi 16 mai 2023

Data Act : Faciliter l'accès à de plus grands volumes de données et droit auteur - TDM.


Le Data Act est un texte européen élaboré dans le cadre de la mise en place de la stratégie européenne pour les données. Cette stratégie européenne qui a été définie en 2020, a pour objectif de créer un véritable marché unique des données (personnelles ou non personnelles) ouvert aux données dans lequel les données peuvent circuler et permettre aux entreprises de créer de la valeur à partir de ces données. Dans cette vidéo, Nathalie Fouet (Technical Officer Legal/Data chez Cellenza) et Maud Lambert (Avocat spécialisé en Droit des technologies chez Smalt Avocats) décryptent ce texte et ses conséquences. Au programme : - 00:16 Qu'est-ce que le Data Act ? - 01:16 Où en est-on du Data Act ? - 01:34 A qui s'applique ce texte ? - 01:55 Quels sont les points à retenir ? - 07:31 Les conseils de Cellenza pour préparer l'application du texte 👉 Découvrez les autres vidéos de cette série : - IA/Data : des textes européens qui changent la donne :    • IA et Data : des ...   - Data Governance Act :    • Data Governance A...   - Artificial Intelligence Act (partie 1) :    • Artificial Intell...   - Artificial Intelligence Act (partie 2) :    • Artificial Intell...   --------- Vous souhaitez en savoir plus et être accompagnés par des experts ? Contactez-nous : https://cellenza.com/ https://smaltavocats.com/

Le Data Act est une réglementation européenne élaborée par la Commission européenne pour créer un marché unique pour les données personnelles et non personnelles afin de permettre aux entreprises de créer de la valeur à partir des données. 

Le Data Act est encore en discussion et devrait être adoptée début 2023 et mise en œuvre en 2024. La réglementation s'applique à tous les acteurs qui fabriquent des produits ou des services connectés, aux utilisateurs de ces produits et à ceux qui détiennent des données générées par ces produits. 

Le Data Act propose trois mesures pour faciliter l'utilisation et l'échange de données : un mécanisme pour réduire les effets du verrouillage, le partage de données entre les entreprises et les organismes publics dans des cas exceptionnels et des garanties d'interopérabilité des données. 

Le mécanisme pour réduire les effets du verrouillage oblige les fabricants de produits et services connectés à fournir un accès direct aux données générées par ces produits ou services à l'utilisateur ou à les rendre disponibles dans les plus brefs délais.

---------------------------------------------------------

La conséquence :


Depuis l'adoption de la Directive européenne sur le droit d'auteur et les droits voisins dans le marché unique numérique en avril 2019, les éditeurs de l'UE ont une base légale solide pour empêcher l'accès libre à leurs contenus par les robots de data mining, y compris les crawlers utilisés pour alimenter en données les intelligences artificielles génératives telles que ChatGPT. 

Cependant, la situation n'est pas aussi simple.


Pour être protégé par la loi, un éditeur doit être en mesure de signaler techniquement, dans un langage compréhensible par les machines, que son contenu n'est pas libre d'accès. Le simple fait d'indiquer dans les conditions générales d'utilisation (CGU) du site que le contenu n'est pas accessible ne suffit pas. La législation exige une mention spécifique, lisible par les machines, car les robots ne sont pas techniquement capables de lire les CGU. Laurent Le Meur, directeur et CTO du Laboratoire européen de la lecture numérique (EDRLab), explique : "La nuance est importante car la directive autorise par défaut l'accès de tous les crawlers de data et texte mining, tout en reconnaissant que les titulaires de droits peuvent s'opposer aux utilisations commerciales de leurs contenus."

Cette distinction explique pourquoi les éditeurs membres du Geste, un organisme qui regroupe près de 100 éditeurs en ligne (éditeurs de presse, pure players, médias audiovisuels, services mobiles, plateformes de streaming, etc.), réfléchissent actuellement à des moyens techniques pour contrôler l'accès des robots à leurs contenus. Cela leur permettrait ensuite d'engager des discussions en vue de négocier des licences avec les entreprises cherchant à exploiter leurs données.

La question est de savoir comment le faire de manière efficace tout en permettant l'accès libre aux robots des instituts de recherche, une obligation imposée par la directive, ainsi qu'aux crawlers "utiles" tels que ceux utilisés pour la recommandation de contenus.

Les éditeurs disposent de plusieurs solutions pour contrôler l'accès des crawlers à leurs contenus sur le web.


La première solution, le reverse proxy, consiste à cacher le site web et empêcher les robots non autorisés d'y accéder. Cependant, cette méthode est coûteuse et nécessite une gestion complexe, en plus d'être contournable par des acteurs malveillants.

La deuxième option est d'indiquer dans les métadonnées que le contenu ne doit pas être aspiré. Cependant, chaque format de fichier a sa propre manière d'intégrer des métadonnées, rendant la tâche complexe pour les robots. De plus, cela n'empêche pas l'accès au contenu.

La troisième solution, appelée TDMR est un protocole gratuit et open source développé par un groupe de travail du W3C. Il permet d'ajouter des informations supplémentaires dans le protocole d'accès HTTP, ce qui permet au robot de savoir s'il a le droit de récupérer le contenu avant de le faire. Cette solution est simple à mettre en place et offre plus d'informations aux robots que le protocole robots.txt.

Cependant, TDMRep présente deux limites : il ne bloque pas physiquement l'accès au contenu si le robot insiste et nécessite que le robot soit informé de la présence d'informations supplémentaires dans le protocole d'accès.

En résumé, les solutions existantes pour maîtriser l'accès des crawlers présentent des avantages et des limites, mais TDMRep offre une approche prometteuse en fournissant des informations supplémentaires aux robots tout en restant simple à intégrer.

Cette spécification définit un protocole Web simple et pratique, capable d'exprimer la réservation des droits relatifs au text & data mining (TDM) appliqué à un contenu Web légalement accessible, et de faciliter la découverte des politiques de licence TDM associées à ce contenu. Cette initiative est une réponse technique aux contraintes fixées par l'article 4 de la nouvelle directive européenne sur le droit d'auteur et les droits voisins dans le marché unique numérique.



{
      "@context": [
        "http://www.w3.org/ns/odrl.jsonld",
        {"tdm": "http://www.w3.org/ns/tdmrep#"}
    ],

    "@type": "Offer",
    "profile": "http://www.w3.org/ns/tdmrep",
    "uid": "https://provider.com/policies/policy-a",
    "assigner": {
      "uid": "https://provider.com",
      "vcard:fn": "Provider",
      "vcard:nickname": "PRV",
      "vcard:hasEmail": "mailto:contact@provider.com",
      "vcard:hasAddress": {
        "vcard:street-address": "111 Street Address",
        "vcard:postal-code": "5555",
        "vcard:locality": "Espérance",
        "vcard:country-name": "France"
      },
      "vcard:hasTelephone": "tel:+61755555555",
      "vcard:hasURL": "https://provider.com/tdm/licensing.html" 
    },
    "permission": [{
      "target": "https://provider.com/research-papers",
      "action": "tdm:mine",
      "duty": [{
        "action": "obtainConsent"
        }
      ]
    }
  ]
}

In this example, the rightsholder expresses that non-research Actors from any country can mine its content if they agree to pay a fee.

Si son usage se développe, TDMRep pourra à terme devenir un standard du W3C.

Comment imposer aux IA génératives un droit d'accès à vos contenus :


----
P. Erol GIRAUDY


Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés)

Customize your styles Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés) Claude a récemment eu une mise à j...