samedi 27 mai 2023

GOUVERNANCE - AI: FAQ sur les contrôles de données dans ChatGPT (com...

FAQ sur les contrôles de données Écrit par 

Josué J.


Nous voyons que la Compagnie OpenAI lentement trouve des solutions pour protéger les utilisateurs. Elle lance même un concours :  



OpenAI offre des subventions de 100 000 dollars chacune pour des idées sur la gouvernance de l'IA.

 

Mais revenons à notre sujet : quels sont les paramètres de contrôle des données ? 


Les contrôles de données vous offrent la possibilité de désactiver l'historique des discussions et de choisir facilement si vos conversations seront utilisées pour former nos modèles. Ils vous donnent également la possibilité d'exporter vos données ChatGPT et de supprimer définitivement votre compte. 

Comment désactiver l'historique des discussions et la formation des modèles ? 


Interface Web: Pour désactiver l'historique des discussions et la formation des modèles, accédez à ChatGPT > Contrôles des données. 


How do I turn off chat history and model training? | OpenAI Help Center


Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 




Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 

Veuillez noter que cela n'empêchera pas les modules complémentaires de navigateur non autorisés ou les logiciels malveillants sur votre ordinateur de stocker votre historique. 
Application iOS : Pour désactiver l'historique des discussions et la formation des modèles, appuyez sur les trois points dans le coin supérieur droit de l'écran > Paramètres > Contrôles des données > désactivez l'historique des discussions et la formation. 

Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 

Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 



Pour plus de détails, voir Comment désactiver l'historique des discussions et la formation des modèles ? 


Cette fonctionnalité se synchronise-t-elle entre le Web et les appareils mobiles ? Ce paramètre ne se synchronise pas entre les navigateurs ou les appareils. Vous devrez l'activer sur chaque appareil. 

Comment exporter mes données depuis ChatGPT ? 


Pour exporter vos conversations, dans ChatGPT, accédez à Paramètres > Contrôles des données. 

Vous verrez une option pour exporter des données dans le coin inférieur gauche de la fenêtre contextuelle. Vous recevrez un fichier contenant vos données ChatGPT dans un e-mail. Pour plus de détails, consultez 


Comment exporter mon historique et mes données ChatGPT ? 


Comment supprimer mon compte ChatGPT ? 


Pour supprimer votre compte, accédez à Paramètres > Contrôles des données. Au bas de la fenêtre contextuelle, vous verrez une option pour supprimer votre compte. Si vous choisissez de supprimer votre compte, cela est irréversible. Si vous êtes un utilisateur de l'API via le même compte, ces données seront également supprimées. 

Pour plus de détails, voir Comment puis-je supprimer mon compte ? 




Comment OpenAI utilise-t-il mes données personnelles ? 

Nos grands modèles de langage sont entraînés sur un large corpus de texte qui comprend du contenu accessible au public, du contenu sous licence et du contenu généré par des réviseurs humains. Nous n'utilisons pas de données pour vendre nos services, faire de la publicité ou créer des profils de personnes. 

Nous utilisons des données pour rendre nos modèles plus utiles aux gens. ChatGPT, par exemple, s'améliore grâce à une formation supplémentaire sur les conversations que les gens ont avec lui, à moins que vous ne choisissiez de désactiver la formation. 

Si je désactive l'historique, le paramètre s'applique-t-il à toutes mes conversations ou puis-je choisir des conversations spécifiques pour lesquelles l'activer ? 

Tant que l'historique est désactivé, les nouveaux chats seront supprimés de nos systèmes dans les 30 jours - et examinés uniquement en cas de besoin pour surveiller les abus - et ne seront pas utilisés pour la formation des modèles. Les conversations existantes seront toujours enregistrées et pourront être utilisées pour la formation du modèle si vous ne vous êtes pas désabonné. 

Si je désactive l'historique, que se passe-t-il lorsque la conversation se ferme ? 


Lorsque l'historique est désactivé, la conversation n'apparaîtra pas dans votre historique (sur le côté gauche de l'écran) et ne pourra pas être récupérée. 
Lorsque l'historique des discussions est désactivé, nous conservons les nouvelles conversations pendant 30 jours et ne les examinons que lorsque cela est nécessaire pour surveiller les abus, avant de les supprimer définitivement. 

Existe-t-il des limitations ou des restrictions concernant l'historique et la formation de désactivation ? 

Il n'y a pas de limite au nombre de conversations que vous pouvez avoir lorsque l'historique et la formation sont désactivés. Cela s'applique aux abonnements gratuits et Plus. Auparavant, j'avais choisi de ne pas participer à la formation des modèles en écrivant à l'équipe d'assistance. 

Allez-vous continuer à honorer mon opt-out ? 


Oui, nous continuerons d'honorer les demandes de retrait précédentes. Les nouveaux contrôles de données visent à faciliter la désactivation de l'historique des discussions et à choisir facilement si vos conversations seront utilisées pour former nos modèles 

Que se passe-t-il si je souhaite conserver mon historique mais désactiver l'entraînement du modèle ?


 Nous travaillons sur une nouvelle offre appelée ChatGPT Business qui désactivera par défaut les utilisateurs finaux de la formation des modèles. 

En attendant, vous pouvez vous opposer à l'utilisation de vos données pour améliorer nos services en remplissant ce formulaire. Une fois que vous aurez soumis le formulaire, les nouvelles conversations ne seront pas utilisées pour former nos modèles. 


API


Lire aussi 

Apports démocratiques à l'IA

Notre organisation à but non lucratif, OpenAI, Inc., lance un programme d'attribution de dix subventions de 100 000 $ pour financer des expériences de mise en place d'un processus démocratique pour décider des règles que les systèmes d'IA doivent suivre, dans les limites définies par la loi.
L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.


L'IA aura des impacts économiques et sociétaux importants et de grande envergure. La technologie façonne la vie des individus, la façon dont nous interagissons les uns avec les autres et la façon dont la société dans son ensemble évolue. Nous pensons que les décisions sur le comportement de l'IA doivent être façonnées par diverses perspectives reflétant l'intérêt public. 

Les lois encodent des valeurs et des normes pour réguler les comportements. Au-delà d'un cadre juridique, l'IA, tout comme la société, a besoin de directives plus complexes et adaptatives pour sa conduite. Par exemple : dans quelles conditions les systèmes d'IA devraient-ils condamner ou critiquer des personnalités publiques, compte tenu des opinions différentes d'un groupe à l'autre sur ces personnalités ? Comment les points de vue contestés doivent-ils être représentés dans les résultats de l'IA ? L'IA devrait-elle par défaut refléter la personnalité d'un individu médian dans le monde, le pays de l'utilisateur, la démographie de l'utilisateur ou quelque chose de complètement différent ? Aucun individu, entreprise ou même pays ne devrait dicter ces décisions. 

L'IAG devrait profiter à toute l'humanité et être conçue pour être aussi inclusive que possible. Nous lançons ce programme de subventions pour faire un premier pas dans cette direction. Nous recherchons des équipes du monde entier pour développer des preuves de concepts pour un processus démocratique qui pourraient répondre aux questions sur les règles que les systèmes d'IA devraient suivre. Nous voulons apprendre de ces expériences et les utiliser comme base pour un processus plus global et plus ambitieux à l'avenir. Bien que ces expériences initiales ne soient pas (du moins pour l'instant) destinées à être contraignantes pour les décisions, nous espérons qu'elles exploreront des questions pertinentes pour la prise de décision et construiront de nouveaux outils démocratiques qui pourront éclairer plus directement les décisions à l'avenir.

La gouvernance des systèmes les plus puissants, ainsi que les décisions relatives à leur déploiement, doivent bénéficier d'un contrôle public fort. Cette subvention représente une étape pour établir des processus démocratiques de supervision de l'AGI et, en fin de compte, de la superintelligence. Il sera fourni par l'organisation à but non lucratif OpenAI, et les résultats des études seront librement accessibles.

Calendrier

24 juin 2023 21 h 00, heure du Pacifique : date limite pour soumettre une demande de subvention
14 juillet 2023 : Les candidats retenus seront sélectionnés et notifiés
20 octobre 2023 : Rapport public complet sur le prototype fonctionnel et les résultats.

L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.

--- 
 Pierre Erol GIRAUDY 


mercredi 24 mai 2023

Services d'IA de contenu Microsoft Syntex


mardi 23 mai 2023

Gouvernance de la superintelligence par une super organisation

 Gouvernance de la superintelligence.

C'est maintenant le bon moment pour commencer à réfléchir à la gouvernance de la superintelligence - les futurs systèmes d'IA considérablement plus capables que même l'AGI.

Sécurité et alignement

Compte tenu de la situation telle que nous la voyons actuellement, il est concevable que dans les dix prochaines années, les systèmes d'IA dépasseront le niveau de compétence des experts dans la plupart des domaines et réaliseront autant d'activités productives que l'une des plus grandes entreprises d'aujourd'hui.

En termes d'avantages et d'inconvénients potentiels, la superintelligence sera plus puissante que les autres technologies auxquelles l'humanité a dû faire face dans le passé. Nous pouvons avoir un avenir considérablement plus prospère ; mais nous devons gérer le risque pour y arriver. Compte tenu de la possibilité d'un risque existentiel, nous ne pouvons pas simplement être réactifs. L'énergie nucléaire est un exemple historique couramment utilisé d'une technologie dotée de cette propriété ; la biologie synthétique est un autre exemple.

Nous devons également atténuer les risques de la technologie actuelle de l'IA, mais la superintelligence nécessitera un traitement et une coordination particuliers.


Un point de départ

De nombreuses idées comptent pour nous afin d'avoir une bonne chance de naviguer avec succès dans ce développement ; nous exposons ici notre réflexion initiale sur trois d'entre eux.

Premièrement, nous avons besoin d'un certain degré de coordination entre les principaux efforts de développement pour garantir que le développement de la superintelligence se produit d'une manière qui nous permet à la fois de maintenir la sécurité et d'aider à une intégration harmonieuse de ces systèmes avec la société. Cela pourrait être mis en œuvre de nombreuses façons ; les principaux gouvernements du monde pourraient mettre en place un projet auquel de nombreux efforts actuels feraient partie, ou nous pourrions convenir collectivement (avec le soutien d'une nouvelle organisation comme celle suggérée ci-dessous) que le taux de croissance de la capacité d'IA à la frontière est limité à un certain taux par an.

Et bien sûr, les entreprises individuelles doivent être tenues à un niveau extrêmement élevé d'action responsable.

Deuxièmement, nous finirons probablement par avoir besoin de quelque chose comme un IAEApour les efforts de superintelligence ; tout effort dépassant un certain seuil de capacité (ou de ressources comme le calcul) devra être soumis à une autorité internationale qui peut inspecter les systèmes, exiger des audits, tester la conformité aux normes de sécurité, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc. Le suivi de l'utilisation du calcul et de l'énergie pourrait aller très loin et nous donner l'espoir que cette idée pourrait réellement être mise en œuvre. Dans un premier temps, les entreprises pourraient accepter volontairement de commencer à mettre en œuvre des éléments de ce qu'une telle agence pourrait un jour exiger, et dans un second temps, les pays individuels pourraient le mettre en œuvre. 

Il serait important qu'une telle agence se concentre sur la réduction du risque existentiel et non sur des questions qui devraient être laissées à chaque pays, comme la définition de ce qu'une IA devrait être autorisée à dire.

Troisièmement, nous avons besoin de la capacité technique pour sécuriser une superintelligence. Il s'agit d'une question de recherche ouverte sur laquelle nous et d'autres mettons beaucoup d'efforts.


Ce qui n'est pas dans le champ d'application

Nous pensons qu'il est important de permettre aux entreprises et aux projets open source de développer des modèles en dessous d'un seuil de capacité significatif, sans le type de réglementation que nous décrivons ici (y compris des mécanismes contraignants tels que des licences ou des audits).

Les systèmes d'aujourd'hui créeront une valeur énorme dans le monde et, même s'ils comportent des risques, le niveau de ces risques semble proportionnel à d'autres technologies Internet et les approches probables de la société semblent appropriées.

En revanche, les systèmes qui nous préoccupent auront un pouvoir au-delà de toute technologie encore créée, et nous devons veiller à ne pas diluer l'attention sur eux en appliquant des normes similaires à une technologie bien en dessous de cette barre.


Contribution du public et potentiel

Mais la gouvernance des systèmes les plus puissants, ainsi que les décisions concernant leur déploiement, doivent faire l'objet d'un contrôle public fort. Nous pensons que les gens du monde entier devraient décider démocratiquement des limites et des valeurs par défaut des systèmes d'IA. Nous ne savons pas encore comment concevoir un tel mécanisme, mais nous prévoyons d'expérimenter son développement. Nous continuons de penser que, dans ces larges limites, les utilisateurs individuels devraient avoir beaucoup de contrôle sur le comportement de l'IA qu'ils utilisent.

Compte tenu des risques et des difficultés, il vaut la peine de se demander pourquoi nous construisons cette technologie.


Chez OpenAI, nous avons deux raisons fondamentales. 

Premièrement, nous pensons que cela va conduire à un monde bien meilleur que ce que nous pouvons imaginer aujourd'hui (nous en voyons déjà des exemples précoces dans des domaines tels que l'éducation, le travail créatif et la productivité personnelle). 

Le monde est confronté à de nombreux problèmes que nous aurons besoin de beaucoup plus d'aide pour résoudre ; cette technologie peut améliorer nos sociétés, et la capacité créative de chacun à utiliser ces nouveaux outils ne manquera pas de nous étonner. La croissance économique et l'augmentation de la qualité de vie seront étonnantes.


Deuxièmement, nous pensons qu'il serait involontairement risqué et difficile d'arrêter la création de la superintelligence. Parce que les avantages sont si énormes, que le coût de sa construction diminue chaque année, que le nombre d'acteurs qui la construisent augmente rapidement et que cela fait intrinsèquement partie de la voie technologique sur laquelle nous nous trouvons, l'arrêter nécessiterait quelque chose comme un régime de surveillance mondial, et même cela n'est pas garanti de fonctionner. Nous devons donc bien faire les choses.

Sources :

International Atomic Energy Agency | Atoms for Peace and Development (iaea.org)

Gouvernance de la superintelligence (openai.com)

Our approach to AI safety (openai.com)

Lire aussi 

GOUVERNANCE - AI: FAQ sur les contrôles de données dans ChatGPT (comment activer ou désactiver cette fonction). (gouver2020.blogspot.com)

Democratic Inputs to AI (openai.com)

Governance of superintelligence (openai.com)




lundi 22 mai 2023

L’IA en Europe ? L’UE choisit donc de la réguler ?

 L’IA en Europe, elle choisit de la réguler ?

En résumé, cet article aborde la régulation de l'intelligence artificielle en Europe. Il mentionne l'émergence de ChatGPT, un modèle de langage conversationnel, et souligne que l'Europe a décidé de réguler cette technologie pour éviter les abus potentiels. 

Le Parlement européen a produit un projet de loi qui s'inspire des réglementations existantes et impose des contrôles aux entreprises. Les dérives potentielles comprennent le pistage numérique des citoyens, la restriction de la liberté d'expression et la manipulation de l'information. 

Bien qu'il y ait certains aspects positifs, comme l'interdiction de systèmes de surveillance de masse similaires à ceux utilisés en Chine, l'article critique également les actions contradictoires du Parlement européen, telles que l'autorisation d'un passeport vaccinal et de mesures drastiques au sein de son institution. 

L'auteur exprime des doutes quant à l'efficacité de la réglementation proposée, soulignant que de nombreuses techniques d'intelligence artificielle sont déjà disponibles en open source et que la recherche se poursuit indépendamment des législateurs. Il suggère que la régulation pourrait entraver l'innovation et que les États pourraient contourner les lois pour leurs propres intérêts. 

En conclusion, l'article critique les approches législatives de l'administration européenne, les comparant aux principes économiques socialistes de taxation, réglementation et subventionnement.






Committee on the Internal Market and Consumer Protection Committee on Civil Liberties, Justice and Home Affairs 9/5/2023 KMB/DA/AS Version: 1.0 DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD)) 

Juridiction très large :


La loi concerne les "fournisseurs et les opérateurs de systèmes d'IA établis ou situés dans un pays tiers, où le droit d'un État membre s'applique en vertu du droit international public ou où la sortie produite par le système est destinée à être utilisée dans l'Union européenne" (p. 68-69).

Vous devez enregistrer votre projet d'IA "à haut risque" ou votre modèle fondamental auprès du gouvernement. Les projets devront enregistrer les fonctionnalités anticipées de leurs systèmes. Les systèmes qui dépassent ces fonctionnalités peuvent faire l'objet d'un rappel. Cela posera problème pour de nombreux projets open-source plus anarchiques. L'enregistrement exigera également la divulgation des sources de données utilisées, des ressources informatiques (y compris le temps passé à l'entraînement), des critères de performance et des tests d'évaluation (p. 23-29).

Des tests de risque coûteux sont requis. Apparemment, les différents États membres de l'UE effectueront des évaluations "tiers" dans chaque pays, selon une échelle mobile de frais en fonction de la taille de l'entreprise demanderesse. Les tests doivent être des critères de référence qui n'ont pas encore été créés. Un suivi après la mise en service est requis (probablement par le gouvernement). Une nouvelle certification est requise si les modèles montrent des capacités inattendues. Une nouvelle certification est également requise après tout entraînement substantiel (p. 14-15, voir disposition 4a pour clarifier qu'il s'agit de tests gouvernementaux).

Risques très vaguement définis : La liste des risques inclut les risques pour des choses telles que l'environnement, la démocratie et l'État de droit. Qu'est-ce qu'un risque pour la démocratie ? Cette loi elle-même pourrait-elle représenter un risque pour la démocratie ? (p. 26).

Les LLM Open Source ne sont pas exempts : Les modèles fondamentaux open source ne sont pas exemptés de la loi. Les programmeurs et les distributeurs du logiciel sont responsables légalement. Pour les autres formes de logiciels d'IA open source, la responsabilité est transférée au groupe qui utilise le logiciel ou le met sur le marché (p. 70).

Les API sont essentiellement interdites. Les API permettent à des tiers de mettre en œuvre un modèle d'IA sans l'exécuter sur leur propre matériel. Certains exemples d'implémentation incluent AutoGPT et LangChain. Selon ces règles, si un tiers, en utilisant une API, découvre comment faire réaliser à un modèle quelque chose de nouveau, ce tiers doit ensuite faire certifier la nouvelle fonctionnalité.

Le fournisseur précédent est tenu, en vertu de la loi, de fournir au tiers ce qui serait autrement des informations techniques confidentielles afin que le tiers puisse terminer le processus de licence. La capacité de contraindre les divulgations confidentielles signifie que les start-ups et autres bricoleurs sont essentiellement interdits d'utilisation d'une API, même si le bricoleur se trouve aux États-Unis. Le bricoleur pourrait rendre son logiciel disponible en Europe, ce qui entraînerait la nécessité de le licencier et de contraindre les divulgations (p. 37).

Les développeurs open source sont responsables. La loi est mal rédigée. La loi ne couvre pas les composants d'IA open source gratuits. Les modèles fondamentaux (LLM) sont considérés comme distincts des composants. Ce que cela semble signifier, c'est que vous pouvez ouvrir des modèles d'apprentissage automatique traditionnels open source, mais pas des IA génératives.

Si un développeur open source américain place un modèle ou du code utilisant une API sur GitHub, et que le code devient disponible dans l'UE, le développeur serait responsable de la diffusion d'un modèle non autorisé. De plus, GitHub serait responsable d'héberger un modèle non autorisé (p. 37 et 39-40).

LoRA essentiellement interdit. LoRA est une technique pour ajouter progressivement de nouvelles informations et fonctionnalités à un modèle à moindre coût. Les projets open source l'utilisent car ils ne peuvent pas se permettre une infrastructure informatique coûteuse. On dit également que les grands modèles d'IA l'utilisent, car l'entraînement est moins coûteux et plus facile à vérifier en termes de sécurité que les nouvelles versions d'un modèle qui introduisent de nombreuses nouvelles fonctionnalités en une seule fois (p. 14).

Si un projet open source parvient d'une manière ou d'une autre à obtenir les certificats requis, il devra les renouveler chaque fois que LoRA est utilisé pour étendre le modèle.

Licence de déploiement. Les personnes ou entités utilisant des systèmes d'IA sont tenues de subir un examen rigoureux de permis avant le lancement. Les petites entreprises de l'UE sont exemptées de cette exigence (p. 26).

Possibilité pour des tiers de poursuivre en justice. Les tiers concernés ont le droit d'intenter des poursuites par l'intermédiaire de l'autorité de régulation de l'IA d'un pays (établie par la loi). Cela signifie que le déploiement d'un système d'IA peut être contesté individuellement dans plusieurs États membres. Les tiers peuvent intenter des poursuites pour contraindre une autorité nationale de régulation de l'IA à infliger des amendes (p. 71).

Très grosses amendes. Les amendes en cas de non-conformité vont de 2 % à 4 % du chiffre d'affaires mondial brut de l'entreprise. Pour les personnes physiques, cela peut atteindre 20 000 000 €. Les PME et les start-ups européennes bénéficient d'une exonération en ce qui concerne les amendes (p. 75).

Les systèmes de R&D et d'énergie propre dans l'UE sont exemptés. L'IA peut être utilisée pour des tâches de R&D ou la production d'énergie propre sans se conformer à ce système (p. 64-65).

Loi sur l'IA et droit américain
L'attribution très large de la compétence extraterritoriale posera problème. La loi sur l'IA permettrait à toute personne mécontente de l'IA - du moins si elle est citoyenne de l'UE - de contraindre les gouvernements de l'UE à engager des poursuites judiciaires si des modèles non autorisés étaient en quelque sorte disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises opérant dans l'UE de se conformer aux lois de l'UE.

Le principal problème concerne les restrictions sur les API. Actuellement, de nombreux fournisseurs de cloud américains ne restreignent pas l'accès aux modèles d'API, en dehors des listes d'attente que les fournisseurs s'efforcent de combler. Un programmeur à domicile ou un inventeur dans son garage peut accéder aux dernières technologies à un prix raisonnable. Sous les restrictions de la loi sur l'IA, l'accès aux API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.

Ce que veut l'UE va à l'encontre de ce que demande la FTC. Pour qu'une entreprise américaine impose de telles restrictions aux États-Unis, cela soulèverait de nombreux problèmes de concurrence. Les coûts de formation des modèles limitent leur disponibilité aux acteurs très capitalisés. La FTC a été très claire en disant qu'elle ne veut pas voir se reproduire la situation d'Amazon, où une plus grande entreprise utilise sa position pour s'approprier la majeure partie des bénéfices - au détriment des plus petits partenaires. Agir de la manière recherchée par la loi sur l'IA soulèverait d'importants problèmes de concurrence pour les entreprises américaines.

En dehors des dispositions antitrust, la sanction de l'innovation par la loi sur l'IA représente un point de conflit. Pour les acteurs américains, trouver un nouveau moyen d'utiliser un logiciel pour gagner de l'argent est une bonne chose. Selon la loi de l'UE, trouver un nouveau moyen d'utiliser un logiciel annule la certification de sécurité et nécessite un nouveau processus de licence. Les désincitations à l'innovation sont susceptibles de créer des frictions étant donné la portée extraterritoriale de la loi.

Enfin, les dispositions sur les logiciels open source posent un problème majeur. La loi sur l'IA considère les développeurs open source travaillant sur des modèles fondamentaux ou avec ceux-ci comme des acteurs néfastes. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles fondamentaux non autorisés, ainsi que de codes améliorant apparemment les modèles fondamentaux. Pour toutes les autres formes d'apprentissage automatique open source, la responsabilité de la licence incombe à la personne qui déploie le système.

Tenter de sanctionner certaines parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne réagiront probablement pas bien à l'idée qu'un gouvernement leur dise qu'ils ne peuvent pas programmer quelque chose, surtout si le gouvernement n'est pas le leur. De plus, que se passe-t-il si GitHub et les différents "co-pilotes" disent simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.

Il existe donc de nombreux points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain, notamment en ce qui concerne la portée extraterritoriale, les restrictions sur les API, les problèmes de concurrence, les obstacles à l'innovation et les dispositions sur les logiciels open source. Ces points de friction peuvent entraîner des conflits juridiques et des différences d'approche réglementaire entre les deux juridictions.

« Lorsque toute la vie est pénétrée de rapports juridiques, il se crée une atmosphère de médiocrité morale qui asphyxie les meilleurs élans de l'homme » Soljenitsyne.


















jeudi 18 mai 2023

Mise en action de l’IA avec l’AI Business School

 Mise en action de l’IA avec l’AI Business School

Explorez notre série sur le leadership en ligne et découvrez comment générer un impact commercial en définissant une stratégie, une culture d'IA efficaces, etc.

L’IA (intelligence artificielle) permet au monde entier d’aller plus loin. Qu’il s’agisse de doter les équipes de développement technique de moyens supplémentaires ou de mobiliser une organisation entière afin d’exploiter pleinement le potentiel de l’IA, les entreprises doivent penser à l’IA d’un point de vue stratégique – et elles doivent commencer dès aujourd'hui.


Définir une stratégie IA

Vos initiatives IA doivent débuter par une solide compréhension de la stratégie IA dans son ensemble. Les leaders sectoriels suivent un cadre de création d’une vision IA, qui peut s’appliquer de manière stratégique sur l’ensemble d’une organisation.


Cours sur l’intelligence artificielle de l’AI Business School - IA de Microsoft


https://www.microsoft.com/fr-fr/ai/ai-business-school

Gouvernance et mission externe

Brad Smith, président et chef des affaires juridiques de Microsoft, nous fait part de ce que Microsoft a appris au cours de son propre parcours dans le domaine de l’IA. Il présente également des points de vue utiles sur la façon dont les entreprises peuvent s’engager de manière responsable dans l’IA, en introduisant l’IA dans leurs propres produits, services et au sein même de leur organisation.



Créer une approche holistique de l’IA

La réussite de la mise en œuvre de l’IA ne dépend pas seulement des technologies qui la composent. Découvrez comment avoir un impact durable sur les entreprises grâce à ces six parcours d’apprentissage proposés par l’école de gestion de l’IA.

Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés)

Customize your styles Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés) Claude a récemment eu une mise à j...