vendredi 5 janvier 2024

Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

 Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

L’année à venir verra l’entrée en vigueur des premières lois radicales sur l’IA, avec des efforts mondiaux pour tenir les entreprises technologiques responsables.

Par Tate Ryan-MosleyPage d’archivageMelissa HeikkiläPage d’archivageZeyi YangPage d’archivage
5 janvier 2024

La série What’s Next du MIT Technology Review examine les secteurs, les tendances et les technologies pour vous donner un premier aperçu de l’avenir. 

En 2023, la politique et la réglementation de l’IA sont passées d’un sujet de niche et ringard à l’actualité en première page. C’est en partie grâce au ChatGPT d’OpenAI, qui a aidé l’IA à se généraliser, mais qui a également exposé les gens à la manière dont les systèmes d’IA fonctionnent – ​​et ne fonctionnent pas. 

Ce fut une année monumentale pour la politique : nous avons assisté à l'adoption de la première loi radicale sur l'IA dans l'Union européenne, aux audiences du Sénat et aux décrets aux États-Unis, et à des règles spécifiques en Chine pour des choses comme les algorithmes de recommandation. 

Si 2023 a été l’année où les législateurs se sont mis d’accord sur une vision, 2024 sera l’année où les politiques commenceront à se transformer en actions concrètes. 
Voici à quoi s’attendre. 

Les États Unis 

L’IA est réellement entrée dans le débat politique aux États-Unis en 2023. Mais il ne s’agissait pas seulement d’un débat. Il y a eu également des actions, qui ont culminé avec le décret du président Biden sur l’IA fin octobre, une directive tentaculaire appelant à plus de transparence et à de nouvelles normes. 

Grâce à cette activité, une politique américaine en matière d'IA a commencé à émerger : une politique favorable à l'industrie de l'IA, mettant l'accent sur les meilleures pratiques, s'appuyant sur différentes agences pour élaborer leurs propres règles et une approche nuancée de réglementation de chaque secteur de l'IA. l’économie différemment. 

L’année prochaine s’appuiera sur la dynamique de 2023, et de nombreux éléments détaillés dans le décret de Biden seront adoptés. Nous entendrons également beaucoup parler du nouvel AI Safety Institute des États-Unis, qui sera chargé de mettre en œuvre la plupart des politiques demandées dans l’ordonnance. 

Histoire connexe

 Quelle est la prochaine étape pour l’IA en 2024 Nos rédacteurs examinent les quatre tendances à surveiller cette année Du point de vue du Congrès, on ne sait pas exactement ce qui va se passer. Le chef de la majorité au Sénat, Chuck Schumer, a récemment signalé que de nouvelles lois pourraient venir s'ajouter au décret. 

Plusieurs propositions législatives sont déjà en cours qui touchent divers aspects de l’IA, tels que la transparence, les deepfakes et la responsabilité des plateformes. 

Mais il n’est pas clair lequel, le cas échéant, de ces projets de loi déjà proposés gagnera du terrain l’année prochaine. Ce à quoi nous pouvons nous attendre, cependant, c’est une approche qui classe les types et les utilisations de l’IA en fonction du risque qu’ils posent – ​​un cadre similaire à la loi européenne sur l’IA. 

L'Institut national des normes et de la technologie a déjà proposé un tel cadre que chaque secteur et agence devra désormais mettre en pratique, explique Chris Meserole, directeur exécutif du Frontier Model Forum, un organisme de lobbying de l'industrie. 

Une autre chose est claire : l’élection présidentielle américaine de 2024 influencera une grande partie du débat sur la réglementation de l’IA. 

Comme le montre l’impact de l’IA générative sur les plateformes de médias sociaux et la désinformation, nous pouvons nous attendre à ce que le débat sur la manière de prévenir les dommages causés par cette technologie soit façonné par ce qui se passe pendant la période électorale. 

L'Europe 

L’Union européenne vient de se mettre d’accord sur l’AI Act, la première loi radicale au monde sur l’IA. Après d’intenses retouches techniques et l’approbation officielle des pays européens et du Parlement européen au premier semestre 2024, la loi sur l’IA entrera en vigueur assez rapidement. Dans le scénario le plus optimiste, des interdictions sur certaines utilisations de l’IA pourraient s’appliquer dès la fin de l’année. 

Tout cela signifie que 2024 sera une année chargée pour le secteur de l’IA alors qu’il se prépare à se conformer aux nouvelles règles. Même si la plupart des applications d’IA bénéficieront d’un laissez-passer gratuit en vertu de la loi sur l’IA, les entreprises développant des modèles de base et des applications considérées comme présentant un « risque élevé » pour les droits fondamentaux, comme ceux destinés à être utilisés dans des secteurs comme l’éducation, les soins de santé et l’éducation. la police devra répondre aux nouvelles normes européennes. 

En Europe, la police ne sera pas autorisée à utiliser cette technologie dans les lieux publics, à moins d'obtenir au préalable l'approbation du tribunal à des fins spécifiques telles que la lutte contre le terrorisme, la prévention de la traite des êtres humains ou la recherche d'une personne disparue. 

D’autres utilisations de l’IA seront totalement interdites dans l’UE, comme la création de bases de données de reconnaissance faciale comme celle de Clearview AI ou l’utilisation de technologies de reconnaissance des émotions au travail ou dans les écoles. 

La loi sur l’IA obligera les entreprises à être plus transparentes sur la manière dont elles développent leurs modèles, et elle les rendra, ainsi que les organisations utilisant des systèmes d’IA à haut risque, plus responsables de tout préjudice qui en résulterait. Les entreprises développant des modèles de base (les modèles sur lesquels sont basés d'autres produits d'IA, tels que GPT-4) devront se conformer à la loi dans un délai d'un an après son entrée en vigueur. 

Les autres entreprises technologiques ont deux ans pour mettre en œuvre les règles. 


Pour répondre aux nouvelles exigences, les entreprises d’IA devront réfléchir davantage à la manière dont elles construisent leurs systèmes et documenter leur travail de manière plus rigoureuse afin qu’il puisse être audité. 

La loi obligera les entreprises à être plus transparentes sur la manière dont leurs modèles ont été formés et garantira que les systèmes d’IA jugés à haut risque soient formés et testés avec des ensembles de données suffisamment représentatifs afin de minimiser les biais, par exemple. 

L’UE estime que les modèles d’IA les plus puissants, tels que GPT-4 d’OpenAI et Gemini de Google, pourraient présenter un risque « systémique » pour les citoyens et nécessiteraient donc des travaux supplémentaires pour répondre aux normes de l’UE. 

Les entreprises doivent prendre des mesures pour évaluer et atténuer les risques et garantir la sécurité des systèmes. Elles seront tenues de signaler les incidents graves et de partager des détails sur leur consommation d'énergie. Il appartiendra aux entreprises d’évaluer si leurs modèles sont suffisamment puissants pour entrer dans cette catégorie. 

Les sociétés d’IA open source sont exemptées de la plupart des exigences de transparence de la loi sur l’IA, à moins qu’elles ne développent des modèles aussi gourmands en ressources informatiques que le GPT-4. Le non-respect des règles pourrait entraîner de lourdes amendes ou entraîner le blocage de leurs produits hors de l’UE. 

L’UE travaille également sur un autre projet de loi, appelé Directive sur la responsabilité en matière d’IA, qui garantira que les personnes ayant été lésées par la technologie puissent obtenir une compensation financière. 

Les négociations à ce sujet sont toujours en cours et reprendront probablement cette année. Certains autres pays adoptent une approche plus non interventionniste. Par exemple, le Royaume-Uni, siège de Google DeepMind, a déclaré qu’il n’avait pas l’intention de réglementer l’IA à court terme. 

Cependant, toute entreprise en dehors de l’UE, la deuxième économie mondiale, devra toujours se conformer à la loi sur l’IA si elle souhaite faire des affaires dans le bloc commercial. 

Anu Bradford, professeur de droit à l’Université de Columbia, a appelé cela « l’effet Bruxelles » : en étant la première à réglementer, l’UE est en mesure d’établir la norme mondiale de facto, façonnant la manière dont le monde fait des affaires et développe la technologie. 

L’UE y est parvenue grâce à son régime strict de protection des données, le RGPD, qui a été copié partout, de la Californie à l’Inde. Il espère répéter l’astuce en matière d’IA. 

Chine 

Jusqu’à présent, la réglementation de l’IA en Chine a été profondément fragmentée et fragmentée. Plutôt que de réglementer l’IA dans son ensemble, le pays a publié des textes législatifs individuels chaque fois qu’un nouveau produit d’IA devient important. 

C’est pourquoi la Chine a un ensemble de règles pour les services de recommandation algorithmique (applications et moteurs de recherche de type TikTok), un autre pour les deepfakes et encore un autre pour l’IA générative. 

La force de cette approche est qu’elle permet à Pékin de réagir rapidement aux risques découlant des avancées technologiques, tant pour les utilisateurs que pour le gouvernement. Mais le problème est que cela empêche le développement d’une perspective panoramique à plus long terme. Cela pourrait changer l’année prochaine. 

En juin 2023, le Conseil d’État chinois, l’organe directeur suprême, a annoncé qu’une « loi sur l’intelligence artificielle » figurait à son programme législatif. Cette loi couvrirait tout, comme l’AI Act for Europe. 

En raison de sa portée ambitieuse, il est difficile de dire combien de temps prendra le processus législatif. Nous pourrions voir une première ébauche en 2024, mais cela pourrait prendre plus de temps. 

En attendant, il ne serait pas surprenant que les régulateurs chinois de l’Internet introduisent de nouvelles règles pour gérer les nouveaux outils d’IA ou les types de contenu populaires qui émergeront l’année prochaine. Jusqu’à présent, très peu d’informations à ce sujet ont été publiées, mais un document pourrait nous aider à prédire la nouvelle loi : des chercheurs de l’Académie chinoise des sciences sociales, un institut de recherche public, ont publié une version « suggestion d’experts » de l’IA chinoise. loi en août. 

Ce document propose un « bureau national de l'IA » pour superviser le développement de l'IA en Chine, exige un « rapport de responsabilité sociale » indépendant annuel sur les modèles de fondation et établit une « liste négative » des domaines de l'IA présentant des risques plus élevés, que les entreprises peuvent pas même de recherche sans l’approbation du gouvernement. Actuellement, les entreprises chinoises d’IA sont déjà soumises à de nombreuses réglementations. 

En fait, tout modèle de fondation doit être enregistré auprès du gouvernement avant de pouvoir être rendu public chinois (fin 2023, 22 entreprises avaient enregistré leurs modèles d’IA). 

Cela signifie que l’IA en Chine n’est plus un environnement du Far West. Mais la manière exacte dont ces réglementations seront appliquées reste incertaine. Au cours de l’année à venir, les entreprises d’IA générative devront essayer de comprendre la réalité de la conformité, notamment en ce qui concerne les examens de sécurité et la violation de la propriété intellectuelle. Dans le même temps, étant donné que les sociétés étrangères d’IA n’ont reçu aucune autorisation pour commercialiser leurs produits en Chine (et ne le feront probablement pas à l’avenir), l’environnement commercial national qui en résulte protège les entreprises chinoises. 

Cela pourrait les aider à prendre un avantage sur les sociétés occidentales d’IA, mais cela pourrait également étouffer la concurrence et renforcer le contrôle de la Chine sur la parole en ligne. 

Le reste du monde 


Nous verrons probablement davantage de réglementations sur l’IA introduites dans d’autres régions du monde au cours de l’année prochaine. 

Une région à surveiller sera l’Afrique. 

L'Union africaine est susceptible de publier une stratégie d'IA pour le continent début 2024, destinée à établir des politiques que chaque pays peut reproduire pour rivaliser dans l'IA et protéger les consommateurs africains des entreprises technologiques occidentales, a déclaré Melody Musoni, chargée de politique au Centre européen. pour la gestion des politiques de développement. 

Certains pays, comme le Rwanda, le Nigéria et l’Afrique du Sud, ont déjà élaboré des stratégies nationales en matière d’IA et s’efforcent de développer des programmes éducatifs, une puissance de calcul et des politiques favorables à l’industrie pour soutenir les entreprises d’IA. 

Des organismes mondiaux comme l’ONU, l’OCDE, le G20 et des alliances régionales ont commencé à créer des groupes de travail, des conseils consultatifs, des principes, des normes et des déclarations sur l’IA. 

Des groupes comme l’OCDE peuvent s’avérer utiles pour créer une cohérence réglementaire entre les différentes régions, ce qui pourrait alléger le fardeau de la conformité pour les entreprises d’IA. 

Sur le plan géopolitique, nous verrons probablement des différences croissantes entre la manière dont les pays démocratiques et autoritaires encouragent – ​​et militarisent – ​​leurs industries de l’IA. 

Il sera intéressant de voir dans quelle mesure les entreprises d’IA donneront la priorité à l’expansion mondiale ou à la spécialisation nationale en 2024.

Elles devront peut-être prendre des décisions difficiles. par Tate Ryan-Mosley, Melissa Heikkilä et Zeyi Yang 





Je suis sur des forums à propos de l'IA sur l'Afrique et je confirme qu'ils sont très en avance.





--- 

 Pierre Erol GIRAUDY 



lundi 18 décembre 2023

Agriculture et AI un couple pour la planète

 Agriculture et AI un couple pour la planète.

L'agriculture et l'intelligence artificielle forment un partenariat prometteur pour la planète, apportant des avantages significatifs tant sur le plan de la durabilité que de l'efficacité. 


Voici quelques aspects clés de cette relation :


1. **Optimisation de la production :** Les systèmes d'intelligence artificielle peuvent analyser d'énormes ensembles de données agricoles, y compris des informations météorologiques, des données sur le sol, des données sur les cultures, etc. Ces analyses permettent une prise de décision plus précise pour optimiser la production agricole, en ajustant les pratiques de culture en temps réel en fonction des conditions changeantes.


2. **Réduction des déchets :** L'intelligence artificielle peut aider à minimiser les pertes de récolte en identifiant les signes de maladies, de parasites ou de carences nutritionnelles dès les premiers stades. Cela permet aux agriculteurs d'intervenir de manière ciblée, réduisant ainsi la nécessité d'utiliser des produits chimiques de manière excessive et contribuant à une agriculture plus durable.


3. **Gestion précise des ressources :** L'IA peut être utilisée pour optimiser l'utilisation des ressources telles que l'eau et les engrais. En analysant les besoins spécifiques des cultures à différents stades de croissance, les agriculteurs peuvent appliquer ces ressources de manière plus précise, évitant ainsi le gaspillage et la pollution associés à une utilisation excessive.


4. **Agriculture de précision :** Les technologies basées sur l'IA, comme les drones et les capteurs IoT, permettent une agriculture de précision. Les agriculteurs peuvent surveiller de près leurs champs, identifier les zones présentant des problèmes potentiels et intervenir de manière spécifique, maximisant ainsi les rendements tout en minimisant l'impact environnemental.


5. **Sélection de semences :** L'IA peut accélérer le processus de sélection des semences en analysant des données génétiques massives pour identifier les caractéristiques les plus prometteuses en termes de rendement, de résistance aux maladies et de qualité nutritive. Cela contribue à développer des cultures plus résilientes et adaptées aux conditions changeantes.


6. **Surveillance de la biodiversité :** L'IA peut être utilisée pour surveiller la biodiversité dans les zones agricoles, aidant à identifier les espèces menacées et à prendre des mesures pour les protéger. Cela contribue à promouvoir une agriculture plus durable et respectueuse de l'environnement.


7. **Réduction de l'empreinte carbone :** En optimisant les pratiques agricoles et en réduisant l'utilisation de ressources, l'IA peut contribuer à atténuer l'impact environnemental de l'agriculture. Cela peut inclure la gestion des émissions de gaz à effet de serre, la réduction des déplacements inutiles des équipements agricoles, et la promotion de méthodes plus respectueuses de l'environnement.


En conclusion, l'association entre l'agriculture et l'intelligence artificielle offre des perspectives passionnantes pour la création d'un système agricole plus durable, efficace et respectueux de l'environnement, contribuant ainsi à la préservation de la planète.


L'agriculture et l'intelligence artificielle forment un partenariat prometteur pour la planète, apportant des avantages significatifs tant sur le plan de la durabilité que de l'efficacité. 



L'optimisation de la production agricole grâce à l'intelligence artificielle repose sur la capacité de traiter d'énormes volumes de données provenant de diverses sources. Cette approche basée sur les données permet d'améliorer la gestion des cultures de manière précise et réactive. Voici comment cela fonctionne en détail :


1. **Collecte de données multi-sources :** Les systèmes d'intelligence artificielle agricole collectent des données à partir de multiples sources, telles que des capteurs sur le terrain, des satellites, des stations météorologiques, des drones, et des bases de données historiques. Ces données comprennent des informations sur le sol, la météo, les cultures précédentes, les maladies éventuelles, et bien d'autres paramètres.


2. **Analyse prédictive :** Une fois ces données collectées, les algorithmes d'apprentissage automatique et d'intelligence artificielle analysent les tendances, modèles et corrélations. Ces analyses prédictives permettent de comprendre comment les conditions météorologiques, la composition du sol et d'autres facteurs influencent la croissance des cultures.


3. **Prise de décision en temps réel :** L'un des avantages les plus importants de l'intelligence artificielle dans l'agriculture est sa capacité à fournir des informations en temps réel. Les agriculteurs peuvent accéder à des recommandations basées sur les données en temps réel, ce qui leur permet d'ajuster rapidement leurs pratiques de culture en fonction des conditions changeantes. Par exemple, si un épisode de pluie est prévu, l'IA peut suggérer de différer une opération de pulvérisation pour éviter le lessivage des produits chimiques.


4. **Optimisation des intrants :** Grâce à l'analyse des données, l'IA peut recommander des ajustements précis quant à l'utilisation d'intrants tels que l'eau, les engrais et les pesticides. Cela contribue à minimiser le gaspillage en appliquant ces ressources de manière plus efficiente, réduisant ainsi les coûts pour les agriculteurs et limitant l'impact environnemental.


5. **Gestion proactive des risques :** Les systèmes d'IA peuvent également anticiper les risques potentiels, tels que les maladies des plantes ou les ravageurs, en identifiant les signes avant-coureurs. Cela permet aux agriculteurs de prendre des mesures préventives plutôt que de réagir de manière réactive, contribuant ainsi à la santé globale des cultures.


6. **Adaptabilité aux changements climatiques :** Face aux défis posés par les changements climatiques, les systèmes d'IA offrent une flexibilité essentielle. Ils peuvent aider les agriculteurs à s'adapter rapidement aux variations météorologiques imprévues et aux changements climatiques à long terme, en les aidant à choisir les cultures les plus appropriées et à ajuster leurs pratiques agricoles en conséquence.


En résumé, l'optimisation de la production agricole grâce à l'intelligence artificielle repose sur une analyse approfondie des données pour informer et guider les décisions des agriculteurs. Cette approche favorise une agriculture plus efficiente, durable et résiliente, répondant ainsi aux défis actuels et futurs de la production alimentaire.


POC-P.AI: L'industrie agricole se tourne vers Technologies de l'IA. (uga-ia.blogspot.com)

https://uga-ia.blogspot.com/2023/12/lindustrie-agricole-se-tourne-vers.html


POC-P.AI: IA & Machine Learning quels bénéfices pour l’agriculture ? (uga-ia.blogspot.com)

https://uga-ia.blogspot.com/2023/12/ia-machine-learning-quels-benefices.html

--- 

Erol GIRAUDY 

https://about.me/giraudyerol

POC-PAI: Organiser un congrès sur l'intelligence artificielle (IA) (uga-ia.blogspot.com)

https://uga-ia.blogspot.com/2023/12/organiser-un-congres-sur-lintelligence.html?zx=a9a9ea7fde691dfc

Recherche simple "Giraudy Erol" : liste de notices | BnF Catalogue général

https://catalogue.bnf.fr/rechercher.do?motRecherche=Giraudy+Erol&critereRecherche=0&depart=0

YouTube

https://www.youtube.com/@EROLGIRAUDY

https://www.linkedin.com/in/erolgiraudy2018/?originalSubdomain=ad

En conclusion, l'association entre l'agriculture et l'intelligence artificielle offre des perspectives passionnantes pour la création d'un système agricole plus durable, efficace et respectueux de l'environnement, contribuant ainsi à la préservation de la planète.




samedi 25 novembre 2023

OpenAI INSIDER Drops BOMBSHELL "AGI Achieved"


OpenAI et Q.

Q*, un modèle dotés de capacités mathématiques avancées d'#OpenAI.

Une querelle interne sur les méthodes pour atteindre l'#AGI ?

Lire la petite synthèse en fin de cet article.

Plus tôt cette semaine, une source interne de l'entreprise nous a confirmé l'existence d'un projet visant à atteindre l'AGI au sein d'OpenAI. En réalité, la start-up aurait travaillé sur deux modèles d'IA adverses pour atteindre l'AGI : A-bit pour l'optimisation de l'utilité, et B-bit pour l'alignement avec les valeurs humaines. Ilya Sutskever, chef de la section scientifique chez OpenAI, était mécontent des progrès insuffisants sur le modèle B-bit (aligné sur les valeurs humaines) et l'aurait signalé à plusieurs reprises lors de la dernière réunion générale.
Le projet controversé, nommé "Q*" et jusqu'alors tenu secret, serait considéré par certains chez OpenAI comme une possible percée majeure vers l'"intelligence artificielle générale" (AGI), ont confirmé plusieurs sources à Reuters.
Grâce à des ressources informatiques conséquentes, ce nouveau modèle serait capable de résoudre certains problèmes mathématiques très complexes, suscitant un grand optimisme parmi les chercheurs quant à son potentiel futur. La lettre pointait également les capacités et les dangers potentiels de l'IA pour l'humanité, sans pour autant préciser la nature exacte des risques pour la sécurité. La conquête des mathématiques étant perçue comme une frontière clé du développement de l'IA générative, la capacité de Q* à résoudre certains problèmes mathématiques laisserait présager de futures capacités de raisonnement se rapprochant de l'intelligence humaine.
OpenAI a reconnu, dans une communication interne, l'existence du projet Q* et de la missive adressée au conseil avant l'éviction de Sam Altman.
Or, Ilya Sutskever également membre du board aurait voté pour l'éviction de Sam Altman à la tête de l'entreprise.
Officiellement, le conseil d'administration d'OpenAI s'inquiétait du manque de transparence de Sam Altman dans sa communication et ses plans à long terme.
Reste à voir si Sam Altman, revenu à la tête d'OpenAI, en dira plus sur le sujet.


Petite synthèse :

  1. OpenAI réalise une percée majeure dans l'AGI :Selon des sources anonymes, OpenAI aurait réalisé une avancée majeure dans l'intelligence artificielle générale (IAG). Cette percée a conduit au renvoi de Sam Altman, PDG d'OpenAI, qui avait fait allusion à une avancée technique récente lors du sommet des PDG. Des préoccupations ont été soulevées en interne concernant l'absence de mesures de protection pour la commercialisation de modèles d'IA avancés, en particulier un projet appelé "qar" ou Q.
  2. Elon Musk exprime des inquiétudes :Elon Musk, une figure importante dans le domaine de l'IA, a exprimé des inquiétudes quant à la percée de l'AGI par OpenAI, soulignant son impact potentiel sur l'humanité. Musk a partagé un article sur Twitter rapportant que les chercheurs d'OpenAI avaient averti le conseil d'une découverte puissante en matière d'IA.
  3. Projet Qar et Focalisation sur l'AGI :Les employés d'OpenAI pensaient que le projet qar pourrait être une percée dans la recherche de l'intelligence artificielle générale (IAG). OpenAI a recentré ses valeurs fondamentales sur l'AGI, s'engageant à construire une AGI sûre et bénéfique ayant un impact positif massif sur l'avenir de l'humanité.
  4. Évolutivité prévisible et GPT-4 :Le projet #GPT-4 d'OpenAI impliquait la construction d'une pile d'apprentissage profond avec une évolutivité prévisible, permettant la prédiction des capacités du modèle avant l'entraînement. Peter Welinder, ancien responsable de la recherche chez OpenAI, a souligné la capacité à prédire l'intelligence de GPT-4 avant l'entraînement comme un détail significatif.
  5. Réalisation de l'AGI en interne :Les déclarations d'un informateur d'OpenAI, Jimmy Apples, suggéraient que l'AGI avait été réalisée en interne par OpenAI en septembre 2023. Le PDG Sam Altman a ensuite confirmé la réalisation de l'AGI en interne, entraînant un changement de focalisation et de valeurs fondamentales d'OpenAI vers le développement de l'AGI.

  6. Open Ai's Q* (Q Star) Explained For Beginners - TheaiGrid

  7. •Le Q-learning est un type d'apprentissage par renforcement, qui est une méthode permettant d'apprendre aux ordinateurs à apprendre en les récompensant pour avoir pris de bonnes décisions et en les pénalisant parfois pour en avoir pris de mauvaises.

    • C'est comme dresser un animal de compagnie : si l'animal fait quelque chose de bien (comme s'asseoir sur commande), vous lui donnez une friandise ; si cela fait quelque chose de moins bon (comme mâcher vos chaussures), vous pourriez dire « non » ou l’ignorer.

    1. Environnement et agent : Dans Q-learning, vous disposez d'un "environnement" (comme un jeu vidéo ou un labyrinthe) et d'un "agent" (l'IA ou le programme informatique). qui doit apprendre à naviguer dans cet environnement.
    2. États et actions : l'environnement est composé de différents "états" (comme différentes positions ou scénarios dans un jeu), et l'agent a une variété d'"actions" peut prendre dans chaque état (comme se déplacer à gauche, à droite, sauter, etc.).
    3. La table Q : Le cœur du Q-learning est ce qu'on appelle une table Q. C'est comme un grand aide-mémoire qui indique à l'agent quelle action est la meilleure à entreprendre dans chaque état. Au début, ce tableau est rempli de suppositions car l'agent ne connaît pas encore l'environnement.
    4. Apprendre en faisant : L'agent commence à explorer l'environnement. Chaque fois qu’il entreprend une action dans un état, il reçoit un retour de l’environnement – ​​récompenses (points positifs) ou pénalités (points négatifs). Ces commentaires aident l'agent à mettre à jour la table Q, essentiellement en apprenant de l'expérience.
    5. Mise à jour de la table Q : La table Q est mise à jour à l'aide d'une formule qui prend en compte la récompense actuelle ainsi que les récompenses futures potentielles. De cette façon, l'agent apprend non seulement à maximiser les récompenses immédiates, mais aussi à considérer les conséquences à long terme de ses actions.
    6. L'objectif : Au fil du temps, avec suffisamment d'exploration et d'apprentissage, la table Q devient de plus en plus précise. L’agent devient meilleur dans sa capacité à prédire quelles actions produiront les récompenses les plus élevées dans différents états. Finalement, il peut naviguer dans l'environnement de manière très efficace.

    Pensez au Q-learning comme à un jeu vidéo complexe où, au fil du temps, vous apprenez les meilleurs mouvements et stratégies pour obtenir le meilleur score. Au début, vous ne connaissez peut-être pas les meilleures actions à entreprendre, mais à mesure que vous jouez de plus en plus, vous apprenez de vos expériences et vous vous améliorez dans le jeu. C’est ce que fait l’IA avec Q-learning : elle apprend de ses expériences pour prendre les meilleures décisions dans différents scénarios.

  8. Comparaison de « Gémeaux » et de Q*

    • Stratégie de prise de décision : les hypothétiques « Gémeaux » et Q* se concentreraient tous deux sur la prise des meilleures décisions possibles – « Gémeaux » en explorant différents chemins de conversation (recherche arborescente) et Q * grâce à l'apprentissage par renforcement et à l'adaptation.
    • Apprentissage et adaptation : Chaque système apprendrait de ses interactions. « Gémeaux » évaluerait différentes voies de réponse pour leur efficacité, tandis que Q* s'adapterait en fonction des récompenses et des commentaires.
    • Gestion de la complexité : Les deux approches devraient gérer la complexité et l'imprévisibilité du langage humain, ce qui nécessiterait des capacités avancées de compréhension et de génération.
------------------

Introduction à Q (Qstar) :*


La vidéo explore la percée Q* (Qstar) d'OpenAI, mettant l'accent sur son potentiel en tant que prochaine évolution dans les modèles linguistiques volumineux et l'intelligence artificielle.
Q* combine probablement des éléments de l'apprentissage Q, une technique d'apprentissage automatique utilisée dans l'apprentissage par renforcement, et de l'algorithme de recherche A*, en particulier issu de l'article de recherche AAR de 2019.
Simplification de l'apprentissage Q :

L'apprentissage Q est comparé à l'entraînement d'un robot super intelligent, où le 'Q' signifie la capacité de prendre des décisions et d'apprendre des expériences, similaire à la manière dont un joueur s'améliore dans un jeu vidéo au fil du temps.
La recherche AAR est expliquée comme une méthode pour trouver le chemin le plus court dans un labyrinthe, avec des applications en informatique et en intelligence artificielle pour résoudre divers problèmes.

Les six étapes de l'apprentissage Q :


L'apprentissage Q implique un agent dans un environnement, avec des états et des actions dictant les mouvements de l'agent.

La table Q agit comme une feuille de triche, guidant l'agent sur les meilleures actions pour chaque état.

L'apprentissage se produit lorsque l'agent explore l'environnement, reçoit des commentaires et met à jour la table Q en conséquence.

La table Q est continuellement mise à jour, en tenant compte à la fois des récompenses actuelles et futures potentielles, garantissant que les conséquences à long terme sont prises en compte dans la prise de décision.

Au fil du temps, avec l'exploration et l'apprentissage, la table Q devient plus précise, permettant à l'agent de naviguer efficacement dans l'environnement.

Comparaison avec les modèles linguistiques volumineux (LLMs) :


Q* est considéré comme une option future potentielle pour les grands modèles linguistiques en raison des limitations des LLMs.

Les LLMs présentent une dépendance aux données, nécessitant une quantité importante de données d'entraînement et ayant du mal à généraliser au-delà de leur ensemble d'entraînement.
Les LLMs ont des connaissances statiques et peuvent avoir du mal à comprendre des requêtes complexes ou spécifiques, ne pouvant pas mettre à jour leurs connaissances après l'entraînement.
Des problèmes de biais et d'équité peuvent survenir dans les LLMs en raison de données d'entraînement incomplètes ou biaisées.

Potentiel de Q et Comparaison avec les Modèles à Venir :*


Q* est présenté comme une solution pour surmonter les limitations des LLMs, offrant des processus de prise de décision plus efficaces et efficaces.

Une référence est faite à la sortie potentielle d'un modèle appelé Gemini, qui, s'il possède des capacités similaires à Q*, pourrait avoir un impact sur le domaine et être comparé à GPT-4.



P. Erol GIRAUDY


lundi 20 novembre 2023

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

 

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

La gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils.

Erol GiraudyNabil BabaciFrank PoireauEtienne LegendreKevin Trelohan , Pierre Erol Giraudy (Ed.)

Tome 2 sur 2 de cette collection :

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2 (bod.fr)


OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2 La gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils. - ebook (ePub) - Erol Giraudy, Frank Poireau, Nabil Babaci, Kevin Trelohan, Etienne Legendre - Achat ebook | fnac.


https://www.fnac.com/livre-numerique/a19091702/Erol-Giraudy-OpenAI-et-Microsoft-des-solutions-et-outils-pour-une-gouvernance-de-l-IA-par-des-experts-Tome-2?EbookPreviewDownloadStatus=5#FORMAT=ebook%20(ePub)


--- 
P. Erol GIRAUDY


OpenAI o3 va Révolutionner l'IA ! (Modèle AGI ?)

OpenAI o3 et o3 mini,  https://youtu.be/s6pt3EFs4oA?si=340WOckK7i6SDB9G OpenAI vient tout juste d'annoncer deux nouveaux...