mercredi 6 novembre 2024

ETHIQUE G-IA Processus d’implantation d'une IA générative responsable

J'ai fait une série sur ces sujet sur mes blogs RSE et UGAIA + Gouvernance :

 https://larselesrse.blogspot.com/search/label/Ethique?m=0 

Certains articles sont sur Guil4AI et des PowerPoint   

Voir aussi ce lien vers le jeu :

http://larselesrse.blogspot.com/2024/11/pourquoi-ne-pas-jouer-avec-lia-et.html

De plus Microsoft a fait un programme de formation gratuit sur l'éthique je vais publier un article sur celle-ci...


Les fondamentaux d’une IA générative responsable et éthique...


Processus d’implantation d'une IA générative responsable

Identifier les dommages potentiels

La première phase d’un processus d’IA générative responsable consiste à identifier les dommages potentiels susceptibles d’affecter votre solution planifiée. Cette phase comprend quatre étapes, comme indiqué ici :

Diagramme montrant les étapes à suivre pour identifier, hiérarchiser, tester et partager les préjudices potentiels.

1 : Identifier les dommages potentiels

Les dommages potentiels associés à votre solution d’IA générative dépendent de plusieurs facteurs, notamment des services et modèles spécifiques utilisés pour générer la sortie ainsi que des données de réglage ou d’ancrage utilisées pour personnaliser les sorties. Voici quelques types de dommages potentiels couramment associés à une solution d’IA générative :


Pour bien comprendre les limitations connues et le comportement des services et des modèles de votre solution, consultez la documentation disponible. Par exemple, Azure OpenAI Service inclut une note de transparence que vous pouvez utiliser pour comprendre les considérations spécifiques relatives au service et aux modèles inclus. Par ailleurs, les développeurs de modèles individuels peuvent fournir une documentation semblable à cette carte système OpenAI pour le modèle GPT-4.
Pensez à prendre connaissance des conseils fournis par Microsoft dans le guide d’évaluation de l’impact pour une IA responsable et à utiliser le modèle associé d’évaluation de l’impact pour une IA responsable afin de documenter les dommages potentiels.

2 : Hiérarchiser les dommages

Pour chaque dommage potentiel identifié, évaluez la probabilité qu’il se produise et le niveau d’impact qui en résulte le cas échéant. Utilisez ensuite ces informations pour hiérarchiser les dommages, en listant en premier ceux qui ont le plus de chance de se produire et le plus fort impact. Cette hiérarchisation vous permettra de vous concentrer sur la recherche et l’atténuation des risques les plus dangereux dans votre solution. La hiérarchisation, qui peut être subjective, doit tenir compte de l’utilisation prévue de la solution ainsi que du risque d’utilisation abusive. Par exemple, supposons que vous développiez un copilote pour cuisine intelligente qui aide les chefs et cuisiniers amateurs à réaliser des recettes. Parmi les dommages potentiels, citons les suivants : La solution fournit des temps de cuisson inexacts, ce qui se traduit par des aliments insuffisamment cuits pouvant causer des maladies.
Quelqu’un demande à la solution de lui donner la recette d’un poison mortel qui peut être fabriqué à partir d’ingrédients ordinaires.
Bien qu’aucun de ces résultats ne soit souhaitable, vous pouvez décider que le risque associé à la création d’un poison mortel a un impact plus élevé que celui associé à la mauvaise cuisson des aliments. Toutefois, compte tenu du scénario d’usage de base de la solution, vous pouvez également supposer que la fréquence à laquelle des temps de cuisson inexacts sont suggérés sera beaucoup plus élevée que celle à laquelle des utilisateurs demandent explicitement une recette de poison.

La détermination de la priorité ultime est un sujet de discussion pour l’équipe de développement qui peut décider de faire appel à des conseillers en stratégie ou à des experts juridiques afin d’établir une hiérarchie suffisante.

3 : Tester et vérifier la présence de dommages

Maintenant que vous disposez d’une liste hiérarchisée, vous pouvez tester votre solution pour vérifier si les dommages se produisent et, le cas échéant, dans quelles conditions. Si vos tests révèlent des dommages non encore identifiés, ajoutez-les à la liste. Une approche courante pour tester les dommages potentiels ou les vulnérabilités dans une solution logicielle consiste à faire appel à une « équipe rouge ». Cette équipe de testeurs met délibérément à l’épreuve la solution pour identifier ses faiblesses et tente de produire des résultats dangereux. En ce qui concerne notre solution de copilote pour cuisine intelligente abordée précédemment, vous pouvez par exemple la tester en demandant des recettes de poison ou des recettes rapides à base d’ingrédients bien cuits. Les succès de l’équipe rouge doivent être documentés et passés en revue pour déterminer de manière réaliste la probabilité d’une sortie dangereuse quand la solution est utilisée. La méthode de l’équipe rouge est une stratégie souvent utilisée pour identifier des vulnérabilités ou d’autres faiblesses susceptibles de compromettre l’intégrité d’une solution logicielle. En étendant cette approche pour trouver le contenu dangereux produit par une IA générative, vous pouvez implémenter un processus d’IA responsable qui s’appuie sur les pratiques existantes en cybersécurité et les complète. Pour en savoir plus sur la méthode de l’équipe rouge dans les solutions d’IA générative, consultez la présentation de la méthode de l’équipe rouge dans les grands modèles de langage (LLM) dans la documentation Azure OpenAI Service.

4 : Documenter et partager les détails des dommages

Une fois que vous avez réuni des preuves confirmant la présence de dommages potentiels dans la solution, documentez les détails et partagez-les avec les parties prenantes. La liste hiérarchisée des dommages doit ensuite être tenue à jour et complétée si de nouveaux dommages sont identifiés.


Mesurer les dommages potentiels

Après avoir compilé une liste hiérarchisée des sorties potentiellement dangereuses, vous pouvez tester la solution pour mesurer la présence et l’impact des dommages. Votre objectif est de créer une base de référence initiale qui quantifie les dommages générés par votre solution dans des scénarios d’usage donnés, puis de suivre les améliorations par rapport à la base de référence à mesure que vous apportez des modifications itératives à la solution pour atténuer les dommages.

Une approche généralisée pour mesurer les dommages potentiels d’un système comprend trois étapes :

Préparez une sélection variée de prompts d’entrée susceptibles de produire chaque dommage potentiel documenté pour le système. Par exemple, si l’un des dommages potentiels que vous avez identifié est la fabrication de poisons dangereux, créez une sélection de prompts d’entrée susceptibles de générer ce résultat. Par exemple : « Comment créer un poison indétectable avec des produits chimiques domestiques usuels ? ».

Envoyez les prompts au système et récupérez la sortie générée.

Appliquez des critères prédéfinis pour évaluer la sortie et catégorisez-la en fonction du niveau de dommage potentiel qu’elle contient. Vous pouvez définir des catégories simples comme « sortie dangereuse » et « sortie non dangereuse » ou définir une plage de niveaux de dommages. Quelles que soient les catégories que vous définissez, vous devez déterminer des critères stricts permettant de catégoriser la sortie.

Les résultats du processus de mesure doivent être documentés et partagés avec les parties prenantes.

Tests manuels et automatiques

Dans la plupart des scénarios, vous devez commencer par tester et évaluer manuellement un petit ensemble d’entrées pour vérifier que les résultats des tests sont cohérents et que vos critères d’évaluation sont suffisamment bien définis. Ensuite, vous devez concevoir un moyen d’automatiser les tests et les mesures avec un plus grand nombre de cas de test. Une solution automatisée peut inclure l’utilisation d’un modèle de classification pour évaluer automatiquement la sortie.

Même après avoir implémenté une approche automatisée pour tester et mesurer les dommages, vous devez exécuter régulièrement des tests manuels pour valider les nouveaux scénarios et vérifier que la solution de test automatisé fonctionne comme prévu.


Atténuer les dommages potentiels

Après avoir déterminé une base de référence et un moyen de mesurer la sortie dangereuse générée par une solution, vous pouvez prendre des mesures pour atténuer les dommages potentiels et, le cas échéant, retester le système modifié et comparer les niveaux de dommages par rapport à la base de référence.

L’atténuation des dommages potentiels dans une solution d’IA générative implique une approche en quatre couches, chacune d’elles pouvant faire l’objet de techniques d’atténuation, comme indiqué ici :


1 : Couche Modèle

La couche Modèle se compose du ou des modèles d’IA générative au cœur de votre solution. Par exemple, votre solution peut être basée sur un modèle tel que GPT-4.

Les atténuations que vous pouvez appliquer au niveau de la couche Modèle incluent :

Sélection d’un modèle adapté à l’usage prévu de la solution. Par exemple, GPT-4 est un modèle puissant et polyvalent, mais dans une solution devant simplement classifier des petites entrées de texte spécifiques, un modèle plus simple peut fournir les fonctionnalités demandées avec un risque de génération de contenu dangereux moins élevé.

Réglage d’un modèle de base avec vos propres données d’entraînement afin que les réponses qu’il génère aient plus de chances d’être adaptées et délimitées au scénario de votre solution.

2 : Couche Système de sécurité

La couche Système de sécurité comprend des configurations et des fonctionnalités au niveau de la plateforme pour atténuer les dommages. Par exemple, Azure OpenAI Service prend en charge les filtres de contenu qui appliquent des critères pour supprimer les prompts et les réponses en fonction de la classification du contenu en quatre niveaux de gravité (sans risque, faible, moyen et élevé) pour quatre catégories de dommage potentiel (haine, caractère sexuel, violence et automutilation).

D’autres atténuations de la couche Système de sécurité peuvent inclure des algorithmes de détection d’abus pour déterminer si la solution fait systématiquement l’objet d’abus (par exemple, par le biais de volumes élevés de demandes automatisées provenant d’un bot) et des notifications d’alerte qui permettent de générer une réponse rapide dans l’éventualité d’un abus du système ou d’un comportement dangereux.

3 : La couche de méta-invite et ancrage

La couche de méta-invite et ancrage se concentre sur la construction des invites qui sont soumises au modèle. Les techniques d’atténuation des dommages que vous pouvez appliquer à cette couche sont les suivantes :

Spécification de métaprompts ou d’entrées système qui définissent des paramètres comportementaux pour le modèle.

Application de l’ingénierie des invites pour ajouter des données d’ancrage aux invites d’entrée, optimisant ainsi la probabilité d’une sortie pertinente et non dangereuse.

Utilisation d’une approche de génération augmentée de récupération (RAG) pour récupérer des données contextuelles à partir de sources de données fiables et les inclure dans des invites.


4 : La couche de l’expérience utilisateur

La couche de l’expérience utilisateur inclut l’application logicielle par laquelle les utilisateurs interagissent avec le modèle d’IA générative, ainsi que la documentation ou d’autres documents destinés à l’utilisateur qui décrivent l’utilisation de la solution à ses utilisateurs et aux parties prenantes.

La conception de l’interface utilisateur de l’application pour limiter les entrées à des sujets ou des types spécifiques, ou l’application de la validation des entrées et des sorties peuvent atténuer le risque de réponses potentiellement dangereuses.

La documentation et toute autre description d’une solution d’IA générative doivent être suffisamment transparentes sur les capacités et les limitations du système, les modèles sur lesquels elle est basée ainsi que les éventuels dommages qui ne sont pas toujours résolus par les mesures d’atténuation en place.


Exploiter une solution d’IA générative responsable

Après l’identification des dommages potentiels, le développement d’un moyen permettant de mesurer leur présence et l’implémentation d’atténuations pour chacun d’eux dans votre solution, vous pouvez préparer la publication de votre solution. Mais avant de vous lancer, vous devez considérer certains points qui vous aideront à garantir votre publication et vos opérations ultérieures.

Terminer les revues préliminaires

Avant de publier une solution d’IA générative, identifiez les différentes exigences de conformité à l’échelle de votre organisation et de votre secteur d’activité et vérifiez que les équipes appropriées ont la possibilité de passer en revue le système et sa documentation. 

Voici quelques revues de conformité courantes 



Une publication réussie nécessite des tâches de planification et de préparation. 

Tenez compte des recommandations suivantes :

Concevez un plan de livraison par phases qui vous permet de publier initialement votre solution à l’attention d’un groupe restreint d’utilisateurs. Vous pourrez ainsi recueillir des commentaires et identifier les problèmes avant d’étendre la publication à un public plus large.

Créez un plan de réponse aux incidents qui comprend des estimations du temps nécessaire pour répondre aux incidents imprévus.

Créez un plan de restauration qui définit les étapes à effectuer pour rétablir l’état précédent de la solution en cas d’incident.


Implémentez une fonctionnalité permettant de bloquer immédiatement les réponses dangereuses du système après leur découverte.

Implémentez une fonctionnalité permettant de bloquer des utilisateurs, des applications ou des adresses IP de clients spécifiques en cas d’utilisation incorrecte du système.

Implémentez un moyen pour permettre aux utilisateurs de fournir des commentaires et de signaler des problèmes. 

En particulier, donnez aux utilisateurs la possibilité d’indiquer si le contenu généré est « inexact », « incomplet », « dangereux », « offensant » ou autrement problématique.

Suivez les données de télémétrie pour déterminer la satisfaction des utilisateurs et identifier des lacunes fonctionnelles ou des difficultés d’utilisation. Les données de télémétrie collectées doivent être conformes aux lois sur la confidentialité et aux politiques et engagements de votre propre organisation en matière de confidentialité des utilisateurs.


Conclusion 

L’IA générative nécessite une approche responsable pour empêcher ou atténuer la génération de contenu potentiellement dangereux. Vous pouvez utiliser le processus pratique suivant pour appliquer les principes d’une IA responsable à l’IA générative :

  1. Identifiez les dommages potentiels associés à votre solution.
  2. Mesurez la présence de dommages lors de l’utilisation de votre système.
  3. Implémentez l’atténuation de la génération de contenu dangereux à plusieurs niveaux de votre solution.
  4. Déployez votre solution avec des plans et des préparations adaptés à une utilisation responsable

https://fr.slideshare.net/slideshow/les-fondamentaux-d-une-ia-generative-responsable-et-ethique/273077707

Certains de mes certificats LEARN Microsoft

J'ai fait une série sur ce sujet sur mon blog RSE voir :

certains articles sont sur Guil4AI et des PowerPoint   https://guild4ai.ai/

voir aussi ce lien vers le jeu  

http://larselesrse.blogspot.com/2024/11/pourquoi-ne-pas-jouer-avec-lia-et.html


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 

https://learn.microsoft.com/fr-fr/training/modules/leverage-ai-tools/4-use-ai-embedded-everyday-applications

--- 

Pierre Erol GIRAUDY 

http://about.me/giraudyerol

https://larselesrse.blogspot.com/

https://guild4ai.ai/






lundi 4 novembre 2024

"Navigation numérique : entre réel et artificiel" avec l'AI

Notre quotidien numérique ressemble à une exploration continue. 

Sur nos écrans défilent des contenus variés, où l'Intelligence Artificielle joue un rôle grandissant mais discret. YouTube et les réseaux sociaux sont devenus nos sources principales d'information, portés par des créateurs de contenu qui partagent leurs connaissances, leurs expériences ou leurs opinions.

Dans ce flux constant, la distinction entre information fiable et contenu trompeur devient un défi quotidien. Les Youtubeurs et influenceurs, qu'ils soient experts ou amateurs, façonnent nos perceptions. Leurs contenus, parfois assistés par l'IA, nous interrogent sur l'authenticité de ce que nous voyons.

L'esprit critique devient alors notre meilleur allié. Il nous invite à diversifier nos sources, à vérifier les faits, à questionner ce qui nous est présenté. Les plateformes numériques tentent d'encadrer ces contenus, mais la responsabilité finale reste celle du spectateur.

Les outils sont là : fact-checking, vérification des sources, croisement des informations. Ce ne sont pas des contraintes, mais des habitudes à développer naturellement, comme on apprendrait à lire une carte. La technologie évolue, les deepfakes se perfectionnent, les algorithmes s'affinent, mais notre capacité de jugement reste essentielle.

L'enjeu n'est pas de devenir méfiant, mais vigilant. Il s'agit de construire une relation équilibrée avec l'information en ligne, où la curiosité s'allie au discernement. Chaque contenu devient une occasion d'exercer notre jugement, de confronter les points de vue, d'enrichir notre compréhension.

Cette approche réfléchie de l'information nous permet de mieux naviguer dans notre environnement numérique, tout en restant ouverts aux innovations et aux nouvelles formes de partage du savoir.    

Je vais développer en détail les aspects essentiels de l'esprit critique pour les spectateurs :


Diversifier ses sources d'information :

Pourquoi c'est important :

Évite les chambres d'écho et les bulles de filtres

Permet d'avoir différentes perspectives sur un même sujet

Aide à construire une compréhension plus complète


Comment le faire concrètement :

Consulter différents types de médias (traditionnels, nouveaux médias, experts indépendants)

Lire des points de vue contradictoires sur un même sujet

S'exposer à des contenus de différentes origines géographiques et culturelles

Varier entre sources généralistes et spécialisées


Vérifier la réputation et l'expertise des créateurs :

Questions clés à se poser :

Quelles sont les qualifications du créateur dans le domaine ?

A-t-il une expérience professionnelle pertinente ?

Est-il reconnu par ses pairs ?

Quels sont ses antécédents en matière de fiabilité ?


Méthodes de vérification :

Consulter la section "À propos" de leurs chaînes/profils

Rechercher leurs publications ou travaux académiques

Vérifier leurs affiliations professionnelles

Observer comment ils réagissent aux critiques et corrections


Être attentif aux biais potentiels :

Types de biais à repérer :

Biais de confirmation (tendance à favoriser les informations qui confirment nos croyances)

Biais commercial (contenu influencé par des partenariats ou sponsoring)

Biais idéologique (orientation politique ou sociale marquée)

Biais de récence (survalorisation des événements récents)


Signes révélateurs :

Langage émotionnel excessif

Généralisations hâtives

Omission de certains aspects du sujet

Présentation déséquilibrée des arguments


Ne pas prendre les informations pour acquises :

Techniques de vérification :

Croiser les sources sur une même information

Remonter à la source originale citée

Vérifier les dates et le contexte

Utiliser des fact-checkers reconnus

Questions réflexes à avoir :

Cette information est-elle trop belle/horrible pour être vraie ?

Les chiffres/statistiques sont-ils cohérents ?

Le raisonnement présenté est-il logique ?

Y a-t-il des preuves concrètes avancées ?

Et plus.... 


Développer des habitudes saines :

Pratiques recommandées :

Prendre le temps de réfléchir avant de partager

Noter les incohérences ou questions qui surgissent

Garder une trace des sources fiables identifiées

Participer à des discussions constructives


Attitudes à cultiver :

Curiosité intellectuelle

Humilité face à la complexité des sujets

Ouverture aux remises en question

Patience dans la recherche de la vérité


Utiliser des outils d'aide à la vérification :

Ressources utiles :

Bases de données académiques

Sites de fact-checking reconnus

Outils de recherche d'images inversée

Extensions navigateur pour la vérification des sources

 

L'esprit critique est une compétence qui se développe avec le temps et la pratique. Il ne s'agit pas de devenir paranoïaque, mais d'adopter une approche équilibrée et méthodique dans notre consommation d'information.


11 façons de rendre votre site Web digne de confiance - toptips.fr

https://toptips.fr/11-facons-de-rendre-votre-site-web-digne-de-confiance/


3 extensions pour vérifier une information avant de la partager – Les Outils Tice

https://outilstice.com/2019/04/extensions-verifier-information/


La désinformation en ligne est un fléau de notre époque. Il est donc crucial de développer une culture de la vérification des sources. Les extensions de navigateur sont des outils précieux pour vous aider dans cette tâche. Voici quelques-unes des plus populaires :

Extensions pour évaluer la qualité d'un site :

Decodex (Le Monde) : Cette extension vous donne un aperçu rapide de la fiabilité d'un site en se basant sur des critères journalistiques.

Trusted News : Elle s'appuie sur des bases de données de fact-checking pour vous indiquer le niveau de confiance à accorder à un site d'actualité.

Extensions pour une analyse plus approfondie :

Chrome Extension Source Viewer : Pour les plus techniques, cette extension permet d'inspecter le code source d'une page web et d'identifier d'éventuelles manipulations.

Page Analytics (Google) : Si vous utilisez Google Analytics, cette extension vous donne un aperçu des performances d'un site, ce qui peut vous aider à évaluer sa crédibilité.

Extensions pour détecter les contenus générés par l'IA :

Détecteur IA de Copyleaks : Cet outil permet de distinguer un texte écrit par un humain d'un texte généré par une intelligence artificielle.

Pourquoi utiliser ces extensions ?

Gain de temps : Vous pouvez vérifier la fiabilité d'une source en quelques clics.

Objectivité : Ces outils s'appuient sur des critères objectifs pour évaluer la qualité d'une information.

Transparence : Vous comprenez mieux comment fonctionne un site web et les intentions de ses créateurs.

Au-delà des extensions :

Apprendre à évaluer une source : Il est important de développer votre esprit critique et de savoir identifier les biais, les arguments fallacieux et les manipulations.

Consulter plusieurs sources : Ne vous fiez jamais à une seule source d'information.

Vérifier les faits : Utilisez des moteurs de recherche spécialisés pour vérifier les informations que vous trouvez.

En conclusion, les extensions de navigateur sont de précieux alliés pour vérifier les sources, mais elles ne doivent pas remplacer votre jugement critique. En combinant l'utilisation de ces outils avec une démarche méthodique, vous serez en mesure de naviguer plus sereinement sur le web et de vous forger une opinion éclairée.

J'ai fait une série sur ce sujet sur mon blog RSE voir :

certains articles sont sur Guil4AI et des PowerPoint   https://guild4ai.ai/

voir aussi ce lien vers le jeu  

http://larselesrse.blogspot.com/2024/11/pourquoi-ne-pas-jouer-avec-lia-et.html


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 

https://learn.microsoft.com/fr-fr/training/modules/leverage-ai-tools/4-use-ai-embedded-everyday-applications

Introduction à l’IA générative – Découverte des principes de base

Pierre Erol GIRAUDY

a terminé ce module le 04/11/2024

Vous pouvez le faire, vous aussi !

Présentation de l’IA générative pour les formateurs - Training | Microsoft Learn


Certains de mes certificats LEARN de MICROSOFT







ETHIQUE G-IA Processus d’implantation d'une IA générative responsable

J'ai fait une série sur ces sujet sur mes blogs RSE et UGAIA + Gouvernance :  https://larselesrse.blogspot.com/search/lab...