Affichage des articles dont le libellé est LLM. Afficher tous les articles
Affichage des articles dont le libellé est LLM. Afficher tous les articles

mardi 9 juillet 2024

Analyse du document "AI Language Model Comparison Cheatsheet" avec l'IA

Analyse du document "AI Language Model Comparison Cheatsheet" avec l'IA CLAUDE :

Je dois préciser que je suis parti d'un document au format PDF, l'IA CLAUDE m'a fourni ces résultats à la suite à d'un prompte, voici le document en question :

SCAN+OCR.

Et le prompte :  ceci implique le scan du document et son OCR, c'est fait automatiquement par l'IA.

Voici AI Language Model Comparison Cheatsheet, m'analyser ce document m'en faire un résumer, et me comparer les solutions entre elles, puis faire un graphique de type histogramme et finalement réaliser un résumer avec des commentaires sur les choix possibles, le tout en français.
Me faire une analyse plus technique et la commenter avec des arguments comparatifs entre ces usages de ces solutions.

Résumé du document traduit en français : 

Ce document compare différents grands modèles de langage (LLM) d'IA, notamment GPT-4, Claude 3 Opus, Gemini Pro, Mistral Large, Falcon LLM, 70B LLaMA 3, ERNIE 3.0 Titan et Grok-1. Il fournit des informations sur leur classement Elo, la taille de leur fenêtre contextuelle, leur date de sortie, leur niveau de censure, les interfaces disponibles, leur facilité d'utilisation, leurs cas d'usage recommandés et leur prix.

CLAUDE 3.5 OPUS en mode projet.

CLAUDE 3.5 OPUS en mode projet.


Histogramme, voir le code en fin de cette page.

https://claude.site/artifacts/5d38b952-c144-42c6-ade1-5b10050ffcba

Code de l'histogramme fourni par CLAUDE.

Rendu du rapport dans l'IA CLAUDE, il est ci-après :

Comparaison des solutions :

• GPT-4 et Claude 3 Opus ont les meilleurs classements Elo (1252 et 1255) et des fenêtres contextuelles de taille moyenne. Ils sont modérément censurés et coûtent 20$.

• Gemini Pro a un bon classement (1204), une grande fenêtre contextuelle et est intégré à Google. Il coûte également 20$.

• ERNIE 3.0 Titan est très prometteur avec un classement de 1220 mais a une forte censure.

• 70B LLaMA 3 a un bon rapport efficacité/taille avec un classement de 1210 pour seulement 8 pages de contexte. Il est open source et gratuit.

• Mistral Large et Falcon LLM sont plus basiques, avec des classements de 1157 et 1028. Ils sont gratuits et adaptés à des usages légers.

• Grok-1 est amusant pour des réponses humoristiques et des tweets, à prix abordable (8$).

Histogramme comparant les modèles de langage d'IA :


Résumé et commentaires : 

GPT-4 et Claude 3 Opus semblent être les choix les plus performants et polyvalents, si le budget le permet. Gemini Pro est aussi une excellente option, surtout pour une intégration avec les outils Google.

Pour une utilisation open source gratuite, 70B LLaMA 3 offre un excellent compromis performance/coût. ERNIE 3.0 Titan est très prometteur mais sa forte censure peut être un frein.

Pour des besoins plus légers ou ludiques, Mistral Large, Falcon LLM et Grok-1 peuvent convenir, avec l'avantage d'être gratuits ou peu chers.

Le choix final dépendra des besoins spécifiques (tâches, budget, intégrations nécessaires, contraintes éthiques) de chaque utilisateur. Mais ce comparatif permet d'y voir plus clair parmi les nombreuses solutions de LLM disponibles et d'orienter la décision.

------------------- 

Voici une analyse plus technique des différents modèles de langage présentés, avec des arguments comparatifs sur leurs usages :

Performance et taille des modèles :

GPT-4 et Claude 3 Opus ont les meilleures performances (Elo de 1252 et 1255) avec une taille raisonnable (24-150 pages de contexte). Ils sont adaptés à des tâches générales exigeantes.

ERNIE 3.0 Titan et Gemini Pro suivent de près (Elo 1220 et 1204), Gemini Pro ayant une fenêtre de contexte plus large (750 pages), ce qui le rend intéressant pour traiter de longs documents.

LLaMA 3 a un excellent ratio performance/taille (Elo 1210 pour seulement 8 pages de contexte), ce qui en fait un choix efficace pour de l'inférence rapide.

Spécialisations et intégrations :

• Claude 3 se distingue pour la rédaction créative et le traitement de longs fichiers. Son API permet une intégration facile.

• Gemini Pro, avec son intégration native à Google, est idéal pour une utilisation dans cet écosystème. Ses capacités de résumé en font un bon outil pour synthétiser l'information.

• Mistral Large propose des réponses sur mesure et modérées, utile pour des applications contrôlées.

• Grok-1 est orienté vers la génération de contenu amusant et de tweets, une niche intéressante.

Considérations éthiques :

La plupart des modèles ont une modération "Moderate", ce qui permet de les utiliser dans de nombreux cas.

Cependant, ERNIE 3.0 a une censure élevée ("High"), ce qui peut limiter son usage pour certaines applications nécessitant de la liberté d'expression.

À l'inverse, le niveau "Low" de Mistral, LLaMA 3 et Grok-1 les rend moins adaptés pour du contenu public non filtré.

Accessibilité et coût :

1. LLaMA 3 et Falcon LLM sont open source et gratuits, un avantage pour la recherche et les projets à faible budget.

2. GPT-4, Claude 3 et Gemini Pro ont un coût modéré (20$) qui reste abordable pour un usage professionnel, au vu de leurs performances.

3. Mistral Large et Falcon LLM, bien que limités, ont l'avantage d'être gratuits pour des tests et usages basiques.

4. Grok-1 est économique (8$) pour son usage spécialisé en contenu humoristique.

En résumé, le choix d'un modèle dépendra des priorités :

• Pour la performance pure : GPT-4, Claude 3, ERNIE 3.0

• Pour traiter de longs documents : Gemini Pro, Claude 3

• Pour une intégration Google : Gemini Pro

• Pour une inférence économe en ressources : LLaMA 3

• Pour des usages spécifiques : Mistral Large (modération), Grok-1 (humour)

• Pour de l'open source gratuit : LLaMA 3, Falcon LLM

Une combinaison de plusieurs modèles, en fonction des tâches, peut être optimale. Par exemple :

1. GPT-4/Claude 3 pour les tâches critiques nécessitant une haute performance

2. Gemini Pro pour le traitement de longs documents dans l'écosystème Google

3. LLaMA 3 pour une inférence rapide et peu coûteuse

4. Grok-1 pour générer du contenu engageant sur les réseaux sociaux

Cette approche permet de tirer parti des forces de chaque modèle de manière complémentaire.

Histogramme comparant le coût d'utilisation des modèles de langage d'IA :

Le graphique montre que :

• GPT-4, Claude 3 et Gemini Pro ont le coût d'utilisation le plus élevé à 20$. Cela reflète leurs performances de pointe et leurs larges capacités.

• Grok-1 a un coût intermédiaire de 8$. C'est un bon rapport qualité-prix pour son usage spécialisé en génération de contenu humoristique et de tweets.

• Mistral Large, Falcon LLM, LLaMA 3 et ERNIE 3.0 ont un coût d'utilisation nul (gratuit). C'est un avantage significatif pour les projets à faible budget, la recherche académique et l'expérimentation. 

○ Parmi ces modèles gratuits, LLaMA 3 se distingue par son excellent ratio performance/coût. Son faible coût d'inférence le rend très intéressant pour un déploiement à grande échelle.

○ Mistral Large et Falcon LLM, bien que plus limités en performance, permettent de tester et prototyper gratuitement des applications basées sur les modèles de langage.

En termes de rapport performance/coût :

• LLaMA 3 est le gagnant incontesté, offrant d'excellentes performances gratuitement.

• GPT-4, Claude 3 et Gemini Pro offrent les meilleures performances absolues, à un coût raisonnable pour un usage professionnel.

• Grok-1 est un bon compromis pour sa spécialisation.


Voici une synthèse du document "AI Language Model Comparison Cheatsheet" avec une analyse comparative des différents modèles de langage, un histogramme et des recommandations sur les choix possibles.

Résumé du document :

La fiche de comparaison présente les caractéristiques clés de 8 grands modèles de langage d'IA : GPT-4, Claude 3, Gemini Pro, Mistral Large, Falcon LLM, LLaMA 3, ERNIE 3.0 et Grok-1. Elle inclut leur classement Elo, la taille de leur fenêtre contextuelle, leur date de sortie, leur niveau de censure, les interfaces disponibles, leur facilité d'utilisation, leurs meilleurs usages et leur prix.

Comparaison des modèles :

- Performance : GPT-4 et Claude 3 ont les meilleurs scores Elo (1252 et 1255), suivis de près par ERNIE 3.0 (1220) et Gemini Pro (1204). LLaMA 3 a un excellent ratio performance/taille (1210 pour 8 pages de contexte).

- Fenêtre contextuelle : Gemini Pro et Claude 3 gèrent de longs contextes (750 pages), idéal pour traiter des documents complets. Les autres ont des fenêtres plus réduites (7.5 à 150 pages).

- Spécialisations : Claude 3 excelle en rédaction créative, Gemini Pro en intégration Google et synthèse, Mistral Large en réponses modérées, Grok-1 en contenu humoristique.

- Facilité d'utilisation : La plupart sont notés "Moderate", sauf Mistral Large, LLaMA 3 et Grok-1 qui sont "Low" (plus techniques).

- Prix : GPT-4, Claude 3 et Gemini Pro coûtent 20$. Grok-1 est à 8$. Les autres sont gratuits, dont LLaMA 3 et Falcon LLM qui sont open source.

Résumé et recommandations :

Pour des usages généraux exigeants, GPT-4 et Claude 3 sont les meilleurs choix si le budget le permet. LLaMA 3 offre un excellent compromis performance/coût en open source.

Pour traiter de longs documents, Gemini Pro et Claude 3 sont idéaux, Gemini Pro brillant aussi pour l'intégration Google et la synthèse d'information.

Pour des cas d'usage spécifiques, Mistral Large convient aux réponses modérées, Grok-1 au contenu humoristique et réseaux sociaux.

Les modèles gratuits (LLaMA 3, Falcon LLM) sont parfaits pour tester, prototyper et déployer à grande échelle. ERNIE 3.0 est prometteur mais sa forte censure peut être limitante.

En pratique, combiner plusieurs modèles est souvent optimal : les plus performants pour les tâches critiques, les gratuits pour le prétraitement et les usages secondaires. Le choix dépendra des besoins précis (performance, budget, spécialisations, déploiement, éthique).

Cette analyse comparative permet de s'y retrouver dans la jungle des grands modèles de langage et de choisir la meilleure stack en fonction de ses priorités projet et métier. N'hésitez pas à expérimenter pour trouver la combinaison qui vous conviendra le mieux !


Sources :

Google Gemini: A Comprehensive Benchmark Comparison with GPT-3.5, Mistral, and Llama – AI StartUps Product Information, Reviews, Latest Updates (cheatsheet.md)



LLM Leaderboard - Compare GPT-4o, Llama 3, Mistral, Gemini & other models | Artificial Analysis


LLM Leaderboard - Compare GPT-4o, Llama 3, Mistral, Gemini & other models | Artificial Analysis


Blog - AI Heroes


LAB GENEALOGIE - Public - www.erolgiraudy.eu/ 

P. Erol GIRAUDY sur la Généalogie de mes familles Giraudy et Ottomane de Turquie et du Comté de Nice.



Code histogramme :

<svg viewBox="0 0 800 600" xmlns="http://www.w3.org/2000/svg">
  <g transform="translate(100,550)">
    <g class="x axis" transform="translate(0,0)">
      <line x1="0" y1="0" x2="700" y2="0" stroke="black"/>
      <g transform="translate(30, 20)"><text>GPT-4</text></g>
      <g transform="translate(110, 20)"><text>Claude 3</text></g>
      <g transform="translate(200, 20)"><text>Gemini Pro</text></g>
      <g transform="translate(310, 20)"><text>Mistral Large</text></g>
      <g transform="translate(420, 20)"><text>Falcon LLM</text></g>  
      <g transform="translate(510, 20)"><text>LLaMA 3</text></g>
      <g transform="translate(600, 20)"><text>ERNIE 3.0</text></g>
      <g transform="translate(690, 20)"><text>Grok-1</text></g>
    </g>
    <g class="y axis">
      <line x1="0" y1="0" x2="0" y2="-400" stroke="black"/>
      <g transform="translate(-40, -40)"><text>1000</text></g>
      <g transform="translate(-40, -140)"><text>1100</text></g>
      <g transform="translate(-40, -240)"><text>1200</text></g>  
      <g transform="translate(-40, -340)"><text>1300</text></g>
    </g>
    <g fill="steelblue">
      <rect x="20" width="60" y="-252" height="252" />
      <rect x="100" width="60" y="-255" height="255" />  
      <rect x="180" width="60" y="-204" height="204" />
      <rect x="260" width="60" y="-157" height="157" />
      <rect x="340" width="60" y="-28" height="28" /> 
      <rect x="420" width="60" y="-210" height="210" />
      <rect x="500" width="60" y="-220" height="220" />
      <rect x="580" width="60" y="-235" height="235" /> 
    </g>
  </g>
</svg>


PIERRE EROL GIRAUDY 









mardi 3 octobre 2023

Découvrez comment fonctionne Microsoft 365 Copilot

 Découvrez comment fonctionne Microsoft 365 Copilot.

À la base, #Microsoft 365 #Copilot n'est pas simplement une fonctionnalité parmi d'autres : c'est un partenaire intelligent qui va vous accompagne tout au long de vos interactions avec Microsoft 36. 

Que ce soit dans Outlook, PowerPoint, Word, Excel, #Teams ou d'autres applications, tel que Loop ou Create l'objectif de Copilot est de vous faire gagner du temps en générant du nouveau contenu, en proposant des suggestions pertinentes et en rendant vos processus plus efficaces. 

Cela va plus loin avec Bing - DALL·E : 

https://www.bing.com/images/create/contentpolicy?FORM=GEN2CP 

Dall-E 3 à l'essai : un bond en avant pour la génération d'image par IA

https://www.journaldunet.com/solutions/dsi/1525297-dall-e-3-a-l-essai-un-bond-en-avant-pour-la-generation-d-image-par-ia/#utm_source=MagNews&utm_medium=email&utm_campaign=IA_03/10/2023&een=28542770d29481216ac3f1e3058c012c&seen=2&gbmlus=2281f7dcc53d22103572ef9a5b5ff3dbbe23f40eae749ea752ad3ac528e4130d

Copilot R2. (Solution payante pour Word).
R2 ;-) que la force soit avec vous.

Comprendre le contexte et les besoins des utilisateurs.

L'efficacité de Copilot découle de sa capacité inégalée à vous comprendre. 

Il y parvient en :

Analyse du contenu : qu'il s'agisse du document que vous rédigez, de l'e-mail que vous rédigez ou de la réunion à laquelle vous participez, Copilot examine le sujet, le ton, la structure et la sémantique pour déterminer votre intention et votre signification.

Obtenir des informations personnelles : les informations de votre profil, vos modèles de communication et votre historique d'activités aident Copilot à comprendre vos intérêts, votre expertise et vos préférences.

Surveillance en temps réel : pendant que vous travaillez, Copilot observe en permanence pour évaluer vos besoins immédiats et discerner la meilleure façon de vous aider.

Fournir des suggestions intelligentes.

Grâce à une compréhension approfondie de votre contexte, Copilot ne se limite pas aux simples observations. Il prend des mesures :

Recherche et récupération : en utilisant de puissantes capacités de recherche, Copilot identifie les sources de données et de contenu utiles qui peuvent vous aider.

Phrase naturelle avec LLM : alimenté par de grands modèles de langage, Copilot élabore des recommandations formulées naturellement, garantissant que tout contenu qu'il génère ou suggère correspond à votre situation unique.

Affiner les recommandations : il ne s'agit pas de quantité, mais de qualité. Copilot évalue les suggestions potentielles et les affine pour garantir que ce que vous obtenez est contextuellement pertinent et spécifique.

Apprendre et évoluer.

L’une des caractéristiques marquantes de Copilot est sa capacité à apprendre et à évoluer :

Améliorations basées sur les commentaires : vos interactions avec Copilot sont essentielles. Lorsque vous acceptez ou refusez ses suggestions, il utilise l’apprentissage par renforcement pour affiner les recommandations futures.

Mises à jour continues : à mesure que Microsoft 365 évolue, Copilot évolue également. Des mises à jour régulières du cloud associées à de nouvelles fonctionnalités et données garantissent que Copilot devient de jour en jour plus intelligent, toujours prêt à mieux vous servir.

Étape par étape : flux de traitement de Copilot.

Le diagramme suivant fournit une représentation visuelle du fonctionnement de Microsoft 365 Copilot.

Copilot diagramme


Ce diagramme montrant une représentation visuelle du fonctionnement de Microsoft 365 Copilot. Inclus les étapes suivantes résument le fonctionnement de Microsoft 365 Copilot, en commençant par l’invite utilisateur et en terminant par la réponse Copilot :

Un utilisateur fournit une contribution ou pose une question dans une application, comme Word ou PowerPoint.

Copilot prépare cette entrée en utilisant une méthode connue sous le nom de « mise à la terre ». Cela garantit que les réponses ne sont pas générales, mais spécifiques et pertinentes par rapport à votre tâche. Au cours de cette phase, Copilot consulte Microsoft Graph pour collecter les données associées de votre organisation. Il est important de noter qu’il accède uniquement aux données que l’utilisateur est déjà autorisé à voir en fonction de son rôle et de ses autorisations dans Microsoft 365.

Cette étape de collecte de données est appelée « génération augmentée par récupération ». C'est ainsi que Copilot combine les données de l'utilisateur avec d'autres sources pertinentes, comme les articles de la base de connaissances, pour affiner la question et obtenir une réponse plus précise.

Grâce à la saisie améliorée, Copilot consulte le Large Language Model (#LLM) pour générer une première réponse.

Avant de renvoyer cette réponse, Copilot l'affine davantage. Cela implique davantage de contrôles par rapport à Microsoft Graph, des évaluations des pratiques responsables en matière d'IA, des évaluations de sécurité, des contrôles de conformité et même la conversion de la réponse en commandes exploitables.

Enfin, Copilot propose à l'utilisateur une suggestion bien formée et pertinente, ainsi que toutes les commandes exploitables. Cela signifie que les résultats que vous voyez sont étroitement liés aux données spécifiques de votre organisation, garantissant ainsi leur pertinence et leur contexte.

Grands modèles de langage.

Les grands modèles linguistiques (LLM) représentent une classe de modèles d'intelligence artificielle spécialisés dans la compréhension et la génération de textes de type humain. 

Le « grand » dans LLM signifie à la fois la taille des modèles en termes de nombre de paramètres qu'ils englobent et le vaste volume de données sur lesquelles ils sont formés.

Les LLM, y compris des modèles comme ChatGPT, sont un type d'IA générative. 

Ce sont des modèles qui peuvent créer un nouveau contenu basé sur des modèles tirés de leurs données de formation. Au lieu de simplement prédire ou classer, l’IA générative, comme les LLM, peut produire un contenu entièrement nouveau. Lorsqu'ils sont appliqués au texte, les LLM peuvent générer des réponses contextuellement pertinentes et syntaxiquement correctes en fonction des invites fournies.

Dans le contexte de Microsoft 365 Copilot, les LLM sont le moteur qui pilote les capacités de l'IA. Copilot utilise ces modèles, hébergés en privé par le service Azure OpenAI, pour comprendre les entrées des utilisateurs et générer des réponses pertinentes. 

Il est important de noter que chaque instance LLM utilisée par Copilot est privée pour le locataire qu'elle dessert et n'est partagée avec aucun autre locataire. 

Cela signifie que vos données restent isolées et que l'instance LLM privée n'est utilisée pour former aucun autre LLM en dehors de votre locataire spécifique.

Grâce à l'application minutieuse de ces modèles, Copilot vous aide à naviguer plus efficacement dans votre travail, tout en garantissant la confidentialité et l'intégrité des données.

Traitement du langage naturel.

Le traitement du langage naturel, ou PNL, est une technologie d'IA essentielle qui aide les machines à comprendre, interpréter et répondre au langage humain de manière significative. 

Essentiellement, la PNL est la technologie derrière la capacité de Copilot à lire, comprendre et générer du texte de la même manière que le feraient les humains. Certains des composants impliqués sont :

Tokenisation : simplifie les paragraphes complexes en décomposant le texte en morceaux plus petits, comme des mots ou des phrases.

Analyse sémantique : aide Copilot à comprendre la signification ou le contexte sous-jacent.

Analyse des sentiments : évaluez l'ambiance ou l'émotion derrière un texte, Copilot peut comprendre plus précisément l'intention de l'utilisateur.

Traduction linguistique : facilite les tâches multilingues, permettant à Copilot d'assister les utilisateurs dans différentes langues.

Pour Copilot, la PNL fait partie intégrante car elle comble le fossé entre le langage humain et la compréhension automatique. C'est cette technologie qui garantit que lorsque vous demandez quelque chose à Copilot, il comprend et répond efficacement.

Index sémantique pour Copilot.

L'index sémantique pour Copilot construit une carte complexe de vos données personnelles et d'entreprise, établissant des connexions importantes et identifiant des relations significatives, un peu comme le fonctionnement interne du cerveau humain. Il dépasse les limites de la recherche par mot-clé en interprétant et en codant les relations conceptuelles entre les éléments de données. En analysant vos données Microsoft Graph (e-mails, documents, calendriers, chats, etc.) et en travaillant en synergie avec les LLM, il fournit des réponses personnalisées, pertinentes et exploitables. Explorez la vidéo ci-dessous pour comprendre comment l'index sémantique prépare Microsoft 365 Copilot et votre organisation à être prêts pour l'IA.

https://www.youtube.com/watch?v=KtsVRCsdvoU&t=1s


Microsoft Graph

Microsoft Graph est essentiellement le tissu conjonctif qui relie tous vos services et données Microsoft 365. Il s'agit d'un point de terminaison d'API unifié qui permet d'accéder aux données et aux renseignements au sein de Microsoft 365. Cela inclut les données de services tels qu'Outlook, OneDrive, SharePoint, Teams, etc.

Copilot applique Microsoft Graph et l'index sémantique pour synthétiser et rechercher du contenu à partir de plusieurs sources au sein de votre locataire. Cela signifie que vous n'avez pas besoin de vous éloigner ou de changer d'application : Copilot vous apporte les informations pertinentes.

Copilot prend au sérieux les autorisations des utilisateurs, la sécurité des données et la conformité. Il génère uniquement des réponses basées sur les informations auxquelles vous êtes autorisé à accéder. Il y parvient grâce à Microsoft Graph, un cadre robuste pour un accès sécurisé aux données. Vous pouvez donc être assuré que les puissantes capacités de Copilot s'alignent toujours sur les politiques de sécurité et de confidentialité de votre entreprise.

Microsoft Graph fait bien plus que simplement simplifier l’accessibilité des données. Il permet à Copilot de fournir une assistance contextuelle et sécurisée directement dans votre espace de travail numérique. Il s'agit d'améliorer votre productivité tout en préservant la sécurité de vos données.

Diagramme qui montre une présentation des connexions dans Microsoft Graph.


Applications Microsoft 365

Des applications telles que Word, #Excel, #PowerPoint, Outlook, #Teams et #Loop fonctionnent avec Copilot pour accompagner les utilisateurs dans le cadre de leur travail. Par exemple, Copilot dans Word assiste spécifiquement les utilisateurs dans le processus de création, de compréhension et d'édition de documents. De la même manière, Copilot dans les autres applications aide les utilisateurs dans le cadre de leur travail au sein de ces applications.


Copilot Windows 11 Insider.

Discussion Microsoft 365

Le chat permet aux utilisateurs de Copilot d'utiliser l'intelligence inter-applications. L'interface de chat conversationnel permet à Copilot de comprendre l'intention de l'utilisateur et de fournir un dialogue continu. Le format de chat améliore le contexte. 

Cette fonctionnalité offre aux utilisateurs un moyen plus simple de travailler avec plusieurs applications. Les utilisateurs accèdent à l'intelligence inter-applications par chat de la même manière qu'ils interagiraient à l'aide d'invites ouvertes avec ChatGPT ou Bing Chat. 

Ces invites accèdent non seulement aux données de formation de base du Large Language Model (LLM), mais également aux données professionnelles et aux applications des utilisateurs. Ce faisant, Chat fait apparaître les informations et les insights dont les utilisateurs ont besoin à partir des données de leur organisation. 

Les invites fonctionnent avec Copilot dans une gamme d'expériences, notamment Teams (chat), Bing, Microsoft Edge et l'application Microsoft 365.


L'art et la science du travail avec l'IA 

Nous entrons dans une nouvelle ère de productivité basée sur l’IA. Voici ce que les dirigeants d’entreprise doivent savoir pour préparer leur organisation et leurs collaborateurs.

https://www.microsoft.com/en-us/worklab/the-art-and-science-of-working-with-ai

https://blogs.microsoft.com/blog/2023/10/03/unlocking-global-government-innovation-with-microsoft-cloud-for-sovereignty-public-preview-available-today/





Notre livre.

Nabil BABACI - P. Erol GIRAUDY - Etienne LEGENDRE - Frank POIREAU - Kévin TRÉLOHAN - Nils HAMEL.



P. Erol GIRAUDY est membre de Microsoft Windows Insider et O365, Edge et Bing.
Il est aussi consultant en veille technologique, et membre fondateur du club UGAIA en Andorre, et il est membre du club AIDAUG aux USA, qui est un groupe mondial d'utilisateurs de l'intelligence artificielle. 
C'est un ex-MVP SharePoint et auteurs de plusieurs livres dont 3 sur ChatGPT. https://www.ugaia.eu.

 
Etienne LEGENDRE Après quelques années passées chez Microsoft France, Etienne Legendre s'est lancé en Auvergne Rhône-Alpes dans une carrière de consultant-formateur indépendant, en soutien des partenaires Microsoft de la région pour les épauler en formation et en consulting sur les projets de gestion de la connaissance et la promotion des produits Microsoft avec un axe important sur les produits et technologies SharePoint et Microsoft 365. Etienne a été MVP SharePoint Server entre 2004 et 2017.  
Cette distinction lui permettant une meilleure qualité de service car proche de l'éditeur et de ses roadmaps produits.  

Il est actuellement MVP ALUMNI. Le tout en préservant un peu de temps pour une autre activité professionnelle bien différente. 
 
Nabil BABACI est avant-tout un passionné de technologies. Il a été auteur, conférencier, ancien MVP SharePoint, Consultant et Entrepreneur sur des domaines d’innovation allant des Smart Cities au développement de plateformes Big Data, Cloud, IOT et AI pour des consortiums Européens. Il occupe actuellement un rôle stratégique chez Hewlett-Packard Enterprise en qualité de Regional Category Manager pour la région Central Europe. 
 
Passionné des produits et services Microsoft depuis toujours, Kévin TRÉLOHAN créé son entreprise Modernize en 2020, après un parcours au sein d'entreprises du secteur numérique pour des clients grand comptes.  
Fort d'une expérience de plus de 20 ans sur les produits Microsoft, et dans l'IT en général, il obtient son statut MVP en juillet 2012.  
L'entreprise Modernize se spécialise sur l'offre Microsoft 365, et plus particulièrement sur Microsoft Teams, SharePoint et Outlook. Son expertise est reconnue et appréciée. 
 
Frank POIREAU Manager de l’offre Microsoft 365 Practices chez HumanTech Partners Luxembourg. Microsoft Modern WorkPlace et MVP. Mon rôle : faire faire des économies à mes clients en privilégiant l'adoption, en construisant avec eux des solutions fonctionnelles via les paramétrages avancés avant d'envisager des développements complémentaires sur SharePoint, Power Platform, Teams… J'interviens au Luxembourg, en France, en Belgique (dans toute la francophonie !) Auteurs de plusieurs livres sur SharePoint et Teams. Formateur, coach, consultant en conduite du changement et en gouvernance. 

Le tome 1




Erol GIRAUDY

www.ugaia.eu




mardi 22 août 2023

Microsoft Learn Azure OpenAI Skills Meetup trois présentations LLM


Dans le cadre du #Microsoft Learn AI Skills Challenge, nous vous proposons trois présentations mettant en pratique le service Azure OpenAI et les Large Language Models (LLM) de l'#IA générative. 1) "Utiliser de Prompt Flow pour développer graphiquement des applications intégrant un #LLM" par Sulan LIU et Paul PETON (AVANADE) 2) "Introduction à Semantic Kernel : comment tirer parti d'(Azure) OpenAI et aller plus loin dans vos use-cases en le combinant avec d'autres outils "par Nicolas ROBERT (CELLENZA) 3) "LLaMA 2 : un aperçu du modèle et une démonstration" par Alibek JAKUPOV

Au programme, trois présentations mettant en pratique le service #Azure #OpenAI et les Large Language Models (LLM) de l'IA générative.

1) "Utiliser de Prompt Flow pour développer graphiquement des applications intégrant un LLM" par Sulan LIU et Paul PETON (AVANADE)

2) "Introduction à #Semantic #Kernel : comment tirer parti d'(Azure) OpenAI et aller plus loin dans vos use-cases en le combinant avec d'autres outils"par Nicolas ROBERT (CELLENZA)

3) "LLaMA 2 : un aperçu du modèle et une démonstration" par Alibek JAKUPOV

A termes, les événements de notre communauté se dérouleront sur cette page LinkedIn que nous vous invitons à suivre. Vous y retrouverez également les principales annonces liées à l'intelligence artificielle dans l'écosystème Microsoft.
Cette communauté est aussi la vôtre et nous sommes à votre écoute pour toute suggestion de contenu, proposition d'événements, de sessions, etc.
Nicolas, Alibek et Paul pour la communauté Global AI francophone
--


lundi 22 mai 2023

L’IA en Europe ? L’UE choisit donc de la réguler ?

 L’IA en Europe, elle choisit de la réguler ?

En résumé, cet article aborde la régulation de l'intelligence artificielle en Europe. Il mentionne l'émergence de ChatGPT, un modèle de langage conversationnel, et souligne que l'Europe a décidé de réguler cette technologie pour éviter les abus potentiels. 

Le Parlement européen a produit un projet de loi qui s'inspire des réglementations existantes et impose des contrôles aux entreprises. Les dérives potentielles comprennent le pistage numérique des citoyens, la restriction de la liberté d'expression et la manipulation de l'information. 

Bien qu'il y ait certains aspects positifs, comme l'interdiction de systèmes de surveillance de masse similaires à ceux utilisés en Chine, l'article critique également les actions contradictoires du Parlement européen, telles que l'autorisation d'un passeport vaccinal et de mesures drastiques au sein de son institution. 

L'auteur exprime des doutes quant à l'efficacité de la réglementation proposée, soulignant que de nombreuses techniques d'intelligence artificielle sont déjà disponibles en open source et que la recherche se poursuit indépendamment des législateurs. Il suggère que la régulation pourrait entraver l'innovation et que les États pourraient contourner les lois pour leurs propres intérêts. 

En conclusion, l'article critique les approches législatives de l'administration européenne, les comparant aux principes économiques socialistes de taxation, réglementation et subventionnement.






Committee on the Internal Market and Consumer Protection Committee on Civil Liberties, Justice and Home Affairs 9/5/2023 KMB/DA/AS Version: 1.0 DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9 0146/2021 – 2021/0106(COD)) 

Juridiction très large :


La loi concerne les "fournisseurs et les opérateurs de systèmes d'IA établis ou situés dans un pays tiers, où le droit d'un État membre s'applique en vertu du droit international public ou où la sortie produite par le système est destinée à être utilisée dans l'Union européenne" (p. 68-69).

Vous devez enregistrer votre projet d'IA "à haut risque" ou votre modèle fondamental auprès du gouvernement. Les projets devront enregistrer les fonctionnalités anticipées de leurs systèmes. Les systèmes qui dépassent ces fonctionnalités peuvent faire l'objet d'un rappel. Cela posera problème pour de nombreux projets open-source plus anarchiques. L'enregistrement exigera également la divulgation des sources de données utilisées, des ressources informatiques (y compris le temps passé à l'entraînement), des critères de performance et des tests d'évaluation (p. 23-29).

Des tests de risque coûteux sont requis. Apparemment, les différents États membres de l'UE effectueront des évaluations "tiers" dans chaque pays, selon une échelle mobile de frais en fonction de la taille de l'entreprise demanderesse. Les tests doivent être des critères de référence qui n'ont pas encore été créés. Un suivi après la mise en service est requis (probablement par le gouvernement). Une nouvelle certification est requise si les modèles montrent des capacités inattendues. Une nouvelle certification est également requise après tout entraînement substantiel (p. 14-15, voir disposition 4a pour clarifier qu'il s'agit de tests gouvernementaux).

Risques très vaguement définis : La liste des risques inclut les risques pour des choses telles que l'environnement, la démocratie et l'État de droit. Qu'est-ce qu'un risque pour la démocratie ? Cette loi elle-même pourrait-elle représenter un risque pour la démocratie ? (p. 26).

Les LLM Open Source ne sont pas exempts : Les modèles fondamentaux open source ne sont pas exemptés de la loi. Les programmeurs et les distributeurs du logiciel sont responsables légalement. Pour les autres formes de logiciels d'IA open source, la responsabilité est transférée au groupe qui utilise le logiciel ou le met sur le marché (p. 70).

Les API sont essentiellement interdites. Les API permettent à des tiers de mettre en œuvre un modèle d'IA sans l'exécuter sur leur propre matériel. Certains exemples d'implémentation incluent AutoGPT et LangChain. Selon ces règles, si un tiers, en utilisant une API, découvre comment faire réaliser à un modèle quelque chose de nouveau, ce tiers doit ensuite faire certifier la nouvelle fonctionnalité.

Le fournisseur précédent est tenu, en vertu de la loi, de fournir au tiers ce qui serait autrement des informations techniques confidentielles afin que le tiers puisse terminer le processus de licence. La capacité de contraindre les divulgations confidentielles signifie que les start-ups et autres bricoleurs sont essentiellement interdits d'utilisation d'une API, même si le bricoleur se trouve aux États-Unis. Le bricoleur pourrait rendre son logiciel disponible en Europe, ce qui entraînerait la nécessité de le licencier et de contraindre les divulgations (p. 37).

Les développeurs open source sont responsables. La loi est mal rédigée. La loi ne couvre pas les composants d'IA open source gratuits. Les modèles fondamentaux (LLM) sont considérés comme distincts des composants. Ce que cela semble signifier, c'est que vous pouvez ouvrir des modèles d'apprentissage automatique traditionnels open source, mais pas des IA génératives.

Si un développeur open source américain place un modèle ou du code utilisant une API sur GitHub, et que le code devient disponible dans l'UE, le développeur serait responsable de la diffusion d'un modèle non autorisé. De plus, GitHub serait responsable d'héberger un modèle non autorisé (p. 37 et 39-40).

LoRA essentiellement interdit. LoRA est une technique pour ajouter progressivement de nouvelles informations et fonctionnalités à un modèle à moindre coût. Les projets open source l'utilisent car ils ne peuvent pas se permettre une infrastructure informatique coûteuse. On dit également que les grands modèles d'IA l'utilisent, car l'entraînement est moins coûteux et plus facile à vérifier en termes de sécurité que les nouvelles versions d'un modèle qui introduisent de nombreuses nouvelles fonctionnalités en une seule fois (p. 14).

Si un projet open source parvient d'une manière ou d'une autre à obtenir les certificats requis, il devra les renouveler chaque fois que LoRA est utilisé pour étendre le modèle.

Licence de déploiement. Les personnes ou entités utilisant des systèmes d'IA sont tenues de subir un examen rigoureux de permis avant le lancement. Les petites entreprises de l'UE sont exemptées de cette exigence (p. 26).

Possibilité pour des tiers de poursuivre en justice. Les tiers concernés ont le droit d'intenter des poursuites par l'intermédiaire de l'autorité de régulation de l'IA d'un pays (établie par la loi). Cela signifie que le déploiement d'un système d'IA peut être contesté individuellement dans plusieurs États membres. Les tiers peuvent intenter des poursuites pour contraindre une autorité nationale de régulation de l'IA à infliger des amendes (p. 71).

Très grosses amendes. Les amendes en cas de non-conformité vont de 2 % à 4 % du chiffre d'affaires mondial brut de l'entreprise. Pour les personnes physiques, cela peut atteindre 20 000 000 €. Les PME et les start-ups européennes bénéficient d'une exonération en ce qui concerne les amendes (p. 75).

Les systèmes de R&D et d'énergie propre dans l'UE sont exemptés. L'IA peut être utilisée pour des tâches de R&D ou la production d'énergie propre sans se conformer à ce système (p. 64-65).

Loi sur l'IA et droit américain
L'attribution très large de la compétence extraterritoriale posera problème. La loi sur l'IA permettrait à toute personne mécontente de l'IA - du moins si elle est citoyenne de l'UE - de contraindre les gouvernements de l'UE à engager des poursuites judiciaires si des modèles non autorisés étaient en quelque sorte disponibles dans l'UE. Cela va bien au-delà de la simple exigence pour les entreprises opérant dans l'UE de se conformer aux lois de l'UE.

Le principal problème concerne les restrictions sur les API. Actuellement, de nombreux fournisseurs de cloud américains ne restreignent pas l'accès aux modèles d'API, en dehors des listes d'attente que les fournisseurs s'efforcent de combler. Un programmeur à domicile ou un inventeur dans son garage peut accéder aux dernières technologies à un prix raisonnable. Sous les restrictions de la loi sur l'IA, l'accès aux API devient suffisamment compliqué pour être limité aux clients de niveau entreprise.

Ce que veut l'UE va à l'encontre de ce que demande la FTC. Pour qu'une entreprise américaine impose de telles restrictions aux États-Unis, cela soulèverait de nombreux problèmes de concurrence. Les coûts de formation des modèles limitent leur disponibilité aux acteurs très capitalisés. La FTC a été très claire en disant qu'elle ne veut pas voir se reproduire la situation d'Amazon, où une plus grande entreprise utilise sa position pour s'approprier la majeure partie des bénéfices - au détriment des plus petits partenaires. Agir de la manière recherchée par la loi sur l'IA soulèverait d'importants problèmes de concurrence pour les entreprises américaines.

En dehors des dispositions antitrust, la sanction de l'innovation par la loi sur l'IA représente un point de conflit. Pour les acteurs américains, trouver un nouveau moyen d'utiliser un logiciel pour gagner de l'argent est une bonne chose. Selon la loi de l'UE, trouver un nouveau moyen d'utiliser un logiciel annule la certification de sécurité et nécessite un nouveau processus de licence. Les désincitations à l'innovation sont susceptibles de créer des frictions étant donné la portée extraterritoriale de la loi.

Enfin, les dispositions sur les logiciels open source posent un problème majeur. La loi sur l'IA considère les développeurs open source travaillant sur des modèles fondamentaux ou avec ceux-ci comme des acteurs néfastes. Les développeurs et, apparemment, les distributeurs sont responsables de la diffusion de modèles fondamentaux non autorisés, ainsi que de codes améliorant apparemment les modèles fondamentaux. Pour toutes les autres formes d'apprentissage automatique open source, la responsabilité de la licence incombe à la personne qui déploie le système.

Tenter de sanctionner certaines parties de l'écosystème technologique est une mauvaise idée. Les développeurs open source ne réagiront probablement pas bien à l'idée qu'un gouvernement leur dise qu'ils ne peuvent pas programmer quelque chose, surtout si le gouvernement n'est pas le leur. De plus, que se passe-t-il si GitHub et les différents "co-pilotes" disent simplement que l'Europe est trop difficile à gérer et ferment l'accès ? Cela pourrait avoir des répercussions qui n'ont pas été suffisamment réfléchies.

Il existe donc de nombreux points de conflit potentiels entre la loi sur l'IA de l'UE et le droit américain, notamment en ce qui concerne la portée extraterritoriale, les restrictions sur les API, les problèmes de concurrence, les obstacles à l'innovation et les dispositions sur les logiciels open source. Ces points de friction peuvent entraîner des conflits juridiques et des différences d'approche réglementaire entre les deux juridictions.

« Lorsque toute la vie est pénétrée de rapports juridiques, il se crée une atmosphère de médiocrité morale qui asphyxie les meilleurs élans de l'homme » Soljenitsyne.


















Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés)

Customize your styles Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés) Claude a récemment eu une mise à j...