Affichage des articles dont le libellé est NVIDIA. Afficher tous les articles
Affichage des articles dont le libellé est NVIDIA. Afficher tous les articles

samedi 19 octobre 2024

NVIDIA a créé une IA Nemotron 70b


NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b)


Dans cette vidéo, on plonge dans l'univers de Nemotron, un modèle de langage open source développé par Nvidia et basé sur LLAMA 3.1 de Meta. Avec ses 70 milliards de paramètres, Nemotron se distingue par une performance impressionnante, notamment grâce à l'apprentissage par renforcement à partir du feedback humain (RLHF). 

Ce modèle est conçu pour des tâches complexes comme le raisonnement mathématique ou la modération de contenu, tout en restant plus économe en ressources que des modèles comme GPT-4. 
Découvrez pourquoi Nemotron est un acteur clé dans l'évolution des modèles d'intelligence artificielle.

Chapitres de la vidéo : 

0:00 Introduction
0:59 Présentation de Nemotron 70b
2:33 Les performances de ce modèle
4:10 Pourquoi ce modèle est si bon ? 
5:07 Les 3 avantages de cette méthode
5:41 Comment tester Nemotron 70b ?
6:27 Test et comparaison de ce modèle
14:21 Conclusion

Sources de la vidéo : 


(37) NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b) - YouTube :


nvidia/Llama-3.1-Nemotron-70B-Reward-HF · Hugging Face :



Llama-3.1-Nemotron-70B-Reward est un grand modèle de langage personnalisé développé par NVIDIA pour prédire la qualité des réponses générées par LLM. Plus précisément, il a été entraîné à l’aide d’une base Llama-3.1-70B-Instruct sur une nouvelle approche combinant la force de Bradley Terry et la modélisation de récompense de régression SteerLM.

Étant donné une conversation en anglais avec plusieurs tours entre l’utilisateur et l’assistant (jusqu’à 4 096 jetons), il évalue la qualité du tour final de l’assistant à l’aide d’un score de récompense.

Pour la même invite, une réponse avec un score de récompense plus élevé a une qualité supérieure à une autre réponse avec un score de récompense inférieur, mais on ne peut pas en dire autant lorsque l’on compare les scores entre les réponses à différentes invites.

Llama-3.1-Nemotron-70B-Reward-HF a été converti à partir de Llama-3.1-Nemotron-70B-Reward pour le soutenir dans la base de code de HuggingFace Transformers. Veuillez noter que les résultats de l’évaluation peuvent être légèrement différents de ceux du Lama-3.1-Nemotron-70B-Reward tel qu’évalué dans NeMo-Aligner, sur lequel les résultats d’évaluation ci-dessous sont basés.

Essayez gratuitement l’inférence hébergée chez build.nvidia.com - elle est livrée avec une interface API compatible OpenAI et le simple fait de vous inscrire vous permet d’obtenir 100k appels API gratuits vers ce modèle.

En utilisant ce modèle de récompense pour RLHF (plus précisément, REINFORCE), nous avons pu régler un modèle Llama-3.1-70B-Instruct pour atteindre AlpacaEval 2 LC de 57,6, Arena Hard de 85,0 et GPT-4-Turbo MT-Bench de 8,98, qui sont connus pour être prédictifs de LMSys Chatbot Arena Elo Ce modèle Instruct est disponible chez Llama-3.1-Nemotron-70B-Instruct en tant que modèle .nemo et Llama-3.1-Nemotron-70B-Instruct-HF en tant que modèle HF Transformers.

Au 1er octobre 2024, ce modèle est #1 sur les trois benchmarks d’alignement automatique, devançant les modèles de frontière forts tels que GPT-4o et Claude 3.5 Sonnet.

Voir les détails sur notre article à https://arxiv.org/abs/2410.01257 - en guise d’aperçu, ce modèle peut corriger la question sans incitation spécialisée ni jetons de raisonnement supplémentaires....

llama-3_1-nemotron-70b-instruct | NVIDIA NIM :




Nvidia Releases Nemotron 70B Model; Claims to Beat GPT-4o and Claude 3.5 Sonnet | Beebom :



En dehors de cela, Nvidia affirme que Llama 3.1 Nemotron 70B peut répondre correctement à la question de la fraise (combien de r dans fraise ?) qui a déconcerté tant de LLM. 

Voir les détails sur notre article à https://arxiv.org/abs/2410.01257 - en guise d’aperçu, ce modèle peut corriger la question sans incitation spécialisée ni jetons de raisonnement supplémentaires :How many r in strawberry?

[2410.01257] HelpSteer2-Preference: Complementing Ratings with Preferences


$ ollama run nemotron
>>> How many r in strawberry?
A sweet question!

Let's count the "R"s in "strawberry":

1. S
2. T
3. R
4. A
5. W
6. B
7. E
8. R
9. R
10. Y

There are **3** "R"s in the word "strawberry".

Il n’utilise pas de jetons de raisonnement supplémentaires comme les modèles OpenAI o1 ou ne tire pas parti d’invites spécialisées pour obtenir la bonne réponse. 

Lors de mes brefs tests, le modèle s’est trompé du premier coup. Cependant, lorsque j’ai posé à nouveau la même question, elle a correctement répondu aux 3 R.

3 R dans Strawberry.

GitHub - NVIDIA/NeMo: A scalable generative AI framework built for researchers and developers working on Large Language Models, Multimodal, and Speech AI (Automatic Speech Recognition and Text-to-Speech) :

https://github.com/NVIDIA/NeMo


Quickstart with NeMo-Run — NVIDIA NeMo Framework User Guide latest documentation :



library  nemotron :

Llama-3.1-Nemotron-70B-Instruct est un grand modèle de langage personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par LLM aux requêtes des utilisateurs.


Nemotron-Mini :

C'est petit modèle de langage de NVIDIA optimisé pour le jeu de rôle, l’assurance qualité RAG et l’appel de fonctions.

Nemotron-Mini-4B-Instruct est un modèle de génération de réponses pour le jeu de rôle, la récupération, la génération augmentée et l’appel de fonctions. Il s’agit d’un modèle de petit langage (SLM) optimisé par distillation, élagage et quantification pour la vitesse et le déploiement sur l’appareil.

Ce modèle d’instruction est optimisé pour le jeu de rôle, l’assurance qualité RAG et l’appel de fonction en anglais. Il prend en charge une longueur de contexte de 4 096 jetons. Ce modèle est prêt pour un usage commercial.

Llama-3.1-Nemotron-70B


Llama-3.1-Nemotron-70B-Instruct est un grand modèle de langage personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par LLM aux requêtes des utilisateurs.

Ce modèle a été entraîné à l’aide des invites RLHF (plus précisément, REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference sur un modèle Llama-3.1-70B-Instruct comme politique initiale.


nemotron:latest


Nom Digérer Modifié à Taille Actions

nemotron:latest 2262f...d589 a minute     40 GB


mistral:latest f974a...5091 7 days             3.8 GB


llava:latest 8dd30...d081 7 days             4.4 GB


mistral-small:latest d095c...88bc 8 days     12 GB


llama3.2:latest a80c4...8b72 9 days             1.9 GB


Performance du PC-AI. 

C:\Users\erolg>ollama list
NAME                    ID              SIZE      MODIFIED
nemotron-mini:latest    ed76ab18784f    2.7 GB    24 minutes ago
nemotron:latest         2262f047a28a    42 GB     36 minutes ago
mistral:latest          f974a74358d6    4.1 GB    6 days ago
llava:latest            8dd30f6b0cb1    4.7 GB    7 days ago
mistral-small:latest    d095cd553b04    12 GB     8 days ago
llama3.2:latest         a80c4f17acd5    2.0 GB    8 days ago

C:\Users\erolg>

Installation de Llama 3.2 sur un PC-AI sous Windows.


Installation de Nemotron 70b sur un PC-AI sous Windows, et son plan de gouvernance :



--- 

Pierre Erol GIRAUDY 

http://about.me/giraudyerol

https://guild4ai.ai/





mercredi 19 avril 2023

Technologies IA les tendances !

Technologies IA les tendances ! "NEWS"


L'intelligence artificielle (#IA) joue un rôle transformateur dans le développement de l'économie et de la société du futur. 

C'est la création d'une rupture de paradigme. 

L'application de l'IA est devenue essentielle au processus de numérisation car il y aura probablement une augmentation massive du nombre d'applications innovantes d'intelligence artificielle (IA) sur le lieu de travail. Pour améliorer les opérations et le service client, de nombreuses entreprises ont déjà commencé à mettre en œuvre des solutions basées sur l'IA pour les activités quotidiennes.

L'augmentation de la demande de systèmes basés sur l'IA pour améliorer l'efficacité et la productivité propulse la croissance du marché de l'intelligence artificielle, ainsi que les avancées technologiques dans l'industrie de l'IA telles que le traitement du langage naturel, la parole plus rapide et la conversion texte-image, qui sont avoir un impact positif sur la croissance du marché de l'IA.

L'IA a jeté les bases de nombreuses avancées et inventions pionnières. L'utilisation de l'IA n'est pas limitée à un domaine spécifique mais se retrouve dans tout, du petit détail à une invention révolutionnaire. De nombreux outils et technologies ont été conçus, créant un nouveau monde, menant à un avenir prometteur.

Avec la demande croissante d'efficacité de l'information, la numérisation des entreprises, l'amélioration des structures de la chaîne de l'industrie 4.0 et la mondialisation, le développement de l'IA s'accélère. L'IA a laissé sa marque partout et a montré un immense potentiel pour rendre la vie beaucoup plus facile. L'efficacité et la popularité des chatbots alimentés par l'IA au cours des dernières années ont également catapulté un intérêt accru pour la manière dont l'intelligence artificielle est déployée pour augmenter l'efficacité et la productivité.


Top 4 des technologies à venir qui perturberont l'intelligence artificielle à l'avenir :

Modèle de langage pour les applications de dialogue (LaMDA) :

#LaMDA est un modèle d'IA conversationnel qui porte une conversation au son naturel basée sur sa capacité à comprendre et à répondre aux signaux de conversation tels que le ton, le sentiment et le contexte. Cela permet de fournir des réponses plus naturelles et personnalisées, ce qui peut aider à améliorer l'expérience globale de l'utilisateur. Les modèles LaMDA peuvent également être personnalisés pour des domaines ou des sujets spécifiques, ce qui permet de fournir des réponses plus spécialisées et plus précises.

LaMDA a également été formé sur une quantité massive de données conversationnelles ainsi que sur la gestion de conversations complexes et nuancées fournissant des réponses de type humain à un large éventail de requêtes. LaMDA peut être appliqué à un large éventail d'applications conversationnelles, y compris les chatbots, les assistants vocaux et les systèmes de service client.

  • Par exemple : un utilisateur peut demander à l'Assistant Google de trouver un restaurant à proximité. Le modèle LaMDA peut comprendre l'intention de l'utilisateur, identifier l'emplacement de l'utilisateur et fournir une liste de restaurants à proximité ainsi que des informations pertinentes telles que des notes, des avis et des menus.
  • En 2022, Google a lancé LaMDA 2, qui est une version avancée d'IA conversionnelle de LaMDA qui a été introduite en 2021. La société publiera LaMDA 2 à de petits groupes de personnes par lots pour tester l'application et travaillera sur les commentaires pour s'améliorer avant de le rendre accessible au grand public.


LaMDA a également été formé sur une quantité massive de données conversationnelles ainsi que sur la gestion de conversations complexes et nuancées fournissant des réponses de type humain à un large éventail de requêtes. LaMDA peut être appliqué à un large éventail d'applications conversationnelles, y compris les chatbots, les assistants vocaux et les systèmes de service client¹.

Source : Conversation avec Bing, 19/04/2023(1) LaMDA - Wikipedia. https://en.wikipedia.org/wiki/LaMDA Accédé à 19/04/2023.

(2) Google LaMDA | Discover AI use cases - GPT-3 Demo. https://gpt3demo.com/apps/lamda-google Accédé à 19/04/2023.

(3) What Is Google’s LaMDA AI, and Why Does a Google Engineer Believe It’s .... https://www.howtogeek.com/813427/what-is-googles-lamda-and-why-does-a-google-engineer-believe-its-sentient/ Accédé à 19/04/2023.

(4) LaMDA: our breakthrough conversation technology - Google. https://blog.google/technology/ai/lamda/ Accédé à 19/04/2023.

(5) LaMDA : l'IA de Google qui dialogue comme un humain. https://www.journaldunet.fr/web-tech/guide-de-l-intelligence-artificielle/1513013-google-lamda/ Accédé à 19/04/2023.


Modèle de langage Pathways (#PaLM):

Le modèle de langage Pathways PaLM est un modèle de langage pré-entraîné sur un large corpus de données textuelles. Il utilise une nouvelle technique de formation qui intègre à la fois la modélisation du langage masqué (MLM) et l'apprentissage auxiliaire, ce qui permet au modèle de capturer à la fois les caractéristiques syntaxiques et sémantiques du langage.

PaLM permet à un seul système d'IA de se généraliser sur des milliers ou des millions de tâches, d'analyser différents types de données avec une efficacité surprenante et de faire évoluer la société de l'ère des modèles à usage unique qui ne reconnaissent que les modèles, vers un avenir dans lequel des systèmes intelligents à usage plus général reflètent une compréhension plus profonde de l'environnement et peuvent s'adapter aux nouvelles exigences. Ceci est réalisé en utilisant un nouvel algorithme qui permet au modèle d'ajuster dynamiquement le niveau de détail et la cohérence de sa sortie, en fonction des besoins de la tâche.

Comme tout autre grand modèle de langage, PaLM fonctionne mieux car il évolue et peut interpréter simultanément plusieurs types de données, notamment du texte, des images et de la parole. Le modèle PaLM a montré des résultats prometteurs dans une variété de tâches de traitement du langage naturel, y compris la réponse aux questions, le résumé et la génération de conversation. Il est également utilisé pour développer des systèmes de traitement du langage naturel plus avancés, tels que des assistants virtuels et des chatbots, qui peuvent engager des conversations plus sophistiquées et naturelles avec les utilisateurs.

  • En avril 2022, Google AI a introduit le modèle de langage Pathways (PaLM), un transformateur de 540 milliards de paramètres, dense décodeur uniquement. La société mène la course à l'IA avec la sortie de Pathways Language Model (PaLM) contre la popularité croissante de ChatGPT.
  • Google Research et Everyday Robots travaillent ensemble pour combiner les modèles de langage avec l'apprentissage par robot appelé #PaLM-SayCan en tant que coentreprise. Cet effort est la première exécution qui utilise un modèle de langage à grande échelle pour planifier un vrai robot. Cela permet non seulement aux personnes de communiquer avec des robots auxiliaires via du texte ou de la parole, mais améliore également les performances globales du robot et sa capacité à exécuter des tâches plus complexes et conceptuelles en puisant dans l'expérience encodée dans le modèle de langage.
PaLM (Pathways Language Model) est un modèle Transformer à 540 milliards de paramètres développé par Google¹. Il s'est entraîné sur un ensemble de données linguistiques incluant documents web, livres, conversations et code¹. Le modèle est capable de générer des textes de qualité supérieure à celle des modèles précédents¹. 

Source : Conversation avec Bing, 19/04/2023(1) Google PaLM : le nouveau modèle à 540 milliards paramètres. https://intelligence-artificielle.com/google-palm-modele-de-langage/ Accédé à 19/04/2023.
(2) Modèle "Pathway" de la CDSS - OMS, Genève - GREA. https://www.grea.ch/modele-pathway-de-la-cdss-oms-geneve Accédé à 19/04/2023.
(3) Google conçoit un robot qui exploite un modèle de langage avancé. https://www.zdnet.fr/actualites/google-concoit-un-robot-qui-exploite-un-modele-de-langage-avance-39945952.htm Accédé à 19/04/2023.

Image:

Il y a eu beaucoup de développement dans le domaine du texte à l'image au cours des dernières années. Imagen est un modèle de diffusion texte-image qui s'appuie sur l'influence de grands modèles de langage transformateur pour la compréhension de texte et sur des modèles de diffusion pour la production d'images haute fidélité pour atteindre un niveau sans précédent de photoréalisme et de compréhension du langage. Bien que conceptuellement simple et simple à former, Imagen produit des résultats étonnamment efficaces. Il démontre également l'utilité des grands modèles de langage pré-entraînés congelés en tant qu'encodeurs de texte pour la génération de texte en image basée sur un modèle de diffusion.

L'objectif d'Imagen est de faire progresser la recherche sur les techniques génératives en utilisant la synthèse texte-image comme cas de test. Nous reconnaissons que les utilisations possibles en aval de cette étude sont diverses et peuvent avoir un impact significatif sur la société, même si les applications des utilisateurs finaux des approches génératives sont encore principalement hors de portée. Les modèles génératifs ont la capacité d'améliorer, d'étendre et de compléter considérablement la créativité humaine. En particulier, les modèles de génération de texte en image ont le potentiel d'élargir les possibilités d'édition d'images et d'aboutir à la création de nouveaux outils pour les professionnels de la création.

Plus que d'augmenter la taille du modèle de diffusion d'image, Imagen améliore la fiabilité de l'échantillon et l'alignement image-texte. Un encodeur de texte convertit le texte en une série d'incorporations, et une série de modèles de diffusion conditionnelle convertit ces incorporations en images avec des résolutions plus élevées. Imagen démontre l'utilité des grands modèles de langage pré-entraînés congelés en tant qu'encodeurs de texte pour la génération de texte en image basée sur un modèle de diffusion.

  • Google est extrêmement vigilant avec la sortie de son système d'IA qui aide à convertir du texte en image. Bien que le modèle Imagen de l'entreprise produise une sortie de qualité égale à DALL-E d'OpenAI, DALL-E 2 ou Stable Diffusion de Stability AI, Google n'a pas mis le système à la disposition du public et ne sera disponible que pour traiter des demandes extrêmement limitées dans l'IA de Google. Testez l'application Kitchen qui a été lancée en 2022.
  • En 2022, OpenAI a lancé la version bêta de DALL·E qui est disponible sans liste d'attente, où plus de 1,5 million d'utilisateurs peuvent créer plus de 2 millions d'images par jour. Les développeurs ont intégré DALL·E directement dans leurs applications et produits via l'API, générant plus de 4 millions d'images par jour.
  • Microsoft intègre également DALL·E dans Bing et Microsoft Edge avec Image Creator, permettant aux utilisateurs de générer des images si les résultats Web ne trouvent pas ce qu'ils recherchent.


Imagen: Text-to-Image Diffusion Models (research.google)

Imagen Editor & EditBench (research.google)

https://imagen.research.google/editor/


#MusicLM :

MusicLM est un modèle qui crée de la musique haute fidélité à partir de descriptions textuelles, forme le processus de génération de musique conditionnelle en tant que tâche de modélisation séquence à séquence hiérarchique et génère de la musique à 24 kHz qui reste cohérente sur plusieurs minutes. MusicLM peut être conditionné à la fois sur une mélodie et sur un texte où il peut transformer des mélodies fredonnées et sifflées selon le style décrit dans une légende de texte. Pour soutenir les recherches futures, un ensemble de données composé de 5,5k paires musique-texte, avec des descriptions textuelles riches fournies par des experts humains, est rendu public sous le nom de MusicCaps.

MusicLM détermine un nouveau niveau de composition et de haute fidélité dans les chansons produites par des ordinateurs. Le développement de MusicLM fait partie d'une vague d'applications d'IA d'apprentissage en profondeur créées dans le but d'imiter les capacités mentales humaines, et de plusieurs autres efforts pour créer des applications de génération de chansons, notamment Jukebox, Dance Diffusion et Riffusion.

La modélisation du langage musical (MusicLM) est l'équivalent musical de la modélisation du langage dans le traitement du langage naturel (TAL). En modélisant le langage de la musique, et plus particulièrement sa structure temporelle, mélodique, rythmique et harmonique ainsi que les modèles émergents et les passages répétés, il peut non seulement mieux comprendre mais aussi créer de meilleures représentations et abstractions. MusicLM permet de prédire des transcriptions plus réalistes, d'améliorer la précision de la transcription et d'augmenter la confiance des prédictions du modèle.


Source : Conversation avec Bing, 19/04/2023(1) MusicLM : le nouvel outil IA de Google pour générer de la musique. https://www.blogdumoderateur.com/musiclm-nouvel-outil-ia-google-generer-musique/ Accédé à 19/04/2023.

(2) Musiclm By Google - Un Modèle D'ia Texte-Musique Par Google. https://uclic.fr/toolbox/musiclm-by-google/ Accédé à 19/04/2023.

(3) MusicLM : un nouveau modèle d'IA text-to-music et image-to-music de .... https://mpost.io/fr/musiclm-un-nouveau-texte-en-musique-et-image-en-musique-mod%C3%A8le-ai-de-google/ Accédé à 19/04/2023.

(4) Google invente un ChatGPT de la musique : voici MusicLM. https://www.numerama.com/tech/1251228-google-invente-un-chatgpt-de-la-musique-voici-musiclm.html Accédé à 19/04/2023.

(5) Google Research présente MusicLM, un nouveau modèle text-to-audio. https://www.actuia.com/actualite/google-research-presente-musiclm-un-nouveau-modele-text-to-audio/ Accédé à 19/04/2023.

 

Google's MusicLM can generate music from text descriptions (9to5google.com)

What is Google's MusicLM and How You Can Generate Music | Tasq.ai

MusicLM (google-research.github.io)


Conclusion:

Avec une telle croissance à l'horizon, avec un monde en évolution rapide et en voie de numérisation, les entreprises déploient des outils et des solutions alimentés par l'IA qui auront un avantage concurrentiel sur leurs concurrents. Alors que les nouvelles technologies d'IA émergentes continuent de gagner du terrain dans diverses industries, les modèles ci-dessus devraient jouer un rôle crucial en permettant des conversations plus naturelles et engageantes entre les humains et les machines, en créant du texte en musique et du texte en images.

L'utilisation des nouvelles technologies offre non seulement de nouvelles opportunités passionnantes, mais elle nous présente également constamment des défis, tels que le développement et l'utilisation de ces modèles soulèvent également des préoccupations éthiques et sociales qui doivent être soigneusement examinées et traitées pour garantir qu'ils sont utilisés de manière responsable. et pour le plus grand bien.

Cependant, la technologie évolue progressivement et elle a le potentiel d'être plus familière que jamais. Bien qu'il n'existe aucun moyen sûr de prédire l'avenir de l'IA, elle continuera certainement à profiter à diverses entreprises et utilisateurs finaux dans leur vie quotidienne.

 

Le 8 mars 2023, les chercheurs affiliés à Mila Blake Richards et Guillaume Lajoie ont co-organisé à l’institut un atelier visant à explorer les liens entre le cerveau et l’IA. Intitulé «Tracing the links between Cognition, Consciousness and AI», cette série de conférences a réuni des sommités de nombreux domaines en marge de COSYNE, la plus grande conférence mondiale sur les neurosciences computationnelles, qui s’est tenue à Montréal pour la première fois.




Commentaires :
Comment le marché de la technologie de l’IA révolutionne et ce que vous devez savoir à ce sujet!
Prenez un exemple de PDF: https://bit.ly/3qjuIXk Consultez notre dernier article pour en savoir plus: https://lnkd.in/eCWZGcZC Growing HashtagInvestissements dans les systèmes d’intelligence artificielle devraient contribuer à l’expansion de l’industrie de l’IA!
Le potentiel de HashtagAI technologie pour évaluer efficacement les données acquises et les utiliser pour prédire les étapes futures en temps réel à l’aide de complexes HashtagAlgorithmes les aides au développement de la productivité; par exemple HashtagNetflix (en anglais) peut recommander des films en fonction de leur HashtagUtilisateurs' avant de regarder des expériences. Le marché mondial de l’intelligence artificielle (IA) est dominé par des acteurs clés tels qu’Amazon Web Services (AWS), Apple Inc, Google, IBM, Intel Corporation Microsoft, NVIDIA, Oracle Corporation, SAP Service Cloud et Siemens      HashtagApprentissage automatique Hashtagintelligence HashtagReconnaissance vocale Hashtagamazone Hashtagdonnées Hashtaggestion HashtagStartups Hashtagfutur HashtagGoogle (en anglais) Hashtaginvestissement Hashtagenvironnement Hashtagproductivité HashtagAnalyse de marché HashtagGénération de revenus HashtagIntelligence artificielle Hashtagvéhicule électrique Hashtagoracle 



Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés)

Customize your styles Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés) Claude a récemment eu une mise à j...