Affichage des articles dont le libellé est inteligenciaartificial. Afficher tous les articles
Affichage des articles dont le libellé est inteligenciaartificial. Afficher tous les articles

samedi 19 octobre 2024

NVIDIA a créé une IA Nemotron 70b


NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b)


Dans cette vidéo, on plonge dans l'univers de Nemotron, un modèle de langage open source développé par Nvidia et basé sur LLAMA 3.1 de Meta. Avec ses 70 milliards de paramètres, Nemotron se distingue par une performance impressionnante, notamment grâce à l'apprentissage par renforcement à partir du feedback humain (RLHF). 

Ce modèle est conçu pour des tâches complexes comme le raisonnement mathématique ou la modération de contenu, tout en restant plus économe en ressources que des modèles comme GPT-4. 
Découvrez pourquoi Nemotron est un acteur clé dans l'évolution des modèles d'intelligence artificielle.

Chapitres de la vidéo : 

0:00 Introduction
0:59 Présentation de Nemotron 70b
2:33 Les performances de ce modèle
4:10 Pourquoi ce modèle est si bon ? 
5:07 Les 3 avantages de cette méthode
5:41 Comment tester Nemotron 70b ?
6:27 Test et comparaison de ce modèle
14:21 Conclusion

Sources de la vidéo : 


(37) NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b) - YouTube :


nvidia/Llama-3.1-Nemotron-70B-Reward-HF · Hugging Face :



Llama-3.1-Nemotron-70B-Reward est un grand modèle de langage personnalisé développé par NVIDIA pour prédire la qualité des réponses générées par LLM. Plus précisément, il a été entraîné à l’aide d’une base Llama-3.1-70B-Instruct sur une nouvelle approche combinant la force de Bradley Terry et la modélisation de récompense de régression SteerLM.

Étant donné une conversation en anglais avec plusieurs tours entre l’utilisateur et l’assistant (jusqu’à 4 096 jetons), il évalue la qualité du tour final de l’assistant à l’aide d’un score de récompense.

Pour la même invite, une réponse avec un score de récompense plus élevé a une qualité supérieure à une autre réponse avec un score de récompense inférieur, mais on ne peut pas en dire autant lorsque l’on compare les scores entre les réponses à différentes invites.

Llama-3.1-Nemotron-70B-Reward-HF a été converti à partir de Llama-3.1-Nemotron-70B-Reward pour le soutenir dans la base de code de HuggingFace Transformers. Veuillez noter que les résultats de l’évaluation peuvent être légèrement différents de ceux du Lama-3.1-Nemotron-70B-Reward tel qu’évalué dans NeMo-Aligner, sur lequel les résultats d’évaluation ci-dessous sont basés.

Essayez gratuitement l’inférence hébergée chez build.nvidia.com - elle est livrée avec une interface API compatible OpenAI et le simple fait de vous inscrire vous permet d’obtenir 100k appels API gratuits vers ce modèle.

En utilisant ce modèle de récompense pour RLHF (plus précisément, REINFORCE), nous avons pu régler un modèle Llama-3.1-70B-Instruct pour atteindre AlpacaEval 2 LC de 57,6, Arena Hard de 85,0 et GPT-4-Turbo MT-Bench de 8,98, qui sont connus pour être prédictifs de LMSys Chatbot Arena Elo Ce modèle Instruct est disponible chez Llama-3.1-Nemotron-70B-Instruct en tant que modèle .nemo et Llama-3.1-Nemotron-70B-Instruct-HF en tant que modèle HF Transformers.

Au 1er octobre 2024, ce modèle est #1 sur les trois benchmarks d’alignement automatique, devançant les modèles de frontière forts tels que GPT-4o et Claude 3.5 Sonnet.

Voir les détails sur notre article à https://arxiv.org/abs/2410.01257 - en guise d’aperçu, ce modèle peut corriger la question sans incitation spécialisée ni jetons de raisonnement supplémentaires....

llama-3_1-nemotron-70b-instruct | NVIDIA NIM :




Nvidia Releases Nemotron 70B Model; Claims to Beat GPT-4o and Claude 3.5 Sonnet | Beebom :



En dehors de cela, Nvidia affirme que Llama 3.1 Nemotron 70B peut répondre correctement à la question de la fraise (combien de r dans fraise ?) qui a déconcerté tant de LLM. 

Voir les détails sur notre article à https://arxiv.org/abs/2410.01257 - en guise d’aperçu, ce modèle peut corriger la question sans incitation spécialisée ni jetons de raisonnement supplémentaires :How many r in strawberry?

[2410.01257] HelpSteer2-Preference: Complementing Ratings with Preferences


$ ollama run nemotron
>>> How many r in strawberry?
A sweet question!

Let's count the "R"s in "strawberry":

1. S
2. T
3. R
4. A
5. W
6. B
7. E
8. R
9. R
10. Y

There are **3** "R"s in the word "strawberry".

Il n’utilise pas de jetons de raisonnement supplémentaires comme les modèles OpenAI o1 ou ne tire pas parti d’invites spécialisées pour obtenir la bonne réponse. 

Lors de mes brefs tests, le modèle s’est trompé du premier coup. Cependant, lorsque j’ai posé à nouveau la même question, elle a correctement répondu aux 3 R.

3 R dans Strawberry.

GitHub - NVIDIA/NeMo: A scalable generative AI framework built for researchers and developers working on Large Language Models, Multimodal, and Speech AI (Automatic Speech Recognition and Text-to-Speech) :

https://github.com/NVIDIA/NeMo


Quickstart with NeMo-Run — NVIDIA NeMo Framework User Guide latest documentation :



library  nemotron :

Llama-3.1-Nemotron-70B-Instruct est un grand modèle de langage personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par LLM aux requêtes des utilisateurs.


Nemotron-Mini :

C'est petit modèle de langage de NVIDIA optimisé pour le jeu de rôle, l’assurance qualité RAG et l’appel de fonctions.

Nemotron-Mini-4B-Instruct est un modèle de génération de réponses pour le jeu de rôle, la récupération, la génération augmentée et l’appel de fonctions. Il s’agit d’un modèle de petit langage (SLM) optimisé par distillation, élagage et quantification pour la vitesse et le déploiement sur l’appareil.

Ce modèle d’instruction est optimisé pour le jeu de rôle, l’assurance qualité RAG et l’appel de fonction en anglais. Il prend en charge une longueur de contexte de 4 096 jetons. Ce modèle est prêt pour un usage commercial.

Llama-3.1-Nemotron-70B


Llama-3.1-Nemotron-70B-Instruct est un grand modèle de langage personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par LLM aux requêtes des utilisateurs.

Ce modèle a été entraîné à l’aide des invites RLHF (plus précisément, REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference sur un modèle Llama-3.1-70B-Instruct comme politique initiale.


nemotron:latest


Nom Digérer Modifié à Taille Actions

nemotron:latest 2262f...d589 a minute     40 GB


mistral:latest f974a...5091 7 days             3.8 GB


llava:latest 8dd30...d081 7 days             4.4 GB


mistral-small:latest d095c...88bc 8 days     12 GB


llama3.2:latest a80c4...8b72 9 days             1.9 GB


Performance du PC-AI. 

C:\Users\erolg>ollama list
NAME                    ID              SIZE      MODIFIED
nemotron-mini:latest    ed76ab18784f    2.7 GB    24 minutes ago
nemotron:latest         2262f047a28a    42 GB     36 minutes ago
mistral:latest          f974a74358d6    4.1 GB    6 days ago
llava:latest            8dd30f6b0cb1    4.7 GB    7 days ago
mistral-small:latest    d095cd553b04    12 GB     8 days ago
llama3.2:latest         a80c4f17acd5    2.0 GB    8 days ago

C:\Users\erolg>

Installation de Llama 3.2 sur un PC-AI sous Windows.


Installation de Nemotron 70b sur un PC-AI sous Windows, et son plan de gouvernance :



--- 

Pierre Erol GIRAUDY 

http://about.me/giraudyerol

https://guild4ai.ai/





jeudi 21 mars 2024

Microsoft : ChatGPT et IA génératives

Microsoft : ChatGPT et IA génératives



Retrouvez les nouveaux contenus de Cécile Dejoux autour de l'IA et du Management : L'interview de Cécile. 

⚠️Inscriptions au Mooc « Manager par le CARE pour engager les équipes » ➡️ 
https://bit.ly/3GClOh4

⚠️𝐈𝐧𝐬𝐜𝐫𝐢𝐩𝐭𝐢𝐨𝐧𝐬 𝐚𝐮 𝐌𝐨𝐨𝐜 « 𝐃𝐮 𝐌𝐚𝐧𝐚𝐠𝐞𝐫 𝐇𝐲𝐛𝐫𝐢𝐝𝐞 𝐚𝐮 𝐍𝐞𝐰 𝐥𝐞𝐚𝐝𝐞𝐫 » ➡️ 
https://bit.ly/3EKRUEp

⚠️Inscriptions au Mooc « ChatGPT & IA : mode d'emploi pour managers et RH » ➡️ 
https://bit.ly/37HKiqe

⚠️Inscriptions à la newsletter ➡️ 
https://bit.ly/3Le7fk1

Et pour vous tenir au courant des actualités de Cécile Dejoux rendez-vous : 
- Sur le site internet : https://www.ceciledejoux.com/​​​​​​
- Sur Twitter : @CecileDejoux
- Sur Linkedin : Cécile Dejoux
- Sur instagram : dejoux_cecile


⚠️Inscriptions au Mooc « Manager par le CARE pour engager les équipes » ➡️ 
https://bit.ly/3GClOh4

⚠️𝐈𝐧𝐬𝐜𝐫𝐢𝐩𝐭𝐢𝐨𝐧𝐬 𝐚𝐮 𝐌𝐨𝐨𝐜 « 𝐃𝐮 𝐌𝐚𝐧𝐚𝐠𝐞𝐫 𝐇𝐲𝐛𝐫𝐢𝐝𝐞 𝐚𝐮 𝐍𝐞𝐰 𝐥𝐞𝐚𝐝𝐞𝐫 » ➡️ 
https://bit.ly/3EKRUEp

⚠️Inscriptions au Mooc « ChatGPT & IA : mode d'emploi pour managers et RH » ➡️ 
https://bit.ly/37HKiqe

⚠️Inscriptions à la newsletter ➡️ 
https://bit.ly/3Le7fk1

Et pour vous tenir au courant des actualités de Cécile Dejoux rendez-vous : 
- Sur le site internet : https://www.ceciledejoux.com/​​​​​​
- Sur Twitter : @CecileDejoux
- Sur Linkedin : Cécile Dejoux
- Sur instagram : dejoux_cecile
Chapitres

Tout afficher
Playlist sélectionnée

Afficher la transcription


00:07
[Musique] bonjour à tous alors aujourd'hui ravie très honoré d'être avec Enrique Lopez bonjour Enrique bonsoir Cécile alors Enrique vous travaillez chez Microsoft et vous êtes l'homme de Lia l'homme aussi de l'impact social alors je vous laisse peut-être vous présenter nous expliquer quel est votre métier chez Microsoft oui bah je suis effectivement en charge d'un plan stratégique pour la filiale française qui vise à accompagner les enjeux sur les technologies de pointe donc la cybersécurité mais
00:45
surtout par exemple l'IA et à asseoir une contribution positive de Microsoft sur les sujets on va dire environnementaux et sociaux donc comment la technologie comment Microsoft peut contribuer à des sujets liés à l'environnement mais des sujets liés à des choses plus sociétales la diversité l'inclusion la formation la création d'emplois et les sujets plus éthiques voilà et c'est à la fois des initiatives arrive porter par Microsoft mais également des des contributions auprès de clients de partenaires d'associations
01:22
publiques ou privées donc voilà comment contribuer positivement aux enjeux de l'écosystème français donc vous êtes quand même au cœur de cet effet waouh cet effet il y a génératif et donc on a tout de suite envie de comprendre un petit peu l'histoire commençons par les bases pourquoi 4G PT a été lancé donc en 2022 et comment comment se maille en fait votre relation avec Open high c'est pas nouveau lia pour un Microsoft au savoir que on travaille chez Microsoft sur des sujets d'intelligence artificielle depuis plus d'une trentaine
02:03
d'années donc on a Microsoft resurch qui travaille qui d'ailleurs année après année bas des records sur le computer vision sur la compréhension du langage etc et depuis 2017-2018 on travaille de manière très proche en mode partenariat avec Open et d'un point de vue recherche et développement et ingénierie et tout s'est accéléré c'est la dernière année avec effectivement des larges modèles de langage les fameux LLM chez openaille les fameux GPT chez Microsoft il y avait des choses qui étaient côté on va dire
02:39
s'appelait Turing et dans ce dans ce partenariat openéa il a lancé effectivement le fameux tchat GPT et notre partenariat c'est encore plus solidifié et consolidé donc d'un côté ils ont leur propre on va dire produit et manière d'aller sur le marché mais l'heure cette co-ingénierie cette cour recherche sur ces gros modèles sont intégrés dans les produits Microsoft que ce soit dans Bing version grand public que ce soit dans la suite Office avec les fameux copilotes ou que ce soit les Open et high intégrés au
03:16
Cloud azur voilà alors quand on est une entreprise et que l'on veut utiliser j'allais dire GBT version entreprise avec nos propres données sans sans utiliser j'allais dire les données publiques et en même temps ce sont que nos collaborateurs mettent des données confidentielles vers les données publiques comment ça se passe qu'est-ce que vous proposez et en fait quel est le modèle économique pour Microsoft et pour l'entreprise une entreprise enfin à titre à titre d'entreprise on a envie d'avoir ces grands modèles de
03:53
langage parce qu'on imagine tous les cas d'usage potentiels alors on peut se dire je vais me tourner directement vers openéa et chat GPT et puis on peut utiliser l'outil grand public l'axe commence à se poser une question si c'est propre employés font un copier-coller des données de l'entreprise pour les mettre dans le chat GPT c'est comme si vous preniez un document puis vous le mettiez sur un outil grand public n'est pas en train d'incriminer ce que ferait openia avec ces données là mais
04:23
on n'a pas envie en tant qu'entreprise que des données d'entreprise sortent dans un outil grand public donc on a plutôt envie que ça reste dans son son périmètre et c'est là que utiliser chat GPT pour certains usages pourquoi pas dès que ça des usages qui sont entreprises mais il faut que on est accès à ces modèles de langage mais dans un dans un contexte dans un Cloud qui apporte de la sécurité de la conformité et puis qui nous permet d'utiliser ses propres données c'est là que vous faites d'avoir
04:56
ce partenariat avec openia et d'avoir intégré les API donc fameux azur opening dans le club Microsoft azur donc voilà et bien on va pouvoir proposer aux entreprises soit de l'utiliser parce que nous on a développé sur la base de ces langages donc de l'intégrer dans de l'utiliser dans teams dans Word etc mais si on veut faire son propre scénario en utilisant la puissance de GPT et ses propres données on peut le faire dans le Cloud d'Azur dans un environnement que la plupart des entreprises connaissent
05:29
puisque c'est déjà un Cloud qui est utilisé et le modèle économique pour harmonie le modèle économique c'est comme un service cloud comme quand on utilise du stockage ou un autre service cognitif par exemple la la reconnaissance de caractères ou n'importe quel autre service c'est de la c'est à la consommation d'accord donc c'est une sorte d'abonnement voilà alors une question vraiment vous qui êtes au coeur donc j'allais dire des cas d'usage aujourd'hui concrètement les entreprises
06:04
qui sont les plus touchées les plus matures dans l'utilisation de ces modèles de langage quels sont-elles et qu'est-ce qu'elles font alors là ça va être difficile de dire quels sont les plus matures parce qu'en fait depuis l'arrivée de chat GPT on travaille avec tous les secteurs d'activité que ce soit le commerce de grandes distribution que ce soit les médias que ce soit des chaînes logistiques que ce soit même des acteurs publics tout le monde voit l'intérêt d'utiliser un modèle de
06:42
langage pour améliorer son service client pour faire gagner en productivité pour rédiger des documents faire des synthèses générer du texte sur des fiches produits un certain nombre de choses donc il y a énormément de de cas alors là on en a quelques-uns grand public le celui très récent puisque on est on est là début c'est Carrefour qui a annoncé trois cas d'usage sur les achats sur un conseiller pour faire ses courses la rédaction de fiches produits donc deux cas interne et un cas on va dire externe mais je pense que
07:28
dans les jours et les semaines à venir on va en voir plein plein d'autres arrivées et il y a pas un secteur d'activité plus qu'un autre en revanche ce qui est assez intéressant c'est qu'on a une IA avec les IA génératives qui va apporter des cas d'usage très proche de de on va dire d'une frange de la population qu'on n'imaginait pas entre guillemets toucher directement par l'IA génératif c'est les fameux pôles blancs pour prendre cette expression donc des personnes qui
08:03
travaillaient sur du contenu qui générait beaucoup d'informations ou qui manipulaient beaucoup d'informations les voilà aujourd'hui avec un GPT à niagénérative on peut dire qu'il va prendre leur place au contraire on pense que c'est plutôt un copilote mais il pensait être dans un dans un cercle un petit peu un peu pas forcément à l'abri mais avec quelques outils et garder une certaine forme d'autonomie dans leur travail aujourd'hui la bonne nouvelle c'est qu'ils vont pouvoir avoir un super
08:35
outil pour les pour les aider un bon coup pilote mais effectivement ça pose des questions à ce niveau là alors parlons maintenant peut-être des points sur lesquels il faut rester vigilance c'est le point ce que vous appelez les hallucinations quand il y a quelques erreurs puisque tchat j'ai pété ne dit pas je sais pas et en même temps parlons peut-être de la consommation énergétique qu'est-ce que vous pouvez nous apporter comme élément peut-être complémentaire sur ces deux points de vigilance oui je pense que il y a plus largement
09:07
je dirais il y a trois choses le gros sujet c'est effectivement liar responsable et donc au sein il y a responsable peut-être c'est au sein ou c'est à côté il y a cette notion d'allumation et puis après il y a la l'impact l'impact environnemental sur l'IA responsable c'est comment dès la conception l'utilisation des données la conception du service ou de la solution ou du produit à base d'y a que l'on va créer quand je dis on sait pas Microsoft c'est les entreprises qui vont utiliser ça ou
09:44
dans la finalité du produit s'assurer que on n'est pas biaisé on n'est pas transparent on en fera pas des règles ou des bonnes pratiques éthiques et qu'on a un service qui est conforme à ce que a aussi un encadrement une réglementation etc donc ça c'est hautement prioritaire et ça touche je pense tous les employés de l'entreprise d'un point de vue sensibilisation et puis ceux qui vont effectivement s'emparer du sujet après effectivement il y a l'usage en tant que tel il faut être bien conscient que oui
10:17
il est très bavard le le GPT et parfois il est capable d'imaginer des choses qui sont pas forcément dans les données d'entraînement donc d'entraînement pardon donc ce côté hallucination mais ça ça se travaille c'est-à-dire que quand on a un scénario avec GPT je vous en donne un travail avec un partenaire qui s'appelle vente et qui maîtrise qui a créé un climate QNet vous interrogez en langage naturel les les rapports du GIEC alors pas grand monde des alu même les ex se Meurice est long mais là avoir
10:52
au niveau grand public accès à toute cette information ça c'est c'est possible maintenant on n'a pas envie qu'il y ait de l'hallucination quand on traite un sujet et qu'on veut vraiment des données environnementales quand on prépare et quand on personnalise ce cet outil par rapport à des données d'entreprise ou par rapport à des données et des rapports on s'assure dans la création de l'outil et dans le fine tuning parce que on va pas parler d'entraînement du du modèle que il part pas en hallucination
11:22
donc ça on fait attention puis après effectivement il y a cette cette enjeu environnemental lié à l'intelligence artificielle où là il y a toute une chaîne de liaison sur lequel il faut que tout le monde travaille en premier lieu les créateurs et de scintilla au moment où on entraîne ces modèles qui sont très gourmands s'assurer que peut-être on fait des modèles un peu moins gourmands s'assurer que la puissance de calcul qui est utilisée derrière elle est soit moins énergivore ou alors elle consomme
11:55
de l'énergie verte donc il y a des des grands enjeux côté Microsoft on a fait beaucoup de d'efforts à ce niveau là sur les Data Center et autres avec du 100% renouvelable mais derrière il y a aussi l'inférence c'est-à-dire quand on fait des requêtes quand les entreprises vont aussi vouloir développer des applications donc comment avoir une pratique de développement vertueuse développement logiciel d'applications donc des actions autour du de du Green développement donc des associations comme la greensoft word fondation mais
12:31
il y a un autre donc partagez les bonnes pratiques faire des efforts aussi en interne travailler à être moins énergivore bon il y a beaucoup d'efforts à beaucoup de niveaux alors dernière question peut-être Enrique quels conseils vous donneriez aux collaborateurs qui veulent se former et qui veulent en fait perdre peu de temps parce qu'on a vu en quatre mois on a plus de 5000 outils qui sont venus se greffer et qui proposent en fait des surcouches sur tout ce qui se passe autour donc on a l'impression qu'en fait
13:05
on est on est sous la vague quoi donc quels conseils quelle astuce déjà essayez de de se former il y a des très bons MOOC je crois sur les sujets de Liga donc on prend l'IA dans son ensemble et comprendre les IA génératives c'est important c'est important de se former avant de s'informer parce que de temps en temps l'information elle est biaisée ou à la elle est focalisée donc formé en formons formons-nous sur l'ensemble des aspects sur les usages sur les modes de fonctionnement sur l'IA
13:43
générative et sur l'IA responsable formons-nous aussi à utiliser alors on n'a pas encore mais d'ici pas longtemps des des outils pour nous apprendre à rompter comme on dit faire des promptes en tout cas manipuler correctement son son petit copilote mais ça ça va une nouvelle une de la même manière que il faut savoir utiliser les formules dans Excel ben je pense qu'il va falloir faire des petits promptes comme comme il faut pour obtenir la bonne usage et la bonne réponse de de saisir générative et puis passer
14:25
entre guillemets à l'action c'est un tester et le mettre en oeuvre parce que moi je suis intimement persuadé aussi que ce sont les utilisateurs finaux qui savent et qui vont découvrir la les cas d'usage et la puissance que ces outils vont pouvoir leur apporter donc ne pas en avoir peur et de bien au contraire rester en maîtrise parce qu'on est sachant mais ne pas rester à côté sur le à côté du du quai de la gare si je puis dire monter dans le train et en avoir un un bon usage merci infiniment Enrique
15:06
merci pour tout ce pavage pour ce temps alors comme à l'accoutumée je vais essayer de résumer en trois idées mais c'est presque impossible donc je vais je vais jouer à chat GPT parce que je sais que bientôt c'est lui qui fera mon job la première idée peut-être c'est que c'est une magnifique aventure pour en fait non plus appliquer un mode d'emploi mais pour maintenant se poser des vraies questions et comment régler des problèmes alors qu'en fait très souvent dans les années précédentes on
15:35
appliquait des outils avec des objectifs prédéterminés or là on est vraiment dans le modèle inverse c'est à nous de trouver les problèmes et de trouver les solutions grâce à des outils qui pourront nous donner des chemins différents et ça je trouve que c'est vraiment une nouvelle tournure d'esprit la deuxième idée c'est j'entends l'importance pour pour Microsoft d'être dans une logique et ça se voit dans votre titre d'être à la fois dans la technologie pour partager l'innovation
16:03
mais aussi d'être dans une prise de conscience de l'environnement du social et de se poser les questions comment arriver à faire en sorte qu'on continue de progresser et protéger peut-être la planète en essayant de consommer différemment l'électricité nécessaire pour progresser donc vous n'êtes pas dans une logique de décroissance vous êtes dans une logique actionnable comme on dit en recherche c'est-à-dire trouver des solutions pour justement participer à à ce double objectif qui pourrait
16:35
paraître paradoxal et puis la troisième idée ça ça me semble très intéressant c'est qu'en fait aujourd'hui il y a tchat GPT public chez openia mais il y a aussi cette GPT dans Bing et c'est aussi public alors on pourrait presque dire que c'est peut-être un peu concurrent mais enfin en tout cas c'est dans deux espaces différents et puis on a 4G pété dans et pour les entreprises dans un espace sécurisé j'imagine qui correspond à toutes les réglementations internationales etc et demain donc on va
17:05
avoir des copilotes dans les outils les outils classiques de la suite Microsoft qui seront en fait des aides pour la synthèse la traduction pour passer de texte à l'image et ainsi de suite et donc en fait c'est un nouveau langage à apprendre et des nouveaux usages à développer donc il y a énormément énormément de choses à faire et je retiens de ce discours votre magnifique phrase il faut d'abord apprendre avant et bien de critiquer ou d'être pour ou contre car un esprit éveillé c'est celui
17:36
qui a déjà l'information merci pour ce très beau partage merci Cécile et ne craignez rien pour votre job je suis persuadé qu'il y a amplifier notre ingéniosité et vous n'en manquez pas merci [Musique]
Made with ❤️ by Glasp





jeudi 22 juin 2023

Introducing Azure Quantum Elements

Video on Azure Quantum Elements. Learn more: https://aka.ms/AAks6iy #Microsoft #MicrosoftAzure

Résumé en 5 points :

  1. L'introduction d'"Azure Quantum Elements" marque une nouvelle ère de découverte scientifique.
  2. Les progrès de l'humanité ont toujours été définis par les matériaux utilisés à différentes époques, tels que la pierre, le bronze, le fer et le silicium.
  3. Les nouveaux matériaux et produits chimiques peuvent résoudre les problèmes actuels de la planète, tels que la capture du carbone, la purification de l'eau et la découverte de médicaments.
  4. Grâce aux avancées dans le calcul en nuage à grande échelle et l'intelligence artificielle générative, il est maintenant possible de concevoir des matériaux et des produits chimiques en utilisant la technologie de l'IA.
  5. Les ordinateurs quantiques, basés sur les principes de la nature, permettront de résoudre précisément ces problèmes scientifiques, ouvrant ainsi la voie à de nouvelles découvertes.


J'écris du code avec Copilot pour Azure Quantum.



namespace Quantum.Entanglement {
    open Microsoft.Quantum.Intrinsic;
    open Microsoft.Quantum.Diagnostics;

    @EntryPoint()
    operation EntangleQubits(): Unit {
        use q1 = Qubit();
        use q2 = Qubit();

        // Set the first qubit in superposition and then entangle it with the second qubit.
        H(q1);
        CNOT(q1, q2);

        // Explore the quantum state.
        DumpMachine();

        // Reset the qubits before releasing them.
        Reset(q1);
        Reset(q2);
    }
}


2. Copilote dans Azure Quantum

Copilot dans Azure Quantum aide les scientifiques à utiliser le langage naturel pour raisonner sur des problèmes complexes de chimie et de science des matériaux.

Avec Copilot dans Azure Quantum, un scientifique peut accomplir des tâches complexes au-dessus d'un tissu de supercalcul cloud, d'IA avancée et de quantum, tous intégrés aux outils qu'ils utilisent aujourd'hui. Il peut générer les calculs et les simulations sous-jacents, interroger et visualiser les données et aider à obtenir des réponses guidées à des concepts complexes. Tout comme Copilot dans d'autres produits Microsoft transforme le développement de logiciels, la productivité et la recherche, notre ambition est que Copilot dans Azure Quantum transforme et accélère la découverte scientifique, qu'il s'agisse de créer des produits plus sûrs et plus durables, d'accélérer la découverte de médicaments ou de résoudre les défis les plus urgents sur la planète.

Copilot aide également les gens à découvrir l'informatique quantique et à écrire du code pour les ordinateurs quantiques d'aujourd'hui. Il offre une expérience entièrement intégrée, basée sur un navigateur, disponible en essai gratuit avec un éditeur de code intégré, un simulateur quantique et une compilation de code transparente. Nous l'avons conçu pour rendre le complexe plus gérable et aider quiconque à explorer le quantique, la chimie et la science des matériaux tout en rapprochant ces domaines transformationnels. Vérifiez-le aujourd'hui .

3. La feuille de route de Microsoft vers un supercalculateur quantique

Le déblocage ultime viendra lorsque les organisations seront en mesure de concevoir avec précision de nouveaux produits chimiques et matériaux avec un supercalculateur quantique. Notre industrie suivra une voie similaire à celle des supercalculateurs classiques au XXe siècle. Des tubes à vide aux transistors en passant par les circuits intégrés, les progrès de la technologie sous-jacente permettront une échelle et un impact.

Au fur et à mesure que nous progressons en tant qu'industrie, le matériel quantique tombera dans l'une des trois catégories de niveaux de mise en œuvre de l'informatique quantique :

  • Niveau 1 – Fondamental : Systèmes quantiques qui s'exécutent sur des qubits physiques bruyants, ce qui inclut tous les ordinateurs Noisy Intermediate Scale Quantum (NISQ) d'aujourd'hui.
  • Niveau 2 – Résilient : systèmes quantiques qui fonctionnent sur des qubits logiques fiables.
  • Niveau 3 – Échelle : Des superordinateurs quantiques qui peuvent résoudre des problèmes percutants que même les superordinateurs les plus puissants ne peuvent pas.

Avec l'avènement de toute technologie innovante, il existe des risques qui doivent être planifiés et atténués. Les principes de l'IA de Microsoft nous guident et ces principes fondamentaux s'appliquent également au quantique. Au fur et à mesure que nous développons de nouveaux services comme Azure Quantum Elements et que nous concevons notre premier supercalculateur quantique, nous appliquerons des mesures de rigueur supplémentaires en intégrant les commentaires tout au long du processus.

Nous nous préparons également maintenant à un avenir quantique sûr . Microsoft a un plan complet pour garantir que tous nos services restent sécurisés et s'associe à nos clients et à l'industrie pour soutenir cette transition importante.

L'opportunité qui s'offre à nous est immense. Les scientifiques et les entreprises révolutionneront les éléments constitutifs des produits de tous les jours pour inaugurer une nouvelle ère d'innovation et de croissance économique. Ensemble, nous pouvons compresser les 250 prochaines années de chimie et de science des matériaux dans les 25 prochaines.

Accélérer la découverte scientifique avec Azure Quantum - Le blog officiel de Microsoft

Transcription: "MATTHIAS TROYER: When you look back at human history, human progress has always been defined by materials. We talk about the Stone Age, the Bronze Age, the Iron Age, the Silicon Age. Now we face many problems as a planet where again, new materials, new chemicals can make a big difference. For example, if we want to design a catalyst that captures carbon from the air, it can be composed as of making fertilizer locally on a farm. Or we need to find a way to clean water or find new lifesaving drugs. For more than half a century, scientists have had the theme that one can use computers to design materials and chemicals. We're at the point now in history where we have the ingredients that are needed to make this vision real. One piece is just the massive scale of Cloud compute that we have. In the time it took to simulate the hundred materials, we can now simulate a million. The second ingredient is the amazing focus we recently made in generative AI. You can now generate text and images with natural language prompts. Just imagine a future where we can use the same technology to design materials and chemicals. With AI, scientists can start to understand the language of nature, with the quantum computers we will be able to speak it. Essentially a quantum computer works based on the same principles that nature works. That's why quantum supercomputer will be able to solve these problems precisely. Today we are on the threshold of a new age of scientific discovery."

Accelerating scientific discovery (microsoft.com)

Azure Quantum | Quantum coding with Copilot in Azure Quantum (microsoft.com)



namespace Quantum.Entanglement {

    open Microsoft.Quantum.Intrinsic;

    open Microsoft.Quantum.Diagnostics;


    @EntryPoint()

    operation EntangleQubits(): Unit {

        use q1 = Qubit();

        use q2 = Qubit();


        // Set the first qubit in superposition and then entangle it with the second qubit.

        H(q1);

        CNOT(q1, q2);


        // Explore the quantum state.

        DumpMachine();


        // Reset the qubits before releasing them.

        Reset(q1);

        Reset(q2);

    }

}





Azure Quantum Resources

+ Try Azure Quantum

Accelerate quantum computing innovation via the cloud. Get quantum hardware, software, and solutions in a single cloud service.

+ Azure Quantum Elements

A new service that accelerates scientific discovery by integrating the latest breakthroughs in HPC, AI and quantum computing. Register to learn more today.

+ Innovator series

Join the Quantum Innovator series to learn from Azure Quantum scientists and leaders about the path to quantum at scale.

+ Technical docs

Explore the Azure Quantum technical documentation including quick starts, tutorials, and API references. 

+ Quantum katas

Learn quantum computing and Q# programming with self-paced tutorials and exercises on GitHub. 

+ GitHub samples

Enhance your skillset and start building your first quantum solution with ready-to-use code samples on GitHub. 

+ Q# blog

Get the latest insights, announcements, and news from the Azure Quantum team.

+ University curriculum

Become a curriculum partner and request ready-to-teach university-level quantum computing curricula. 

Azure Quantum | Quantum coding with Copilot in Azure Quantum (microsoft.com)

https://quantum.microsoft.com/en-us/experience/quantum-coding

Microsoft achieves first milestone towards a quantum supercomputer - Microsoft Azure Quantum Blog

 https://cloudblogs.microsoft.com/quantum/2023/06/21/microsoft-achieves-first-milestone-towards-a-quantum-supercomputer/


Partner directory (microsoft.com)




Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés)

Customize your styles Cette Mise à Jour de Claude est EXCELLENTE ! (Styles Personnalisés) Claude a récemment eu une mise à j...