Q*, un modèle dotés de capacités mathématiques avancées d'#OpenAI.
Une querelle interne sur les méthodes pour atteindre l'#AGI ?
Lire la petite synthèse en fin de cet article.
Plus tôt cette semaine, une source interne de l'entreprise nous a confirmé l'existence d'un projet visant à atteindre l'AGI au sein d'OpenAI. En réalité, la start-up aurait travaillé sur deux modèles d'IA adverses pour atteindre l'AGI : A-bit pour l'optimisation de l'utilité, et B-bit pour l'alignement avec les valeurs humaines. Ilya Sutskever, chef de la section scientifique chez OpenAI, était mécontent des progrès insuffisants sur le modèle B-bit (aligné sur les valeurs humaines) et l'aurait signalé à plusieurs reprises lors de la dernière réunion générale.
Le projet controversé, nommé "Q*" et jusqu'alors tenu secret, serait considéré par certains chez OpenAI comme une possible percée majeure vers l'"intelligence artificielle générale" (AGI), ont confirmé plusieurs sources à Reuters.
Grâce à des ressources informatiques conséquentes, ce nouveau modèle serait capable de résoudre certains problèmes mathématiques très complexes, suscitant un grand optimisme parmi les chercheurs quant à son potentiel futur. La lettre pointait également les capacités et les dangers potentiels de l'IA pour l'humanité, sans pour autant préciser la nature exacte des risques pour la sécurité. La conquête des mathématiques étant perçue comme une frontière clé du développement de l'IA générative, la capacité de Q* à résoudre certains problèmes mathématiques laisserait présager de futures capacités de raisonnement se rapprochant de l'intelligence humaine.
OpenAI a reconnu, dans une communication interne, l'existence du projet Q* et de la missive adressée au conseil avant l'éviction de Sam Altman.
Or, Ilya Sutskever également membre du board aurait voté pour l'éviction de Sam Altman à la tête de l'entreprise.
Officiellement, le conseil d'administration d'OpenAI s'inquiétait du manque de transparence de Sam Altman dans sa communication et ses plans à long terme.
Reste à voir si Sam Altman, revenu à la tête d'OpenAI, en dira plus sur le sujet.
Petite synthèse :
OpenAI réalise une percée majeure dans l'AGI :Selon des sources anonymes, OpenAI aurait réalisé une avancée majeure dans l'intelligence artificielle générale (IAG).
Cette percée a conduit au renvoi de Sam Altman, PDG d'OpenAI, qui avait fait allusion à une avancée technique récente lors du sommet des PDG.
Des préoccupations ont été soulevées en interne concernant l'absence de mesures de protection pour la commercialisation de modèles d'IA avancés, en particulier un projet appelé "qar" ou Q.
Elon Musk exprime des inquiétudes :Elon Musk, une figure importante dans le domaine de l'IA, a exprimé des inquiétudes quant à la percée de l'AGI par OpenAI, soulignant son impact potentiel sur l'humanité.
Musk a partagé un article sur Twitter rapportant que les chercheurs d'OpenAI avaient averti le conseil d'une découverte puissante en matière d'IA.
Projet Qar et Focalisation sur l'AGI :Les employés d'OpenAI pensaient que le projet qar pourrait être une percée dans la recherche de l'intelligence artificielle générale (IAG).
OpenAI a recentré ses valeurs fondamentales sur l'AGI, s'engageant à construire une AGI sûre et bénéfique ayant un impact positif massif sur l'avenir de l'humanité.
Évolutivité prévisible et GPT-4 :Le projet #GPT-4 d'OpenAI impliquait la construction d'une pile d'apprentissage profond avec une évolutivité prévisible, permettant la prédiction des capacités du modèle avant l'entraînement.
Peter Welinder, ancien responsable de la recherche chez OpenAI, a souligné la capacité à prédire l'intelligence de GPT-4 avant l'entraînement comme un détail significatif.
Réalisation de l'AGI en interne :Les déclarations d'un informateur d'OpenAI, Jimmy Apples, suggéraient que l'AGI avait été réalisée en interne par OpenAI en septembre 2023.
Le PDG Sam Altman a ensuite confirmé la réalisation de l'AGI en interne, entraînant un changement de focalisation et de valeurs fondamentales d'OpenAI vers le développement de l'AGI.
Open Ai's Q* (Q Star) Explained For Beginners - TheaiGrid
•Le Q-learning est un type d'apprentissage par renforcement, qui est une méthode permettant d'apprendre aux ordinateurs à apprendre en les récompensant pour avoir pris de bonnes décisions et en les pénalisant parfois pour en avoir pris de mauvaises.
• C'est comme dresser un animal de compagnie : si l'animal fait quelque chose de bien (comme s'asseoir sur commande), vous lui donnez une friandise ; si cela fait quelque chose de moins bon (comme mâcher vos chaussures), vous pourriez dire « non » ou l’ignorer.
Environnement et agent : Dans Q-learning, vous disposez d'un "environnement" (comme un jeu vidéo ou un labyrinthe) et d'un "agent" (l'IA ou le programme informatique). qui doit apprendre à naviguer dans cet environnement.
États et actions : l'environnement est composé de différents "états" (comme différentes positions ou scénarios dans un jeu), et l'agent a une variété d'"actions" peut prendre dans chaque état (comme se déplacer à gauche, à droite, sauter, etc.).
La table Q : Le cœur du Q-learning est ce qu'on appelle une table Q. C'est comme un grand aide-mémoire qui indique à l'agent quelle action est la meilleure à entreprendre dans chaque état. Au début, ce tableau est rempli de suppositions car l'agent ne connaît pas encore l'environnement.
Apprendre en faisant : L'agent commence à explorer l'environnement. Chaque fois qu’il entreprend une action dans un état, il reçoit un retour de l’environnement – récompenses (points positifs) ou pénalités (points négatifs). Ces commentaires aident l'agent à mettre à jour la table Q, essentiellement en apprenant de l'expérience.
Mise à jour de la table Q : La table Q est mise à jour à l'aide d'une formule qui prend en compte la récompense actuelle ainsi que les récompenses futures potentielles. De cette façon, l'agent apprend non seulement à maximiser les récompenses immédiates, mais aussi à considérer les conséquences à long terme de ses actions.
L'objectif : Au fil du temps, avec suffisamment d'exploration et d'apprentissage, la table Q devient de plus en plus précise. L’agent devient meilleur dans sa capacité à prédire quelles actions produiront les récompenses les plus élevées dans différents états. Finalement, il peut naviguer dans l'environnement de manière très efficace.
Pensez au Q-learning comme à un jeu vidéo complexe où, au fil du temps, vous apprenez les meilleurs mouvements et stratégies pour obtenir le meilleur score. Au début, vous ne connaissez peut-être pas les meilleures actions à entreprendre, mais à mesure que vous jouez de plus en plus, vous apprenez de vos expériences et vous vous améliorez dans le jeu. C’est ce que fait l’IA avec Q-learning : elle apprend de ses expériences pour prendre les meilleures décisions dans différents scénarios.
Comparaison de « Gémeaux » et de Q*
Stratégie de prise de décision : les hypothétiques « Gémeaux » et Q* se concentreraient tous deux sur la prise des meilleures décisions possibles – « Gémeaux » en explorant différents chemins de conversation (recherche arborescente) et Q * grâce à l'apprentissage par renforcement et à l'adaptation.
Apprentissage et adaptation : Chaque système apprendrait de ses interactions. « Gémeaux » évaluerait différentes voies de réponse pour leur efficacité, tandis que Q* s'adapterait en fonction des récompenses et des commentaires.
Gestion de la complexité : Les deux approches devraient gérer la complexité et l'imprévisibilité du langage humain, ce qui nécessiterait des capacités avancées de compréhension et de génération.
------------------
Introduction à Q (Qstar) :*
La vidéo explore la percée Q* (Qstar) d'OpenAI, mettant l'accent sur son potentiel en tant que prochaine évolution dans les modèles linguistiques volumineux et l'intelligence artificielle.
Q* combine probablement des éléments de l'apprentissage Q, une technique d'apprentissage automatique utilisée dans l'apprentissage par renforcement, et de l'algorithme de recherche A*, en particulier issu de l'article de recherche AAR de 2019.
Simplification de l'apprentissage Q :
L'apprentissage Q est comparé à l'entraînement d'un robot super intelligent, où le 'Q' signifie la capacité de prendre des décisions et d'apprendre des expériences, similaire à la manière dont un joueur s'améliore dans un jeu vidéo au fil du temps.
La recherche AAR est expliquée comme une méthode pour trouver le chemin le plus court dans un labyrinthe, avec des applications en informatique et en intelligence artificielle pour résoudre divers problèmes.
Les six étapes de l'apprentissage Q :
L'apprentissage Q implique un agent dans un environnement, avec des états et des actions dictant les mouvements de l'agent.
La table Q agit comme une feuille de triche, guidant l'agent sur les meilleures actions pour chaque état.
L'apprentissage se produit lorsque l'agent explore l'environnement, reçoit des commentaires et met à jour la table Q en conséquence.
La table Q est continuellement mise à jour, en tenant compte à la fois des récompenses actuelles et futures potentielles, garantissant que les conséquences à long terme sont prises en compte dans la prise de décision.
Au fil du temps, avec l'exploration et l'apprentissage, la table Q devient plus précise, permettant à l'agent de naviguer efficacement dans l'environnement.
Comparaison avec les modèles linguistiques volumineux (LLMs) :
Q* est considéré comme une option future potentielle pour les grands modèles linguistiques en raison des limitations des LLMs.
Les LLMs présentent une dépendance aux données, nécessitant une quantité importante de données d'entraînement et ayant du mal à généraliser au-delà de leur ensemble d'entraînement.
Les LLMs ont des connaissances statiques et peuvent avoir du mal à comprendre des requêtes complexes ou spécifiques, ne pouvant pas mettre à jour leurs connaissances après l'entraînement.
Des problèmes de biais et d'équité peuvent survenir dans les LLMs en raison de données d'entraînement incomplètes ou biaisées.
Potentiel de Q et Comparaison avec les Modèles à Venir :*
Q* est présenté comme une solution pour surmonter les limitations des LLMs, offrant des processus de prise de décision plus efficaces et efficaces.
Une référence est faite à la sortie potentielle d'un modèle appelé Gemini, qui, s'il possède des capacités similaires à Q*, pourrait avoir un impact sur le domaine et être comparé à GPT-4.
OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2 La gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils. - ebook (ePub) - Erol Giraudy, Frank Poireau, Nabil Babaci, Kevin Trelohan, Etienne Legendre - Achat ebook | fnac.
Alors que nous arrivons à la fin de l’année 2023, presque tous les secteurs d’activité sont en pleine transformation collective, découvrant de toutes nouvelles méthodes de travail grâce aux progrès de l’IA. Microsoft Ignite est une vitrine des avancées développées pour aider les clients, les partenaires et les développeurs à tirer le meilleur parti de la technologie de Microsoft et à remodeler la façon dont le travail est effectué.
Alors que nous terminons l’année, il y a des signaux forts du potentiel de l’IA à transformer le travail. Prenez notre dernier indice des tendances du travail. Il y a huit mois, nous avons lancé Copilot pour Microsoft 365 afin de réduire la dette numérique et d’augmenter la productivité afin que les gens puissent se concentrer sur le travail qui est uniquement humain. Ce que tout le monde veut savoir maintenant, c’est : Copilot va-t-il vraiment changer le travail, et comment ? Notre recherche, à l’aide d’une combinaison d’enquêtes et d’expériences, montre que les gains de productivité sont réels :
70 % des utilisateurs de Copilot ont déclaré qu’ils étaient plus productifs et 68 % ont déclaré que cela améliorait la qualité de leur travail ; 68 % dis-le contribué à lancer le processus créatif.
Dans l’ensemble, les utilisateurs étaient 29 % plus rapides dans des tâches spécifiques (recherche, écriture et résumé).
Les utilisateurs ont rattrapé une réunion manquée près de 4 fois plus rapidement.
64 % des utilisateurs ont déclaré que Copilot les aidait à passer moins de temps à traiter leurs e-mails.
87 % des utilisateurs ont déclaré que Copilot facilitait la prise en main d’une première ébauche.
75 % des utilisateurs ont déclaré que Copilot « me fait gagner du temps en trouvant tout ce dont j’ai besoin dans mes fichiers ».
77 % des utilisateurs ont déclaré qu’une fois qu’ils ont utilisé Copilot, ils ne veulent plus l’abandonner.
Aujourd’hui, nous allons faire environ 100 annonces qui touchent à plusieurs niveaux d’une stratégie axée sur l’IA, de l’adoption à la productivité en passant par la sécurité. Nous allons nous concentrer sur quelques domaines d’impact clés ci-dessous.
Repenser l’infrastructure
Cloud Microsoft a été à l’avant-garde avec des avancées révolutionnaires telles que des partenariats avec OpenAI et l’intégration des capacités de ChatGPT dans des outils utilisés pour la recherche, la collaboration, le travail et l’apprentissage. Au fur et à mesure que nous accélérons dans l’IA, Microsoft repense l’infrastructure cloud pour assurer l’optimisation de chaque couche de la pile matérielle et logicielle.
Chez Ignite, nous annonçons de nouvelles innovations dans l’ensemble de notre parc de centres de données, notamment le dernier silicium optimisé pour l’IA de nos partenaires industriels et deux nouvelles puces conçues par Microsoft.
Microsoft Azure Maia, une puce d’accélérateur d’IA conçue pour exécuter une formation et une inférence basées sur le cloud pour les charges de travail d’IA telles que les modèles OpenAI, Bing, GitHub Copilot et ChatGPT.
Microsoft Azure Cobalt, une puce cloud native basée sur l’architecture Arm optimisée pour les performances, l’efficacité énergétique et la rentabilité pour les charges de travail à usage général.
De plus, nous annonçons la disponibilité générale d’Azure Boost, un système qui accélère le stockage et la mise en réseau en déplaçant ces processus des serveurs hôtes vers du matériel et des logiciels spécialement conçus.
En complément de notre silicium personnalisé (fibre), nous élargissons nos partenariats avec nos fournisseurs de silicium afin de fournir des options d’infrastructure à nos clients.
Nous allons ajouter des machines virtuelles (VM) accélérées AMD MI300X à Azure. Les machines virtuelles ND MI300 sont conçues pour accélérer le traitement des charges de travail d’IA pour l’entraînement de modèles d’IA à grande portée et l’inférence générative, et seront équipées du dernier GPU d’AMD, l’AMD Instinct MI300X.
L’aperçu de la nouvelle série de machines virtuelles NC H100 v5 conçue pour les GPU NVIDIA H100 Tensor Core, offrant des performances, une fiabilité et une efficacité accrues pour l’entraînement de l’IA de milieu de gamme et l’inférence d’IA générative. Nous annonçons également des plans pour la série de machines virtuelles ND H200 v5, une machine virtuelle optimisée pour l’IA et dotée du prochain GPU NVIDIA H200 Tensor Core.
Extension de l’expérience
Microsoft Copilot Au cours de l’année écoulée, nous avons continué à affiner notre vision de Microsoft Copilot, un ensemble d’outils qui aident les gens à en faire plus en utilisant l’IA. Pour aller au-delà de la productivité individuelle, nous étendons les offres Microsoft Copilot à des solutions afin de transformer la productivité et les processus métier pour chaque rôle et fonction, des employés de bureau et des travailleurs de première ligne aux développeurs et aux professionnels de l’informatique.
Microsoft est la société Copilot, et nous pensons qu’à l’avenir, il y aura un Copilot pour tout le monde et pour tout ce que vous faites. Voici quelques-unes de nos annonces et mises à jour liées à Copilot :
Microsoft Copilot pour Microsoft 365 : Ce mois-ci, Copilot pour Microsoft 365 est devenu généralement disponible pour les entreprises. Des clients comme Visa, BP, Honda et Pfizer et des partenaires comme Accenture, EY, KPMG, Kyndryl et PwC utilisent déjà Copilot. Nous continuons d’apporter une nouvelle valeur, sur la base des enseignements tirés de notre programme d’accès anticipé et d’autres canaux de recherche. Le nouveau tableau de bord Microsoft Copilot montre aux clients l’impact de Copilot sur leur organisation, grâce à des informations telles que celles de notre indice des tendances du travail. Nous introduisons de nouvelles fonctionnalités de personnalisation qui aident Copilot à proposer des réponses adaptées à vos préférences et à votre rôle. Pour favoriser le travail d’équipe, les nouvelles fonctionnalités de Copilot dans Outlook vous aident à préparer les réunions, et pendant les réunions, les nouvelles expériences de tableau blanc et de prise de notes pour Copilot dans Microsoft Teams permettent à tout le monde d’être sur la même longueur d’onde. Et les clients qui en ont besoin peuvent désormais utiliser Copilot lors d’une réunion sans rétention de la transcription. Lorsque vous donnez à Copilot une place à la table, cela va au-delà de votre rôle d’assistant personnel pour aider toute l’équipe - consultez le blog Microsoft 365 pour les mises à jour de la suite, y compris PowerPoint, Excel, Microsoft Viva et plus encore.
Microsoft Copilot Studio : La transformation de l’IA commence par l’exploitation des données et des flux de travail uniques d’une organisation. Microsoft Copilot Studio est un outil low-code conçu pour personnaliser Microsoft Copilot pour Microsoft 365 en intégrant des données stratégiques et en créant des copilotes personnalisés pour un usage interne ou externe. Copilot Studio fonctionne avec des connecteurs, des plugins et des GPT, ce qui permet aux équipes informatiques d’orienter Copilot vers les meilleures sources de données pour des requêtes spécifiques.
Microsoft Copilot pour le service : Le tout nouveau copilote à fournir une assistance basée sur les rôles aide les entreprises à accélérer la transformation de leur service client par l’IA. Copilot for Service inclut Microsoft Copilot pour Microsoft 365 et permet d’étendre les centres de contact existants grâce à l’IA générative. Lors des interactions avec les clients, les agents peuvent poser des questions à Copilot for Service en langage naturel et recevoir des informations pertinentes basées sur des sources de données provenant de référentiels de connaissances, ce qui permet des résolutions plus rapides et plus intelligentes.
Copilot dans Microsoft Dynamics 365 Guides : Combinant la puissance de l’IA générative et de la réalité mixte, ce copilote aide les travailleurs de première ligne à accomplir des tâches complexes et à résoudre les problèmes plus rapidement sans perturber le flux de travail. Disponible d’abord sur HoloLens 2, le copilote mains libres aidera les professionnels de l’industrie des services à utiliser le langage naturel et les gestes humains pour offrir des conseils interactifs grâce à du contenu et des hologrammes superposés à l’équipement.
Microsoft Copilot pour Azure : Il s’agit d’un compagnon d’IA pour l’informatique qui simplifie l’administration informatique quotidienne. Plus qu’un simple outil, il s’agit d’une expérience de chat unifiée qui comprend le rôle et les objectifs de l’utilisateur, et améliore la capacité à concevoir, exploiter et dépanner des applications et de l’infrastructure. Copilot for Azure aide les équipes informatiques à obtenir de nouvelles informations sur leurs charges de travail, à débloquer des fonctionnalités Azure inexploitées et à orchestrer les tâches à la fois dans le cloud et en périphérie.
Rendre Copilot accessible à tous : nos efforts pour simplifier l’expérience utilisateur et rendre Copilot plus accessible à tous commencent avec Bing, notre expérience leader pour le Web. Bing Chat et Bing Chat Enterprise deviendront désormais simplement Copilot. Avec ces modifications, lorsqu’ils sont connectés avec un ID Microsoft Entra, les clients qui utilisent Copilot dans Bing, Edge et Windows bénéficieront de la protection des données commerciales. Au fil du temps, Microsoft étendra également l’éligibilité de Copilot avec la protection commerciale des données à un plus grand nombre d’utilisateurs d’Entra ID (anciennement Azure Active Directory), sans frais supplémentaires. Copilot (anciennement Bing Chat et Bing Chat Enterprise) ne sera plus disponible en préversion et sera disponible pour tous à partir du 1er décembre. Pour en savoir plus, cliquez ici.
Renforcer le lien entre
Les données et l’IA La qualité de l’IA dépend des données qui l’alimentent. C’est pourquoi Microsoft s’engage à créer une expérience intégrée et simplifiée pour connecter vos données à nos outils d’IA.
Microsoft Fabric fait partie de cette solution. Disponible dès maintenant, Microsoft Fabric redéfinit la façon dont les équipes travaillent avec les données en rassemblant tout le monde sur une plateforme unique alimentée par l’IA qui unifie tous ces patrimoines de données sur une base de données de niveau entreprise.
Copilot dans Microsoft Fabric s’intègre également à Microsoft Office et Teams pour favoriser une culture des données afin de mettre à l’échelle la puissance de la création de valeur des données dans l’ensemble de l’organisation. Nous avons effectué plus de 100 mises à jour de fonctionnalités depuis Build et élargi notre écosystème avec des partenaires de premier plan, et plus de 25 000 clients, dont Milliman, Zeiss, London Stock Exchange et EY, l’utilisent aujourd’hui.
Libérer plus de valeur pour les développeurs avec Azure AI
Nous continuons d’élargir le choix et la flexibilité des modèles d’IA générative afin d’offrir aux développeurs la sélection la plus complète. AvecModel-as-a-Service, une nouvelle fonctionnalité du catalogue de modèles que nous avons annoncé lors de Microsoft Build, les développeurs professionnels pourront facilement intégrer les derniers modèles d’IA, tels que Llama 2 de Meta et les prochains modèles premium de Mistral, et Jais de G42, en tant que points de terminaison d’API à leurs applications. Ils peuvent également personnaliser ces modèles avec leurs propres données sans avoir à se soucier de la configuration et de la gestion de l’infrastructure GPU, ce qui permet d’éliminer la complexité.
Avec la préversion d’Azure AI Studio, il existe désormais une plateforme unifiée et fiable pour aider les organisations à explorer, créer, tester et déployer plus facilement des applications d’IA, le tout en un seul endroit. Avec Azure AI Studio, vous pouvez créer vos propres copilotes, former les vôtres ou ancrer d’autres modèles fondamentaux et ouverts avec les données que vous apportez.
De plus, la recherche vectorielle, une fonctionnalité d’Azure AI Search, est désormais généralement disponible, ce qui permet aux organisations de générer des expériences très précises pour chaque utilisateur dans leurs applications d’IA générative.
Le nouveau modèle GPT-3.5 Turbo avec une longueur d’invite de jeton de 16 Ko sera généralement disponible et GPT-4 Turbo sera en préversion publique dans Azure OpenAI Service à la fin du mois de novembre 2023. GPT-4 Turbo permettra aux clients d’étendre la durée des invites et d’apporter encore plus de contrôle et d’efficacité à leurs applications d’IA générative.
GPT-4 Turbo with Vision sera bientôt disponible en avant-première et DALL·E 3 est désormais disponible en préversion publique dans Azure OpenAI Service, ce qui permet d’alimenter la prochaine génération de solutions d’entreprise avec GPT-4, afin que les organisations puissent poursuivre des fonctionnalités avancées avec des images. Et lorsqu’il est utilisé avec notre service Azure AI Vision, GPT-4 Turbo with Vision comprend même la vidéo pour générer des sorties texte, ce qui favorise la créativité humaine.
Permettre un déploiement responsable de l’IA
Microsoft est le leader de l’industrie en matière d’utilisation sûre et responsable de l’IA. L’entreprise a établi la norme avec un engagement de premier plan dans l’industrie pour défendre et indemniser les clients commerciaux contre les poursuites pour violation du droit d’auteur - l’engagement Copilot Copyright (CCC).
Aujourd’hui, Microsoft va encore plus loin dans son engagement en annonçant l’extension du CCC aux clients utilisant Azure OpenAI Service. Le nouvel avantage s’appellera l’engagement du client en matière de droits d’auteur. Dans le cadre de cette expansion, Microsoft a publié une nouvelle documentation pour aider les clients d’Azure OpenAI Service à mettre en œuvre des mesures techniques visant à atténuer le risque de violation de contenu. Les clients devront se conformer à la documentation pour profiter de l’avantage.
De plus, Azure AI Content Safety est désormais disponible pour tous, ce qui permet aux organisations de détecter et d’atténuer les contenus préjudiciables et de créer de meilleures expériences en ligne. Les clients peuvent utiliser Azure AI Content Safety en tant que système de sécurité intégré dans Azure OpenAI Service, pour les modèles open source dans le cadre de leur ingénierie d’invite dans Azure Machine Learning ou en tant que service d’API autonome.
Introduction de nouvelles expériences dans Windows pour responsabiliser les employés, le service informatique et les développeurs
De fonderie d’IA NVIDIA Dans le but d’aider les entreprises et les startups à accélérer le développement, le réglage et le déploiement de leurs propres modèles d’IA personnalisés sur Microsoft Azure, NVIDIA annoncera son service de fonderie d’IA fonctionnant sur Azure. Le service de fonderie d’IA de NVIDIA rassemble trois éléments – une collection de modèles NVIDIA AI Foundation, le framework et les outils NVIDIA NeMo, ainsi que le supercalcul et les services d’IA en nuage NVIDIA DGX – qui offrent aux entreprises une solution de bout en bout pour créer des modèles d’IA générative personnalisés. Les entreprises peuvent ensuite déployer leurs modèles avec le logiciel NVIDIA AI Enterprise sur Azure pour alimenter des applications d’IA générative, notamment la recherche intelligente, le résumé et la génération de contenu.
Renforcer les défenses à l’ère de l’IA
Le paysage des menaces a considérablement évolué ces dernières années, et chez Microsoft Ignite, nous introduisons de nouvelles technologies dans la suite de solutions de sécurité de Microsoft pour aider les défenseurs à rendre le monde plus sûr.
Microsoft Sentinel et Microsoft Defender XDR (anciennement Microsoft 365 Defender) seront combinés pour créer la première plateforme d’opérations de sécurité unifiée du secteur, avec des expériences Security Copilot intégrées. Grâce à l’IA générative intégrée, il s’agit d’une expérience unique et puissante axée sur la protection des menaces à la vitesse de la machine et sur l’aide aux défenseurs en simplifiant la complexité de leur environnement.
En outre, l’extension de Security Copilot intégré à Intune, Purview et Entra aidera les administrateurs informatiques, les unités de conformité et les équipes d’identité à simplifier les scénarios complexes. Dans Entra, les administrateurs d’identité peuvent rapidement résoudre les problèmes d’accès aux identités. Dans Purview, les alertes de sécurité des données fournissent un contexte riche pour aider à résoudre les problèmes plus rapidement. Dans Intune, les administrateurs informatiques peuvent utiliser l’analyse de simulation pour assurer le bon fonctionnement de l’entreprise tout en améliorant la gouvernance et la conformité.
Et ce n’est qu’un aperçu de ce que nous annoncerons à Ignite. Pour rappel, vous pouvez visionner les sessions de Satya Nadella, Rajesh Jha et Jared Spataro, Charlie Bell et Vasu Jakkal, et Scott Guthrie en direct ou à la demande.
De plus, vous pouvez en savoir plus sur toutes ces annonces en explorant le Book of News, le recueil officiel de toutes les nouvelles d’aujourd’hui, et les blogs de produits ci-dessous.
Une déclaration du président et chef de la direction de Microsoft, Satya Nadella du 17 novembre 2023 | Blogs d’entreprise Microsoft
Comme vous l’avez vu lors de Microsoft Ignite cette semaine, nous continuons d’innover rapidement pour cette ère de l’IA, avec plus de 100 annonces sur l’ensemble de la pile technologique, des systèmes, modèles et outils d’IA dans Azure à Copilot. Plus important encore, nous nous engageons à offrir tout cela à nos clients tout en construisant pour l’avenir. Nous avons un accord à long terme avec OpenAI avec un accès complet à tout ce dont nous avons besoin pour mener à bien notre programme d’innovation et une feuille de route de produit passionnante ; et nous restons attachés à notre partenariat, ainsi qu’à Mira et à l’équipe. Ensemble, nous continuerons d’offrir au monde entier les avantages significatifs de cette technologie.