Affichage des articles dont le libellé est Anthropic. Afficher tous les articles
Affichage des articles dont le libellé est Anthropic. Afficher tous les articles

lundi 24 mars 2025

"Terminés les APIs, place au MCP pour les agents IA".

"Terminés les APIs, place au MCP pour les agents IA".

Le protocole MCP (Model Context Protocol) est un protocole conçu pour interagir avec les outils et les cadres d’ingénierie des systèmes basés sur les modèles (MBSE). Il permet l’échange de données et de modèles entre différents outils et systèmes, facilitant ainsi l’intégration et l’interopérabilité de divers outils MBSE de manière transparente et efficace.

Principales caractéristiques de MCP :

  1. Interopérabilité : MCP permet à différents outils MBSE de communiquer et d’échanger des modèles et des données, ce qui permet un environnement d’ingénierie plus intégré et plus cohérent.
  2. Normalisation : MCP fournit un protocole standardisé pour l’échange de modèles, garantissant la cohérence et la compatibilité entre les différents outils et plateformes.
  3. Évolutivité : MCP est conçu pour gérer des modèles volumineux et complexes, ce qui le rend adapté aux projets d’ingénierie à grande échelle.
  4. Extensibilité : MCP peut être étendu pour prendre en charge de nouveaux types de modèles et de données, ce qui lui permet d’évoluer avec les besoins de la communauté des ingénieurs.

Composants du MCP :

  • MCP Core : Le protocole de base qui définit les règles et les mécanismes de base pour l’échange de modèles.
  • Extensions MCP : modules supplémentaires qui étendent le protocole de base pour prendre en charge des types spécifiques de modèles ou de données.
  • Adaptateurs MCP : interfaces qui connectent MCP à divers outils MBSE, leur permettant de communiquer à l’aide du protocole.

Avantages du MCP :

  • Amélioration de la collaboration : MCP facilite la collaboration entre les différentes équipes et outils, ce qui permet un processus d’ingénierie plus efficace et mieux coordonné.
  • Réduction des erreurs : en fournissant un protocole standardisé, MCP réduit le risque d’erreurs et d’incohérences dans l’échange de modèles.
  • Flexibilité accrue : MCP permet aux ingénieurs d’utiliser les meilleurs outils pour leurs besoins spécifiques, sans être limités par des problèmes de compatibilité.

Le Model Context Protocol (MCP) 

Il représente une avancée majeure dans la communication entre agents d'intelligence artificielle et outils externes. Développé par Anthropic, la société derrière Claude, ce protocole vise à remplacer les appels API traditionnels par un système de communication plus fluide et efficace.

Jusqu'à présent, les agents IA comme ChatGPT devaient s'appuyer sur des appels API pour accéder à des fonctionnalités externes, comme Canva par exemple. Cette méthode, bien qu'efficace, souffre de limitations importantes en termes de latence et de fluidité d'interaction, particulièrement problématiques dans le contexte des agents IA qui nécessitent des échanges rapides et naturels.

Le MCP introduit une architecture client-serveur où l'utilisateur installe le client MCP sur sa plateforme d'agent (comme Claude Desktop ou Winsurf), qui communique ensuite avec les serveurs MCP pour différents outils. L'écosystème MCP s'étend déjà à de nombreux services, incluant la navigation web (Brave), l'intégration AWS, le scraping de données (Puppeteer), l'accès aux bases de données (AirTable, BigQuery), et des intégrations avec Discord, Docker, Spotify, et bien d'autres.

La vidéo présente une démonstration pratique de l'installation du MCP sur Winsurf, montrant la simplicité du processus qui consiste à ajouter une configuration client MCP à un fichier config.json. Deux exemples d'utilisation sont présentés : l'accès à des enregistrements AirTable et le scraping de produits Amazon à l'aide de Puppeteer pour créer une page d'affiliation.

Winsurf propose également une nouvelle fonctionnalité de prévisualisation qui permet de visualiser directement le résultat du travail de l'agent, démontrant ainsi le flux de travail intégré.

Malgré quelques difficultés rencontrées avec l'outil Puppeteer lors de la démonstration, le présentateur souligne que le MCP constitue une révolution dans le développement d'agents IA plus performants, et qu'il deviendra probablement la norme pour les communications entre agents et outils externes en 2025.

✅ Comment le MCP simplifie les interactions sans passer par des appels API lents

✅ Son intégration avec Claude (Anthropic), Windsurf, et d'autres plateformes

✅ Des démonstrations pratiques pour comprendre son potentiel énorme

✅ Les outils et intégrations déjà compatibles avec le MCP

Installation des fonctions MCP sur Claude :

Pour installer et utiliser les fonctions MCP (Model Context Protocol) sur Claude, vous devez suivre plusieurs étapes spécifiques. Le protocole MCP est conçu pour permettre aux agents IA comme Claude de communiquer plus efficacement avec des outils externes, remplaçant ainsi les appels API traditionnels par une communication plus fluide.

Model Context Protocol (MCP) - Anthropic

https://docs.anthropic.com/en/docs/agents-and-tools/mcp?q=Model+Context+Protocol


Introduction - Model Context Protocol

https://modelcontextprotocol.io/introduction#tutorials

Prérequis :

Avant tout, il est important de noter que Claude prend en charge le MCP uniquement sur sa version desktop (application bureau) et non sur la version web. Vous aurez donc besoin de :

  1. L'application Claude Desktop installée sur votre ordinateur

  2. Un compte Anthropic avec accès à Claude

  3. For Claude Desktop Users - Model Context Protocol  https://modelcontextprotocol.io/quickstart/user

Étapes d'installation :

1. Télécharger Claude Desktop

Si vous ne l'avez pas déjà fait, téléchargez et installez l'application Claude Desktop depuis le site officiel d'Anthropic. Cette application est nécessaire car la version web de Claude ne prend pas en charge le protocole MCP.

2. Installer le client MCP

Une fois l'application Claude Desktop installée, vous devez configurer le client MCP :

  • Ouvrez l'application Claude Desktop

  • Accédez aux paramètres de l'application (généralement disponible via un menu en haut à droite ou dans les préférences)

  • Recherchez la section relative aux extensions, plugins ou MCP

  • Activez l'option pour permettre l'utilisation du protocole MCP

3. Ajouter des outils MCP spécifiques

Après avoir activé le protocole MCP, vous pouvez ajouter des outils MCP spécifiques :

  • Dans la section MCP des paramètres, recherchez l'option pour ajouter de nouveaux outils MCP

  • Vous pouvez ajouter des outils depuis le référentiel officiel MCP (comme mentionné dans la vidéo, de nombreux outils sont disponibles sur GitHub)

  • Pour chaque outil, vous devrez fournir les informations de configuration nécessaires, comme les clés API si l'outil en requiert

4. Configuration du fichier MCP

Selon l'interface de Claude Desktop, vous pourriez avoir besoin de configurer un fichier JSON pour chaque outil MCP, similaire à ce qui a été montré dans la vidéo pour Winsurf. Ce fichier inclut généralement :

{

"name": "nom_de_l_outil",

"description": "description_de_l_outil",

"scope": ["permissions_nécessaires"],

"credentials": {

"token": "votre_clé_api_si_nécessaire"

}

}



Application de bureau Claude

L’application de bureau Claude fournit une prise en charge complète de MCP, permettant une intégration profonde avec les outils et les sources de données locaux.

Caractéristiques principales :

  • Prise en charge complète des ressources, permettant de joindre des fichiers et des données locaux
  • Prise en charge des modèles d’invite
  • Intégration d’outils pour l’exécution de commandes et de scripts
  • Connexions au serveur local pour une confidentialité et une sécurité accrues

(i) Remarque : L’application Web Claude.ai ne prend actuellement pas en charge la MCP. Les fonctionnalités MCP ne sont disponibles que dans l’application de bureau.

5. Vérification et utilisation

Une fois les outils configurés :

  • Redémarrez l'application Claude Desktop pour que les changements prennent effet

  • Vérifiez que les outils MCP sont disponibles en posant une question à Claude qui nécessiterait l'utilisation d'un des outils installés

  • Claude devrait être capable d'utiliser automatiquement les outils MCP pour répondre à vos questions

Exemples de cas d’utilisation :

Une fois installé, vous pourriez par exemple demander à Claude :

  • "Utilise Puppeteer MCP pour extraire les données des 10 smartphones les plus vendus sur Amazon"

  • "Via le MCP AirTable, montre-moi les enregistrements de ma table 'Projets'"

Claude utilisera alors le protocole MCP pour communiquer directement avec ces outils et vous fournir les informations demandées de manière fluide.

  • Intégration de modèles multi-outils : intégration de modèles de différents outils MBSE dans un seul modèle cohérent.
  • Échange automatisé de modèles : Automatisation de l’échange de modèles entre les outils, réduction des efforts manuels et augmentation de l’efficacité.
  • Validation et vérification des modèles : Utilisation de MCP pour valider et vérifier les modèles sur différents outils et plateformes.

Si vous rencontrez des difficultés, consultez la documentation officielle d'Anthropic concernant le MCP ou cherchez des tutoriels détaillés, car les interfaces et procédures exactes peuvent évoluer avec les mises à jour de l'application.

Les liens officiels vers la documentation du MCP (Model Context Protocol) d'Anthropic.

Permettez-moi de vous apporter quelques précisions importantes.

Pour la documentation officielle d'Anthropic concernant le MCP, vous devriez consulter leur site de documentation à l'adresse suivante: https://docs.anthropic.com/

Cependant, je dois vous informer que ma connaissance sur les spécificités de l'implémentation actuelle du MCP par Anthropic peut être limitée ou pas totalement à jour, car ma dernière mise à jour de connaissances date d'octobre 2024.

Et aussi :

Changing the AI model for Copilot Chat - GitHub Docs


Using the CodeQL model editor - GitHub Docs

https://docs.github.com/en/code-security/codeql-for-vs-code/using-the-advanced-functionality-of-the-codeql-for-vs-code-extension/using-the-codeql-model-editor

Pour les tutoriels les plus récents et détaillés, je vous recommande également de consulter:

  1. Le GitHub officiel d'Anthropic: https://github.com/anthropics - Vous y trouverez potentiellement des référentiels liés au MCP

  2. Le forum de développeurs d'Anthropic


Commencez à utiliser des serveurs prédéfinis dans Claude pour ordinateur.

Dans ce tutoriel, vous allez étendre Claude pour le bureau afin qu’il puisse lire à partir du système de fichiers de votre ordinateur, écrire de nouveaux fichiers, déplacer des fichiers et même rechercher des fichiers.

For Claude Desktop Users - Model Context Protocol


Pourquoi MCP ?

MCP vous aide à créer des agents et des flux de travail complexes au-dessus des LLM. Les LLM ont souvent besoin de s’intégrer aux données et aux outils, et MCP fournit les avantages suivants :
  • Une liste croissante d’intégrations prédéfinies auxquelles votre LLM peut se connecter directement

  • La flexibilité de passer d’un fournisseur à un autre fournisseur de LLM

  • Les bonnes pratiques pour sécuriser vos données au sein de votre infrastructure

Architecture générale

À la base, MCP suit une architecture client-serveur où une application hôte peut se connecter à plusieurs serveurs

  • Hôtes MCP : programmes tels que Claude Desktop, IDE ou outils d’IA qui souhaitent accéder aux données via MCP

  • Clients MCP : clients de protocole qui maintiennent des connexions 1:1 avec les serveurs

  • Serveurs MCP : programmes légers qui exposent chacun des capacités spécifiques via le protocole standardisé Model Context Protocol

  • Sources de données locales : fichiers, bases de données et services de votre ordinateur auxquels les serveurs MCP peuvent accéder en toute sécurité

  • Services à distance : systèmes externes disponibles sur Internet (par exemple, via des API) auxquels les serveurs MCP peuvent se connecter

Le Model Context Protocol (MCP) est une norme ouverte innovante qui révolutionne l’intégration des grands modèles de langage (LLM) avec des outils et des sources de données externes. Tout comme les API ont normalisé les interactions Web et le protocole LSP (Language Server Protocol) a rationalisé les fonctionnalités de l’IDE, MCP établit un cadre universel pour que les applications d’IA interagissent avec des systèmes externes.

MCP sert de « port USB-C pour les applications d’IA », fournissant une interface standardisée pour connecter des modèles d’IA à diverses sources de données et outils. Ce protocole relève le défi critique de la gestion du contexte dans les déploiements LLM, permettant des performances plus efficaces et cohérentes à mesure que les systèmes d’IA évoluent.

Les principales caractéristiques de MCP sont les suivantes :

  1. Intégration transparente entre les applications LLM et les ressources externes
  2. Communication standardisée pour le partage d’informations contextuelles avec des modèles de langage
  3. Exposition des outils et des capacités aux systèmes d’IA
  4. Création d’intégrations et de flux de travail composables

En mettant en œuvre MCP, les développeurs peuvent se concentrer sur la création de fonctionnalités de base plutôt que sur la gestion d’une logique d’intégration complexe, ce qui se traduit par des systèmes d’IA plus robustes et plus faciles à maintenir. Cette standardisation simplifie le processus de connexion de nouveaux outils et sources de données, réduisant ainsi la complexité du développement et améliorant l’évolutivité.

Alors que le paysage de l’IA continue d’évoluer, l’approche de norme ouverte de MCP promet de stimuler l’innovation et la collaboration dans l’ensemble du secteur, tout comme les API et les LSP ont transformé le développement Web et les fonctionnalités IDE.

modelcontextprotocol/python-sdk: The official Python SDK for Model Context Protocol servers and clients


-------------------------------------------------------------

Erol GIRAUDY

YouTube mes vidéos et PowerPoint :


dimanche 21 juillet 2024

Anthropic propose une bibliothèque de prompts :

 Anthropic propose une bibliothèque de prompts :


Anthropic propose effectivement une bibliothèque de prompts optimisés pour diverses tâches. Cette ressource vise à aider les utilisateurs à tirer le meilleur parti des capacités de Claude. Voici les principaux points à retenir :
  1. Objectif : Fournir des exemples de prompts efficaces pour une variété de tâches professionnelles et personnelles.

  2. Contenu : Des prompts prédéfinis couvrant différents domaines d'application.

  3. Organisation : Probablement classés par catégories ou types de tâches pour faciliter la navigation.

  4. Contribution des utilisateurs :

    • Les utilisateurs peuvent soumettre leurs propres prompts via un formulaire dédié.

    • Ces prompts soumis par les utilisateurs sont visuellement distincts, avec un arrière-plan sombre et des icônes de couleur claire.

    • Actuellement, il semble qu'aucun prompt utilisateur n'ait encore été intégré.

  5. Utilité : Ces prompts servent d'inspiration et de point de départ pour formuler des requêtes efficaces à Claude.

  6. Accessibilité : Cette bibliothèque est vraisemblablement accessible sur le site web d'Anthropic.

Il est important de noter que je n'ai pas d'accès direct à cette bibliothèque et que mes informations se basent sur votre description. Pour des détails plus précis ou à jour, je vous recommande de consulter directement le site d'Anthropic.

L'importance de l'API (Interface de Programmation d'Application) dans le contexte de la bibliothèque de prompts d'Anthropic est en effet un sujet crucial. Voici une analyse de son importance :

  1. Intégration flexible :

    • Une API permet aux développeurs d'intégrer directement les fonctionnalités de Claude dans leurs propres applications ou services.

    • Cela ouvre la possibilité d'utiliser les prompts optimisés de manière programmatique, sans passer par l'interface web.

  2. Automatisation :

    • Les entreprises peuvent automatiser certaines tâches en utilisant les prompts via l'API, augmentant ainsi l'efficacité opérationnelle.

    • Par exemple, un traitement automatique de documents ou une génération de contenu à grande échelle devient possible.

  3. Personnalisation :

    • L'API permet aux développeurs de créer des interfaces sur mesure pour utiliser les prompts, adaptées aux besoins spécifiques de leur entreprise ou de leurs utilisateurs.

  4. Scalabilité :

    • L'utilisation de l'API facilite le passage à l'échelle, permettant de traiter un grand volume de requêtes de manière efficace.

  5. Mise à jour en temps réel :

    • Si l'API donne accès à la bibliothèque de prompts, les développeurs peuvent toujours utiliser les derniers prompts optimisés sans avoir à mettre à jour manuellement leur base de données.

  6. Sécurité et contrôle :

    • L'API peut offrir des mécanismes d'authentification et d'autorisation, permettant un contrôle précis sur qui peut accéder aux prompts et comment.

  7. Analyse et suivi :

    • L'utilisation de l'API peut faciliter le suivi de l'utilisation des prompts, permettant aux entreprises d'analyser quels types de prompts sont les plus efficaces pour leurs besoins.

  8. Écosystème de développement :

    • Une API robuste peut encourager la création d'un écosystème de développeurs autour de la plateforme d'Anthropic, stimulant l'innovation et l'expansion des cas d'utilisation.

Il est important de noter que ces points sont basés sur l'importance générale des APIs dans des contextes similaires. Pour des informations spécifiques sur l'API d'Anthropic et ses fonctionnalités exactes en relation avec la bibliothèque de prompts, il serait préférable de consulter la documentation officielle d'Anthropic.

Bien entendu, j’ai un compte payant sur C35S.


Premiers pas :

Accéder à l’API

L’API est disponible via notre Console web. Vous pouvez utiliser le Workbench pour essayer l’API dans le navigateur, puis générer des clés API dans les Paramètres du compte.

Authentification

Toutes les requêtes à l’API Anthropic doivent inclure un en-tête x-api-key avec votre clé API. Si vous utilisez les SDK clients, vous définirez l’API lors de la construction d’un client, puis le SDK enverra l’en-tête en votre nom avec chaque requête. Si vous vous intégrez directement à l’API, vous devrez envoyer cet en-tête vous-même.

Shell

curl https://api.anthropic.com/v1/messages --header "x-api-key: YOUR_API_KEY" ...

Types de contenu :

L’API Anthropic accepte toujours du JSON dans les corps de requête et renvoie du JSON dans les corps de réponse. Vous devrez envoyer l’en-tête content-type: application/json dans les requêtes. Si vous utilisez les SDK clients, cela sera automatiquement pris en charge.

Premiers pas - Anthropic

Anthropic Console

Bibliothèque - Anthropic




Bibliothèque de prompts :

Citez vos sources

Obtenez des réponses aux questions sur le contenu d’un document avec des citations pertinentes à l’appui de la réponse.

Vous êtes un assistant de recherche expert. Voici un document sur lequel vous répondrez aux questions :
[Texte complet du dépôt SEC 10-K 2023 de Matterport, non collé ici par souci de concision]

Tout d’abord, trouvez les citations du document qui sont les plus pertinentes pour répondre à la question, puis imprimez-les dans l’ordre numérique. Les citations doivent être relativement courtes.

S’il n’y a pas de citations pertinentes, écrivez plutôt “Aucune citation pertinente”.

Ensuite, répondez à la question en commençant par “Réponse :“. N’incluez pas et ne faites pas référence au contenu cité mot pour mot dans la réponse. Ne dites pas “Selon la citation [1]” lorsque vous répondez. Au lieu de cela, faites référence aux citations pertinentes pour chaque section de la réponse uniquement en ajoutant leurs numéros entre crochets à la fin des phrases pertinentes.

Ainsi, le format de votre réponse globale devrait ressembler à ce qui est montré entre les balises . Assurez-vous de suivre exactement le formatage et l’espacement.
Citations :
[1] “La société X a déclaré un chiffre d’affaires de 12 millions de dollars en 2021.”
[2] “Près de 90 % du chiffre d’affaires provenait des ventes de widgets, les ventes de gadgets représentant les 10 % restants.”

Réponse :
La société X a gagné 12 millions de dollars. [1] Près de 90 % provenaient des ventes de widgets. [2]

Si la question ne peut pas être répondue par le document, dites-le.

Citez vos sources - Anthropic

Requête API :

Note : Claude 3 Opus sera bientôt disponible dans l’API Bedrock.

import anthropic

client = anthropic.Anthropic( # defaults to os.environ.get("ANTHROPIC_API_KEY")

api_key="my_api_key",

)

message = client.messages.create(

model="claude-3-opus-20240229",

max_tokens=2000,

temperature=0,

system="Vous êtes un assistant de recherche expert. Voici un document sur lequel vous répondrez aux questions : \n<doc> \n[Texte complet du [dépôt SEC 10-K 2023 de Matterport](https://investors.matterport.com/node/9501/html), non collé ici par souci de concision] \n</doc> \n \nTout d'abord, trouvez les citations du document qui sont les plus pertinentes pour répondre à la question, puis imprimez-les dans l'ordre numérique. Les citations doivent être relativement courtes. \n \nS'il n'y a pas de citations pertinentes, écrivez plutôt \"Aucune citation pertinente\". \n \nEnsuite, répondez à la question en commençant par \"Réponse :\". N'incluez pas et ne faites pas référence au contenu cité mot pour mot dans la réponse. Ne dites pas \"Selon la citation [1]\" lorsque vous répondez. Au lieu de cela, faites référence aux citations pertinentes pour chaque section de la réponse uniquement en ajoutant leurs numéros entre crochets à la fin des phrases pertinentes. \n \nAinsi, le format de votre réponse globale devrait ressembler à ce qui est montré entre les balises <example></example>. Assurez-vous de suivre exactement le formatage et l'espacement. \n<example> \nCitations : \n[1] \"La société X a déclaré un chiffre d'affaires de 12 millions de dollars en 2021.\" \n[2] \"Près de 90 % du chiffre d'affaires provenait des ventes de widgets, les ventes de gadgets représentant les 10 % restants.\" \n \nRéponse : \nLa société X a gagné 12 millions de dollars. [1] Près de 90 % provenaient des ventes de widgets. [2] \n</example> \n \nSi la question ne peut pas être répondue par le document, dites-le.",

messages=[

{

"role": "user",

"content": [

{

"type": "text",

"text": "Est-ce que Matterport se porte bien ?"

}

]

}

]

)

print(message.content)




Tableau de bord pour l'analyse des cotations boursières des grandes entreprises

T2BI-IA pour l'analyse des cotations boursières des grandes entreprises. Voici une version résumée afin de présenter ce projet : Objecti...