Affichage des articles dont le libellé est API. Afficher tous les articles
Affichage des articles dont le libellé est API. Afficher tous les articles

lundi 24 mars 2025

"Terminés les APIs, place au MCP pour les agents IA".

"Terminés les APIs, place au MCP pour les agents IA".

Le protocole MCP (Model Context Protocol) est un protocole conçu pour interagir avec les outils et les cadres d’ingénierie des systèmes basés sur les modèles (MBSE). Il permet l’échange de données et de modèles entre différents outils et systèmes, facilitant ainsi l’intégration et l’interopérabilité de divers outils MBSE de manière transparente et efficace.

Principales caractéristiques de MCP :

  1. Interopérabilité : MCP permet à différents outils MBSE de communiquer et d’échanger des modèles et des données, ce qui permet un environnement d’ingénierie plus intégré et plus cohérent.
  2. Normalisation : MCP fournit un protocole standardisé pour l’échange de modèles, garantissant la cohérence et la compatibilité entre les différents outils et plateformes.
  3. Évolutivité : MCP est conçu pour gérer des modèles volumineux et complexes, ce qui le rend adapté aux projets d’ingénierie à grande échelle.
  4. Extensibilité : MCP peut être étendu pour prendre en charge de nouveaux types de modèles et de données, ce qui lui permet d’évoluer avec les besoins de la communauté des ingénieurs.

Composants du MCP :

  • MCP Core : Le protocole de base qui définit les règles et les mécanismes de base pour l’échange de modèles.
  • Extensions MCP : modules supplémentaires qui étendent le protocole de base pour prendre en charge des types spécifiques de modèles ou de données.
  • Adaptateurs MCP : interfaces qui connectent MCP à divers outils MBSE, leur permettant de communiquer à l’aide du protocole.

Avantages du MCP :

  • Amélioration de la collaboration : MCP facilite la collaboration entre les différentes équipes et outils, ce qui permet un processus d’ingénierie plus efficace et mieux coordonné.
  • Réduction des erreurs : en fournissant un protocole standardisé, MCP réduit le risque d’erreurs et d’incohérences dans l’échange de modèles.
  • Flexibilité accrue : MCP permet aux ingénieurs d’utiliser les meilleurs outils pour leurs besoins spécifiques, sans être limités par des problèmes de compatibilité.

Le Model Context Protocol (MCP) 

Il représente une avancée majeure dans la communication entre agents d'intelligence artificielle et outils externes. Développé par Anthropic, la société derrière Claude, ce protocole vise à remplacer les appels API traditionnels par un système de communication plus fluide et efficace.

Jusqu'à présent, les agents IA comme ChatGPT devaient s'appuyer sur des appels API pour accéder à des fonctionnalités externes, comme Canva par exemple. Cette méthode, bien qu'efficace, souffre de limitations importantes en termes de latence et de fluidité d'interaction, particulièrement problématiques dans le contexte des agents IA qui nécessitent des échanges rapides et naturels.

Le MCP introduit une architecture client-serveur où l'utilisateur installe le client MCP sur sa plateforme d'agent (comme Claude Desktop ou Winsurf), qui communique ensuite avec les serveurs MCP pour différents outils. L'écosystème MCP s'étend déjà à de nombreux services, incluant la navigation web (Brave), l'intégration AWS, le scraping de données (Puppeteer), l'accès aux bases de données (AirTable, BigQuery), et des intégrations avec Discord, Docker, Spotify, et bien d'autres.

La vidéo présente une démonstration pratique de l'installation du MCP sur Winsurf, montrant la simplicité du processus qui consiste à ajouter une configuration client MCP à un fichier config.json. Deux exemples d'utilisation sont présentés : l'accès à des enregistrements AirTable et le scraping de produits Amazon à l'aide de Puppeteer pour créer une page d'affiliation.

Winsurf propose également une nouvelle fonctionnalité de prévisualisation qui permet de visualiser directement le résultat du travail de l'agent, démontrant ainsi le flux de travail intégré.

Malgré quelques difficultés rencontrées avec l'outil Puppeteer lors de la démonstration, le présentateur souligne que le MCP constitue une révolution dans le développement d'agents IA plus performants, et qu'il deviendra probablement la norme pour les communications entre agents et outils externes en 2025.

✅ Comment le MCP simplifie les interactions sans passer par des appels API lents

✅ Son intégration avec Claude (Anthropic), Windsurf, et d'autres plateformes

✅ Des démonstrations pratiques pour comprendre son potentiel énorme

✅ Les outils et intégrations déjà compatibles avec le MCP

Installation des fonctions MCP sur Claude :

Pour installer et utiliser les fonctions MCP (Model Context Protocol) sur Claude, vous devez suivre plusieurs étapes spécifiques. Le protocole MCP est conçu pour permettre aux agents IA comme Claude de communiquer plus efficacement avec des outils externes, remplaçant ainsi les appels API traditionnels par une communication plus fluide.

Model Context Protocol (MCP) - Anthropic

https://docs.anthropic.com/en/docs/agents-and-tools/mcp?q=Model+Context+Protocol


Introduction - Model Context Protocol

https://modelcontextprotocol.io/introduction#tutorials

Prérequis :

Avant tout, il est important de noter que Claude prend en charge le MCP uniquement sur sa version desktop (application bureau) et non sur la version web. Vous aurez donc besoin de :

  1. L'application Claude Desktop installée sur votre ordinateur

  2. Un compte Anthropic avec accès à Claude

  3. For Claude Desktop Users - Model Context Protocol  https://modelcontextprotocol.io/quickstart/user

Étapes d'installation :

1. Télécharger Claude Desktop

Si vous ne l'avez pas déjà fait, téléchargez et installez l'application Claude Desktop depuis le site officiel d'Anthropic. Cette application est nécessaire car la version web de Claude ne prend pas en charge le protocole MCP.

2. Installer le client MCP

Une fois l'application Claude Desktop installée, vous devez configurer le client MCP :

  • Ouvrez l'application Claude Desktop

  • Accédez aux paramètres de l'application (généralement disponible via un menu en haut à droite ou dans les préférences)

  • Recherchez la section relative aux extensions, plugins ou MCP

  • Activez l'option pour permettre l'utilisation du protocole MCP

3. Ajouter des outils MCP spécifiques

Après avoir activé le protocole MCP, vous pouvez ajouter des outils MCP spécifiques :

  • Dans la section MCP des paramètres, recherchez l'option pour ajouter de nouveaux outils MCP

  • Vous pouvez ajouter des outils depuis le référentiel officiel MCP (comme mentionné dans la vidéo, de nombreux outils sont disponibles sur GitHub)

  • Pour chaque outil, vous devrez fournir les informations de configuration nécessaires, comme les clés API si l'outil en requiert

4. Configuration du fichier MCP

Selon l'interface de Claude Desktop, vous pourriez avoir besoin de configurer un fichier JSON pour chaque outil MCP, similaire à ce qui a été montré dans la vidéo pour Winsurf. Ce fichier inclut généralement :

{

"name": "nom_de_l_outil",

"description": "description_de_l_outil",

"scope": ["permissions_nécessaires"],

"credentials": {

"token": "votre_clé_api_si_nécessaire"

}

}



Application de bureau Claude

L’application de bureau Claude fournit une prise en charge complète de MCP, permettant une intégration profonde avec les outils et les sources de données locaux.

Caractéristiques principales :

  • Prise en charge complète des ressources, permettant de joindre des fichiers et des données locaux
  • Prise en charge des modèles d’invite
  • Intégration d’outils pour l’exécution de commandes et de scripts
  • Connexions au serveur local pour une confidentialité et une sécurité accrues

(i) Remarque : L’application Web Claude.ai ne prend actuellement pas en charge la MCP. Les fonctionnalités MCP ne sont disponibles que dans l’application de bureau.

5. Vérification et utilisation

Une fois les outils configurés :

  • Redémarrez l'application Claude Desktop pour que les changements prennent effet

  • Vérifiez que les outils MCP sont disponibles en posant une question à Claude qui nécessiterait l'utilisation d'un des outils installés

  • Claude devrait être capable d'utiliser automatiquement les outils MCP pour répondre à vos questions

Exemples de cas d’utilisation :

Une fois installé, vous pourriez par exemple demander à Claude :

  • "Utilise Puppeteer MCP pour extraire les données des 10 smartphones les plus vendus sur Amazon"

  • "Via le MCP AirTable, montre-moi les enregistrements de ma table 'Projets'"

Claude utilisera alors le protocole MCP pour communiquer directement avec ces outils et vous fournir les informations demandées de manière fluide.

  • Intégration de modèles multi-outils : intégration de modèles de différents outils MBSE dans un seul modèle cohérent.
  • Échange automatisé de modèles : Automatisation de l’échange de modèles entre les outils, réduction des efforts manuels et augmentation de l’efficacité.
  • Validation et vérification des modèles : Utilisation de MCP pour valider et vérifier les modèles sur différents outils et plateformes.

Si vous rencontrez des difficultés, consultez la documentation officielle d'Anthropic concernant le MCP ou cherchez des tutoriels détaillés, car les interfaces et procédures exactes peuvent évoluer avec les mises à jour de l'application.

Les liens officiels vers la documentation du MCP (Model Context Protocol) d'Anthropic.

Permettez-moi de vous apporter quelques précisions importantes.

Pour la documentation officielle d'Anthropic concernant le MCP, vous devriez consulter leur site de documentation à l'adresse suivante: https://docs.anthropic.com/

Cependant, je dois vous informer que ma connaissance sur les spécificités de l'implémentation actuelle du MCP par Anthropic peut être limitée ou pas totalement à jour, car ma dernière mise à jour de connaissances date d'octobre 2024.

Et aussi :

Changing the AI model for Copilot Chat - GitHub Docs


Using the CodeQL model editor - GitHub Docs

https://docs.github.com/en/code-security/codeql-for-vs-code/using-the-advanced-functionality-of-the-codeql-for-vs-code-extension/using-the-codeql-model-editor

Pour les tutoriels les plus récents et détaillés, je vous recommande également de consulter:

  1. Le GitHub officiel d'Anthropic: https://github.com/anthropics - Vous y trouverez potentiellement des référentiels liés au MCP

  2. Le forum de développeurs d'Anthropic


Commencez à utiliser des serveurs prédéfinis dans Claude pour ordinateur.

Dans ce tutoriel, vous allez étendre Claude pour le bureau afin qu’il puisse lire à partir du système de fichiers de votre ordinateur, écrire de nouveaux fichiers, déplacer des fichiers et même rechercher des fichiers.

For Claude Desktop Users - Model Context Protocol


Pourquoi MCP ?

MCP vous aide à créer des agents et des flux de travail complexes au-dessus des LLM. Les LLM ont souvent besoin de s’intégrer aux données et aux outils, et MCP fournit les avantages suivants :
  • Une liste croissante d’intégrations prédéfinies auxquelles votre LLM peut se connecter directement

  • La flexibilité de passer d’un fournisseur à un autre fournisseur de LLM

  • Les bonnes pratiques pour sécuriser vos données au sein de votre infrastructure

Architecture générale

À la base, MCP suit une architecture client-serveur où une application hôte peut se connecter à plusieurs serveurs

  • Hôtes MCP : programmes tels que Claude Desktop, IDE ou outils d’IA qui souhaitent accéder aux données via MCP

  • Clients MCP : clients de protocole qui maintiennent des connexions 1:1 avec les serveurs

  • Serveurs MCP : programmes légers qui exposent chacun des capacités spécifiques via le protocole standardisé Model Context Protocol

  • Sources de données locales : fichiers, bases de données et services de votre ordinateur auxquels les serveurs MCP peuvent accéder en toute sécurité

  • Services à distance : systèmes externes disponibles sur Internet (par exemple, via des API) auxquels les serveurs MCP peuvent se connecter

Le Model Context Protocol (MCP) est une norme ouverte innovante qui révolutionne l’intégration des grands modèles de langage (LLM) avec des outils et des sources de données externes. Tout comme les API ont normalisé les interactions Web et le protocole LSP (Language Server Protocol) a rationalisé les fonctionnalités de l’IDE, MCP établit un cadre universel pour que les applications d’IA interagissent avec des systèmes externes.

MCP sert de « port USB-C pour les applications d’IA », fournissant une interface standardisée pour connecter des modèles d’IA à diverses sources de données et outils. Ce protocole relève le défi critique de la gestion du contexte dans les déploiements LLM, permettant des performances plus efficaces et cohérentes à mesure que les systèmes d’IA évoluent.

Les principales caractéristiques de MCP sont les suivantes :

  1. Intégration transparente entre les applications LLM et les ressources externes
  2. Communication standardisée pour le partage d’informations contextuelles avec des modèles de langage
  3. Exposition des outils et des capacités aux systèmes d’IA
  4. Création d’intégrations et de flux de travail composables

En mettant en œuvre MCP, les développeurs peuvent se concentrer sur la création de fonctionnalités de base plutôt que sur la gestion d’une logique d’intégration complexe, ce qui se traduit par des systèmes d’IA plus robustes et plus faciles à maintenir. Cette standardisation simplifie le processus de connexion de nouveaux outils et sources de données, réduisant ainsi la complexité du développement et améliorant l’évolutivité.

Alors que le paysage de l’IA continue d’évoluer, l’approche de norme ouverte de MCP promet de stimuler l’innovation et la collaboration dans l’ensemble du secteur, tout comme les API et les LSP ont transformé le développement Web et les fonctionnalités IDE.

modelcontextprotocol/python-sdk: The official Python SDK for Model Context Protocol servers and clients


-------------------------------------------------------------

Erol GIRAUDY

YouTube mes vidéos et PowerPoint :


mercredi 29 janvier 2025

deepseek-r1 installation sur Ollama

 deepseek-r1 Installation sur Ollama :


Deux exemples en vidéo et des tests en fin de ce document.


DeepSeek's first-generation of reasoning models with comparable performance to OpenAI-o1, including six dense models distilled from DeepSeek-R1 based on Llama and Qwen.

1.5b7b8b14b32b70b671b

3.1M7 days ago

Readme

DeepSeek’s first-generation reasoning models, achieving performance comparable to OpenAI-o1 across math, code, and reasoning tasks.

Models

DeepSeek-R1

ollama run deepseek-r1:671b

Distilled models

DeepSeek team has demonstrated that the reasoning patterns of larger models can be distilled into smaller models, resulting in better performance compared to the reasoning patterns discovered through RL on small models.

Below are the models created via fine-tuning against several dense models widely used in the research community using reasoning data generated by DeepSeek-R1. The evaluation results demonstrate that the distilled smaller dense models perform exceptionally well on benchmarks.

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

deepseek

License

The model weights are licensed under the MIT License. DeepSeek-R1 series support commercial use, allow for any modifications and derivative works, including, but not limited to, distillation for training other LLMs. Please note that:

The Qwen distilled models are derived from Qwen-2.5 series, which are originally licensed under Apache 2.0 License, and now finetuned with 800k samples curated with DeepSeek-R1.

The Llama 8B distilled model is derived from Llama3.1-8B-Base and is originally licensed under llama3.1 license.

The Llama 70B distilled model is derived from Llama3.3-70B-Instruct and is originally licensed under llama3.3 license.

deepseek-r1

https://ollama.com/library/deepseek-r1



ollama/ollama: Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models.

https://github.com/ollama/ollama?tab=readme-ov-file




Concepts Clés :

Voici la réponse de DeepSeek

1. **Modèles Distilling** :

   - La distillation des modèles est une technique utilisée pour réduire la taille d'un modèle neuronal tout en conservant ou améliorant son performance.

   - Elle consiste à extraire les informations et les informations pertinentes (apprentissage) du modèle "grand" et de le transmettre au modèle "petit", qui est subsequently entraîné pour se concentrer sur ces informations.

2. **Généalogie des Modèles** :

   - Les modèles génératifs, comme les GPT ou les Transformers modernes, sont souvent très importants car ils suggèrent une meilleure performance que les modèles classiques.

   - Cependant, ces modèles, bien que puissants, sont souvent trop lourds pour être utilisés dans des applications pratiques, notamment en termes de ressources computationnelles et de temps de chargement.

3. **DeepSeek-R1** :

   - DeepSeek-R1 semble être un modèle dense (modèle avec une grande quantité de paramètres) utilisé comme source de données ou de connaissances pour la distillation.

   - Il est établi comme un modèle de référence dans le domaine des modèles génératifs, connu pour son performance exceptionnelle.

---

**Contexte et Objectifs**

- **But de l'étude** :

  - La fiche du DeepSeek team vise à démontrer que les modèles génératifs de plus grand taille (modèles "grand") peuvent être distillés dans des modèles plus petits tout en conservant ou améliorant leur performance.

  - Cela est accompli par l'utilisation de données générées par DeepSeek-R1, qui fournit le contexte et les informations pertinentes nécessaires pour entraîner ces modèles minuscules.

- **Comparaison avec d'autres méthodes** :

  - Avant de distiller, les modèles minuscules sont générés à partir de données externes (modèles existants) en utilisant une méthode deRL (Reinforcement Learning), ce qui génère soit plus ou moins performant.

  - La méthode de distillation est comparée et contrastée avec cette alternative, montrant qu'elle peut être plus efficace ou performante.

---

**Implémentation et Résultats**

- **Modèles Créés par Fine-Tuning** :

  - Les modèles minuscules sont générés en ajustant (fine-tuning) contre des données externes Issues de la communauté de recherche utilisant des modèles tels que DeepSeek-R1.

  - Ces modèles minuscules sont subsequently testés sur des benchmarks (évaluations standardisées), et les résultats démonrent leur performance exceptionnelle.

- **Avantages de la Distillation** :

  - **Performance Supérieure** : Les modèles distillés performs mieux que ceux générés à l'aide deRL sur de petites tailles.

  - **Efficacité** : Les modèles minuscules sont plus efficaces en termes de ressources computationnelles et de temps de chargement, rendant leur utilisation pratique possible.

---

 **Implications et Conséquences**

1. **Économie d'Environnement** :

   - La distillation des modèles réduit la consommation énergétique et de ressources liées à l'entraînement et à l'utilisation des modèles, ce qui est particulièrement pertinent dans un contexte où les énergies sontlimitées.

2. **Praticité des Modèles Génériques** :

   - Cette technique permet de rendre les modèles génératifs plus accessibles pour les applications pratiques, comme les assistants virtuels, les plateformes de traitement du langage naturel (NLP), ou les réseaux sociaux.

3. **Développement de Modèles plus Performants** :

   - La distillation peut être utilisée pour améliorer la performance des modèles existants, en particulier dans les cas où des modèles minuscules sont déjà suffisants pour une tâche donnée.

---

 **Questions que Peut Répondre ce Texte**

1. **Qu'est-ce que la distillation des modèles ?**

   - C'est une technique utilisée pour réduire la taille d'un modèle tout en conservant ou améliorant son performance.

2. **Comment aient-ils utilisé DeepSeek-R1 dans leur étude ?**

   - Ils l'ont utilisé comme source de données ou de connaissances pour distiller les modèles minuscules.

3. **Pourquoi est-ce important d'avoir un modèle plus petit mais performant ?**

   - Parce qu'il réduit la consommation de ressources computationnelles et rend les modèles plus accessibles pour des applications pratiques.

4. **Est-ce que la distillation fonctionne toujours aussi bien que d'autres méthodes ?**

   - Il semble dépendre du contexte et des données utilisées, mais dans ce cas particulier, elle a été comparée et dominée par d'autres méthodes comme leRL.

5. **Quels sont les domaines où cette technique pourrait être utile ?**

   - Dans n'importe quel domaine où les modèles génératifs sont utilisés, mais plus particulièrement dans des applications où des performances équitables et des ressources limitées sont essentielles.

---

**Conclusion**

L'ex fournit une preuve de concept solide pour la distillation des modèles, en montrant qu'elle peut être une alternative efficace aux méthodes existantes pour générer des modèles minuscules performants. Ce qui est particulièrement utile dans un contexte où les capacités computationnelles sont limitées et où des performances équitables sont nécessaires.


Sympa les source (Citations) ci-dessus.


Website: https://ollama.com/

Find more models: https://ollama.com/library

GitHub: https://github.com/ollama/ollama

API: https://github.com/ollama/ollama/blob/main/docs/api.md

Python SDK: https://github.com/ollama/ollama-python

JS SDK: https://github.com/ollama/ollama-js

FAQs: https://github.com/ollama/ollama/blob/main/docs/faq.md

Follow Ollama on Twitter: 

https://twitter.com/ollama 


Tu veux exécuter DeepSeek R1 en local sur ton PC ? 

Dans cette vidéo, je te montre comment installer et utiliser DeepSeek R1 avec Ollama en seulement 5 minutes !

https://youtu.be/-AqP8_89wMw?si=VYXSaiKCw2Fo7rz6

🔹 Au programme :

✅ Installation d’Ollama

✅ Téléchargement et exécution de DeepSeek R1

✅ Test en local via l’API Ollama

✅ Utilisation en mode chat et streaming

Pourquoi DeepSeek R1 ?

Ce modèle open-source offre des performances impressionnantes et fonctionne sans connexion Internet sur ton ordinateur. Idéal pour les développeurs et passionnés d'IA !

Liens utiles :

▶ DeepSeek : https://www.deepseek.com

▶ Ollama : https://ollama.com

▶ Hugging Face : https://huggingface.co/deepseek-ai


J’ai testé DeepSeek vs. OpenAI-o1 pour les tâches de science des données : voici ce que j’ai trouvé.

0:00 - Introduction
0:37 - Première impression
1:11 - Formation et tests de performance DeepSeek-R1
2:14 - Comment utiliser DeepSeek-R1
4:19 - Question de test n°1 
8:08 - Question de test n°2
11:03 - Question de test #3
13h53 - Conclusion

https://youtu.be/fO80iIHkr9M?si=IBuKinNg3aO-6Cak

----

PIERRE EROL GIRAUDY 

Membre de AIDAUG et UGAIA, GUILD4AI

"UGAIA est une Association de fait"

https://lecercle.guild4ai.ai/






Tableau de bord pour l'analyse des cotations boursières des grandes entreprises

T2BI-IA pour l'analyse des cotations boursières des grandes entreprises. Voici une version résumée afin de présenter ce projet : Objecti...