Affichage des articles dont le libellé est AI. Afficher tous les articles
Affichage des articles dont le libellé est AI. Afficher tous les articles

dimanche 23 février 2025

Les six tendances fondamentales de l'IA pour 2025.

Les 6 tendances de l'IA pour 2025 et plus. 

Évolution des paradigmes et transformation organisationnelle, recommandations stratégiques, contexte géopolitique.

  1. L'IA agentique (Agentic AI) : Une promesse à nuancer L'IA agentique, qui permet d'effectuer des tâches de manière autonome, est considérée comme la tendance majeure de 2025. Bien que 37% des leaders IT pensent déjà l'utiliser et que 68% prévoient de l'adopter dans les six prochains mois, les auteurs recommandent la prudence. Ils prévoient que son déploiement initial se limitera à des tâches internes structurées et de faible enjeu financier, comme la gestion des mots de passe ou des congés, nécessitant toujours une supervision humaine.
  2. La mesure des résultats de l'IA générative Malgré l'enthousiasme général (58% des dirigeants rapportent des gains exponentiels de productivité), les auteurs soulignent le manque crucial de mesures concrètes. Les rares études existantes, comme celle de Goldman Sachs, montrent des améliorations plus modestes (environ 20% pour les développeurs). Les auteurs recommandent la mise en place d'expériences contrôlées pour évaluer précisément l'impact de l'IA générative sur la productivité et la qualité du travail.
  3. La réalité de la culture axée sur les données L'article révèle un retour à la réalité concernant la transformation digitale des organisations. Les chiffres d'adoption d'une culture basée sur les données sont passés de 43% à 33%, suggérant que l'IA générative seule ne suffit pas à transformer la culture d'entreprise. En effet, 92% des répondants identifient les défis culturels et la gestion du changement comme les principaux obstacles à cette transformation.
  4. Le retour en force des données non structurées L'IA générative a ravivé l'intérêt pour les données non structurées (texte, images, vidéos), qui représentent jusqu'à 97% des données dans certaines entreprises. Les organisations doivent désormais investir dans la gestion et l'organisation de ces données, notamment via des approches comme le RAG (Retrieval-Augmented Generation), tout en maintenant une importante intervention humaine pour la curation des données.
  5. La gouvernance des données et de l'IA La question du leadership en matière de données et d'IA reste complexe. Bien que 85% des organisations aient nommé un Chief Data Officer et 33% un Chief AI Officer, moins de la moitié considèrent ces fonctions comme bien établies. Les auteurs débattent de la structure optimale : certains préconisent un rattachement direct à la direction générale, d'autres suggèrent une consolidation des rôles techniques sous une direction unique pour plus d'efficacité.
  6. La cybersécurité des IA : cœur de la fragilité des process :  
    1. Surface d'attaque élargie avec la multiplication des agents autonomes
    2. Vulnérabilités spécifiques aux systèmes multi-agents (manipulation, détournement)
    3. Sécurisation des environnements sandbox mentionnés dans le chapitre 3
    4. Protection des données utilisées pour l'entraînement et l'opération des agents
    5. Nécessité de frameworks pour l'audit de sécurité des agents autonomes

Évolution des paradigmes et transformation organisationnelle

Le plan détaillé expose:

  1. Transition des LLM vers des systèmes intelligents distribués
  2. Émergence des agents autonomes comme nouvelle unité de travail
  3. Gouvernance complexe entre autonomie et supervision humaine
  4. Impact profond sur les structures organisationnelles et la gestion des talents
  5. Nouveaux rôles comme "Agent Manager" et traitement des agents comme "employés digitaux"

Recommandations stratégiques

Pour une organisation anticipant cette évolution:

  1. Développer une matrice d'évaluation des risques spécifiques aux systèmes multi-agents
  2. Intégrer des mécanismes de surveillance et d'audit dès la conception des systèmes
  3. Établir un cadre de gouvernance robuste pour les décisions autonomes
  4. Investir dans la formation des équipes au nouveau paradigme agent-centrique
  5. Prévoir des mécanismes de repli et d'arrêt d'urgence pour les agents autonomes

Cette évolution représente un changement paradigmatique majeur où la frontière entre assistant et agent autonome devient progressivement plus floue, avec des implications significatives pour la sécurité, la gouvernance et la structure organisationnelle des entreprises.

Contexte géopolitique

Le diagramme Mermaid cartographie l'écosystème mondial de l'IA, révélant:

  1. Dominance américaine avec OpenAI, Anthropic et DeepMind
  2. Pôle chinois centré sur les géants BAT et une infrastructure nationale
  3. Approche européenne axée sur l'éthique (GAIA-X) et la réglementation
  4. Positionnement stratégique du Royaume-Uni (recherche), du Canada et de l'Inde

Ce contexte illustre la complexité des enjeux géostratégiques et les différentes approches régionales.

Cette analyse montre que l'année 2025 sera marquée par une approche plus réaliste et pragmatique de l'IA, mettant l'accent sur la mesure des résultats, la gestion du changement culturel et l'organisation efficace des données et des équipes.

Source l'article de Thomas H. Davenport et Randy Bean.

Five Trends in AI and Data Science for 2025

https://sloanreview.mit.edu/article/five-trends-in-ai-and-data-science-for-2025/

Comparaison des Forces en IA par Région / monde.

RégionForcesModèlesInfrastructureRechercheSpécialisation
États-UnisLeaders technologiques, Cloud, InnovationGPT-4, Claude, PaLMDominanteTrès forteIA Générale, LLMs
ChineScale, Données, ApplicationsErnie, GLM, WuDaoAutonomeForteIA appliquée, Vision
EuropeRégulation, ÉthiqueBLOOM, Aleph AlphaEn développementForteIA Responsable
IndeTalents, Scale, CoûtsBhashiniÉmergenteCroissanteNLP multilingue
Royaume-UniRecherche, InnovationAlphaFoldMoyenneTrès forteIA Scientifique
CanadaRecherche fondamentaleLambdaNetMoyenneTrès forteIA Théorique
Pays ArabesInvestissements, ApplicationsArabicGPTEn développementÉmergenteFintech, Énergie

Synthèse des connaissances  :

Perspective géopolitique :

Les États-Unis dominent via les grandes bases de données et archives scientifiques (PubMed, arXiv)
La Chine développe rapidement ses propres bases de connaissances isolées
L'Europe mise sur l'open science et le partage des données FAIR
L'Inde se positionne comme hub de traitement et d'analyse de données

Modèles :

Dynamique des acteurs :

USA : OpenAI, Anthropic, Google DeepMind dominent l'innovation
Chine : DeepSeek, Masus, Baidu, Alibaba, Tencent développent des alternatives nationales
Europe : Focus sur des modèles spécialisés et éthiques
Canada : Pioneer dans l'IA via Montreal/Toronto/Edmonton
UK : DeepMind et forte recherche académique
Pays du Golfe : Investissements massifs dans les infrastructures

Mise à l'échelle :

Répartition des forces :

USA : AWS, Google Cloud, Microsoft Azure en position dominante
Chine : Infrastructure cloud nationale robuste et indépendante
Europe : Tentative de souveraineté numérique (GAIA-X)
Inde : Expertise en déploiement à grande échelle et coûts optimisés


Éléments périphériques critiques :

Performance et Robustesse :

USA/UK : Standards de référence (NIST)
Chine : Développement de benchmarks alternatifs
Europe : Focus sur la certification et standards éthiques

Programmation et Télémétrie :

USA : GitHub/Microsoft dominent les outils
Chine : Écosystème parallèle (Gitee)
Inde : Hub majeur de développement et d'intégration

Coût et Efficacité :

Impact sur la compétitivité régionale
Avantage des économies d'échelle américaines et chinoises
Défi majeur pour l'Europe et autres acteurs

Recommandations stratégiques :

Renforcer les collaborations transversales :

Alliances technologiques (USA-Europe-Inde)
Partage des ressources de calcul
Standards communs d'évaluation


Développer des spécialisations régionales :

Europe : IA éthique et régulée
Inde : Solutions à grande échelle optimisées
Canada : IA fondamentale et recherche
Pays du Golfe : Applications financières et énergétiques


Garantir l'autonomie stratégique :

Infrastructures cloud souveraines
Bases de données indépendantes
Capacités de formation des modèles


Prioriser la formation et les talents :

Programmes internationaux d'échange
Centres d'excellence régionaux
Rétention des experts clés


Cette analyse révèle une compétition intense mais aussi des opportunités de collaboration internationale pour développer une IA robuste et bénéfique globalement.

2025 Tendances de l'IA : Les innovations à surveiller cette année

https://www.ultralytics.com/fr/blog/2025-ai-trends-the-innovations-to-look-out-for-this-year


L'IA à toutes les sauces : les 5 grandes tendances technologiques à suivre en 2025 - WE DEMAIN

https://www.wedemain.fr/decouvrir/lia-a-toutes-les-sauces-les-5-grandes-tendances-technologiques-a-suivre-en-2025/


https://lecercle.guild4ai.ai/c/espace-agent/manus-e678d490-1e2c-4d0c-bc32-45dd4c0edad3


Erol GIRAUDY





samedi 15 février 2025

How to Get Your Data Ready for AI Agents (Docs, PDFs, Websites)

How to Get Your Data Ready for AI Agents (Docs, PDFs, Websites).


Want to get started as a freelancer? Let me help: 

Additional Resources
📚 Just getting started? Learn the fundamentals of AI: https://www.skool.com/data-alchemy
🚀 Already building AI apps? Get our production framework: https://launchpad.datalumina.com/?utm...
💼 Need help with a project? Work with me: 

🔗 GitHub Repository

🛠️ My VS Code / Cursor Setup
   • The Ultimate VS Code Setup for Data &...  

⏱️ Timestamps
0:45 Building an Extraction Pipeline
2:15 Document Conversion Basics
6:12 HTML Extraction Techniques
9:10 Chunking Data for AI
14:22 Storing in Vector Databases
19:51 Searching the Vector Database
22:16 Creating an Interactive Application



📌 Description
In this Docling tutorial, you will learn to extract and structure data from various documents, utilizing techniques such as parsing, chunking, and embedding. A walkthrough of Docling and a practical demonstration illustrate these processes.


The video also explores integrating vector databases for efficient data storage and enhancing AI responses through embedding models. Finally, a simple interactive chat application is demonstrated, showcasing the completed knowledge extraction pipeline and optimization strategies.

👋🏻 About Me
Hi! I'm Dave, AI Engineer and founder of Datalumina®. On this channel, I share practical tutorials that teach developers how to build production-ready AI systems that actually work in the real world. Beyond these tutorials, I also help people start successful freelancing careers. Check out the links above to learn more!


Architecture

L’architecture de Docling est décrite dans le schéma ci-dessus.

Pour chaque format de document, le convertisseur de documents sait quel backend spécifique au format utiliser pour l’analyse du document et quel pipeline utiliser pour orchestrer l’exécution, ainsi que toutes les options pertinentes.  https://ds4sd.github.io/docling/concepts/architecture/ 

Dans ce tutoriel Docling, vous apprendrez à extraire et à structurer des données à partir de divers documents, en utilisant des techniques telles que l’analyse, le découpage et l’intégration. Une présentation de Docling et une démonstration pratique illustrent ces processus.

Pour LLAMA 

Lecteur de documentation.

LlamaIndex est le cadre de référence pour la création d’agents LLM sur vos données.

%pip install -q --progress-bar off --no-warn-conflicts llama-index-core llama-index-readers-docling llama-index-node-parser-docling llama-index-embeddings-huggingface llama-index-llms-huggingface-api llama-index-readers-file python-dotenv

Docling Reader utilise Docling pour permettre l’extraction rapide et facile de PDF, DOCX, HTML et d’autres types de documents, au format Docling sérialisé en Markdown ou JSON, pour une utilisation dans les pipelines LlamaIndex pour RAG / QA, etc.


LlamaIndex (GPT Index) est un cadre de données pour votre application LLM. Construire avec LlamaIndex implique généralement de travailler avec le noyau de LlamaIndex et un ensemble choisi d’intégrations (ou plugins). 

Il y a deux façons de commencer à construire avec LlamaIndex dans Python:

Entrée : lama-index. Un package Python de démarrage qui inclut le noyau de LlamaIndex ainsi qu’une sélection d’intégrations.

Personnalisé : llama-index-core. Installez le noyau de LlamaIndex et ajoutez les packages d’intégration LlamaIndex de votre choix sur LlamaHub qui sont requis pour votre application. 

Il y a plus de 300 intégrations LlamaIndex qui fonctionnent de manière transparente avec le noyau, ce qui vous permet de construire avec votre Fournisseurs de LLM, d’intégration et de magasins de vecteurs.

La bibliothèque Python LlamaIndex est dont les noms sont tels que les instructions d’importation qui include implique que le paquet de base est utilisé. 

En revanche, ces sans impliquer qu’un package d’intégration est utilisé.



Lecteur de documentation LLAMA 

Docling extrait PDF, DOCX, HTML et d’autres formats de documents dans une représentation riche (y compris la mise en page, les tableaux, etc.), qu’il peut exporter au format Markdown ou JSON.

Docling Reader et Docling Node Parser présentés dans ce carnet intègrent de manière transparente Docling dans LlamaIndex, vous permettant de :

utiliser différents types de documents dans vos applications LLM avec facilité et rapidité, et
tirez parti du format riche de Docling pour une base avancée et native du document.




Getting Started | LlamaCloud Documentation




Erol GIRAUDY

mardi 4 février 2025

L' AI pour la Généalogie avec UGAIA (G·AI - G·IA) la G·IA.

 La révolution de la généalogie grâce à l’intelligence artificielle et ses outils.


Utilisation du RAG dans Deepseek dans un llm ollama.

L' AI pour la Généalogie avec UGAIA (G·AI - G·IA)

https://uga-ia.blogspot.com/

Voici un résumé du livre sur la généalogie assistée par l'intelligence artificielle :

Ce livre de explore comment l'intelligence artificielle et les outils numériques transforment et facilitent les recherches généalogiques. L'auteur raconte son parcours personnel pour retracer sa généalogie complexe liée à la famille impériale ottomane. 

Il présente les différents outils et solutions qu'il a utilisés comme Zotero, Tropy, OneNote, OneDrive, Trello, Geneanet, Rodovid, etc. Ces outils permettent de mieux organiser, partager et visualiser les données généalogiques. 

L'intelligence artificielle apporte des avancées majeures, notamment pour la reconnaissance de textes manuscrits dans les archives. Des projets comme ANR e-NDP, Socface ou HIMANIS exploitent l'IA pour indexer et transcrire automatiquement de larges corpus historiques.

Il y a des exemples concrets d'utilisation de Copilot, ChatGPT, Claude, Gemini, Mistral,  Perplexity .... pour extraire des informations généalogiques à partir de documents comme des nécrologies ou des annonces de mariage.

Au final, l'alliance entre l'expertise humaine et les technologies d'IA ouvre de nouvelles perspectives passionnantes pour les généalogistes amateurs et professionnels. Elle permet d'accéder à des sources jusqu'ici inexploitées et de mener des recherches d'une ampleur inédite. C'est ce que l'auteur appelle la "généalogie 4.0".

Dans cet ouvrage il y est expliqué comment déchiffrer des documents anciens et, notamment des fiches d'état civiles avec l'aide de l'intelligence artificielle... Ainsi que la rédaction de fiches...

Mon livre

Je vais créer un KIT G·IA avec des outils, PPT et démos (voir mon blog) et l'usage des API, des LLM avec le RAG...



Mon livre sur la G·IA :








DeepSeek


<think de DeepSeek>

Alright, the user has provided a query where they’ve requested an in-depth explanation of something called "Users Group Artificial Intelligence Andorra (U.G.A.I.A.)". First, I need to understand what UGAIA is based on the previous conversation and documents.

In the history, I already explained that UGAIA GAI is a genealogy platform using AI to analyze DNA data from AFEP. The user now seems to be asking about "UGAIA" as per their query, which refers to Users Group Artificial Intelligence Andorra (U.G.A.I.A.). Since this isn't mentioned before, I’ll have to infer what it could be based on similar names or common structures.

U.G.A.I.A. likely stands for something in Andorra related to artificial intelligence, possibly a users' group or organization focused on AI-related activities. To provide a useful explanation, I need to break down the key elements: who/what is UGAIA, its purpose, what it involves (AI & software), its goals, any specific focus areas like technology application in Andorra, and its potential impact.

I should clarify terms if they’re unfamiliar, like "associazione" which means association. I’ll explain that it's a group focused on AI, mention their role and the technologies involved, discuss their objectives such as promoting AI knowledge or collaboration, describe what AI entails for users (development, application), reference Andorra’s context, talk about challenges in the field, and outline its possible effects.

I need to ensure the response is comprehensive but not too technical. I’ll break it down into clear sections: What? Who/What? Why? How? For whom? Challenges? Impacts? To make sure all user concerns are addressed, covering any potential questions a reader might have.

</think>


Réponse de DeepSeek : 

L'Users Group Artificial Intelligence Andorra (U.G.A.I.A.) semble être une association ou un groupe de travail à but pédagogique et/or institutionnel, portée par des utilisateurs et/ou passionnés de l'intelligence artificielle (IA) dans le contexte local Andorrain. Bien que ce ne soit pas explicitement mentionné, on peut.inférer de son nom et du domaine qu'il pourrait s'agir d'une organization qui :

1. **Est associée à l'utilise de la technologie de l'intelligence artificielle (IA)** : L' « UG “ dans "UGAIA" Peut faire référence à une association ou un groupe dévoué à l'entrev畔tice et/ou l'application de la technologie dans une certaine spécialité ou contexte local.

2. **Fonctionnerait comme un point de rencontre :** L'“AI” est clairement une abréVIation de "Intelligence Artificielle" , un domaine scientifique et technique en pleine expansion. Une association nommée "UGAIA" pourrait s'inscrire dans ce cadre, et plus spécifiquement, se concentrer sur la technologie IA.

3. **S'orienterait vers des buts éducatifs ou pédagogiques :** Si l'“UG.A.I.A.” n'est pas mentionnée dans les liens fournis (sinon je serais dans une situation où j'ai accès à plus de détails), on pourrait imaginer qu'elle soit un type de groupe de travail où des utilisateurs, des étudiants ou des professionnels s'entretiennent et se partagent des connaissances sur l'utilisation pratique de la technologie IA.

4. **Permettrait d'organiser des ateliers ou des conférences :** En ce qui concerne les associations locales, un UG.A.I.A. pourrait organiser des meetups, des ateliers techniques, ou des conférences sur l'IA et son application à Andorra.

5. **Fois pour quels que soient :** L'association pourrait cible des utilisateurs curieux или des professionnels dans le domaine de l'informatique ou de la recherche.

En termes de technologie et de compétences, la IA inclut une large gamme de technologies :

- **L'apprentissage automatique**

- **La data science**

- **Les modèles prédictifs**

- **Les tâches créatives**

- etc.


Bien que je ne possède pas d'informations complètes sur "U.G.A.I.A.", l'hypothèse la plus logique est qu'elle est un groupe de travail local Andorrain autour de l'éducation et de l'application de la technologie de l'intelligence artificielle. Son but pourrait être de promouvoir un meilleur understanding de cette technologie parmi une cohorte spécifée, ou d'adapter ses outils et technologies à des besoins particuliers dans le territoire Andorrain.

Enfin, il est évident que dans un contexte local comme Andorra , il pourrait être difficile de trouver de telles associations car ce pays est géométriquement réparti et souffre de rares situations comparables où l'IA pourrait être appliquée. Par exemple, les montagnes et les paysages ANDORAIERS sont bien distincts par rapport à une France ou EU  , ce qui rend la recherche d'un contexte local spécifique plus délicat.


La question était :

Fournissez une explication détaillée du texte suivant, en décomposant ses concepts clés, ses implications et son contexte :

Texte : Users Group Artificial Intelligence Andorra (U.G.A.I.A.)

{UGAIA}


Votre explication doit :

Clarifier tous les termes ou idées complexes

Fournir des informations contextuelles pertinentes

Discuter de l'importance ou des implications du contenu

Répondre à toutes les questions qu'un lecteur pourrait se poser

Utiliser des exemples ou des analogies pour illustrer les points lorsque cela est approprié

L'objectif est de fournir une explication complète qui permettrait à quelqu'un ayant peu de connaissances préalables de comprendre pleinement le texte.



---

Erol GIRAUDY 

www.erolgiraudy.eu et www.ugaia.eu



mercredi 29 janvier 2025

deepseek-r1 installation sur Ollama

 deepseek-r1 Installation sur Ollama :


Deux exemples en vidéo et des tests en fin de ce document.


DeepSeek's first-generation of reasoning models with comparable performance to OpenAI-o1, including six dense models distilled from DeepSeek-R1 based on Llama and Qwen.

1.5b7b8b14b32b70b671b

3.1M7 days ago

Readme

DeepSeek’s first-generation reasoning models, achieving performance comparable to OpenAI-o1 across math, code, and reasoning tasks.

Models

DeepSeek-R1

ollama run deepseek-r1:671b

Distilled models

DeepSeek team has demonstrated that the reasoning patterns of larger models can be distilled into smaller models, resulting in better performance compared to the reasoning patterns discovered through RL on small models.

Below are the models created via fine-tuning against several dense models widely used in the research community using reasoning data generated by DeepSeek-R1. The evaluation results demonstrate that the distilled smaller dense models perform exceptionally well on benchmarks.

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

deepseek

License

The model weights are licensed under the MIT License. DeepSeek-R1 series support commercial use, allow for any modifications and derivative works, including, but not limited to, distillation for training other LLMs. Please note that:

The Qwen distilled models are derived from Qwen-2.5 series, which are originally licensed under Apache 2.0 License, and now finetuned with 800k samples curated with DeepSeek-R1.

The Llama 8B distilled model is derived from Llama3.1-8B-Base and is originally licensed under llama3.1 license.

The Llama 70B distilled model is derived from Llama3.3-70B-Instruct and is originally licensed under llama3.3 license.

deepseek-r1

https://ollama.com/library/deepseek-r1



ollama/ollama: Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models.

https://github.com/ollama/ollama?tab=readme-ov-file




Concepts Clés :

Voici la réponse de DeepSeek

1. **Modèles Distilling** :

   - La distillation des modèles est une technique utilisée pour réduire la taille d'un modèle neuronal tout en conservant ou améliorant son performance.

   - Elle consiste à extraire les informations et les informations pertinentes (apprentissage) du modèle "grand" et de le transmettre au modèle "petit", qui est subsequently entraîné pour se concentrer sur ces informations.

2. **Généalogie des Modèles** :

   - Les modèles génératifs, comme les GPT ou les Transformers modernes, sont souvent très importants car ils suggèrent une meilleure performance que les modèles classiques.

   - Cependant, ces modèles, bien que puissants, sont souvent trop lourds pour être utilisés dans des applications pratiques, notamment en termes de ressources computationnelles et de temps de chargement.

3. **DeepSeek-R1** :

   - DeepSeek-R1 semble être un modèle dense (modèle avec une grande quantité de paramètres) utilisé comme source de données ou de connaissances pour la distillation.

   - Il est établi comme un modèle de référence dans le domaine des modèles génératifs, connu pour son performance exceptionnelle.

---

**Contexte et Objectifs**

- **But de l'étude** :

  - La fiche du DeepSeek team vise à démontrer que les modèles génératifs de plus grand taille (modèles "grand") peuvent être distillés dans des modèles plus petits tout en conservant ou améliorant leur performance.

  - Cela est accompli par l'utilisation de données générées par DeepSeek-R1, qui fournit le contexte et les informations pertinentes nécessaires pour entraîner ces modèles minuscules.

- **Comparaison avec d'autres méthodes** :

  - Avant de distiller, les modèles minuscules sont générés à partir de données externes (modèles existants) en utilisant une méthode deRL (Reinforcement Learning), ce qui génère soit plus ou moins performant.

  - La méthode de distillation est comparée et contrastée avec cette alternative, montrant qu'elle peut être plus efficace ou performante.

---

**Implémentation et Résultats**

- **Modèles Créés par Fine-Tuning** :

  - Les modèles minuscules sont générés en ajustant (fine-tuning) contre des données externes Issues de la communauté de recherche utilisant des modèles tels que DeepSeek-R1.

  - Ces modèles minuscules sont subsequently testés sur des benchmarks (évaluations standardisées), et les résultats démonrent leur performance exceptionnelle.

- **Avantages de la Distillation** :

  - **Performance Supérieure** : Les modèles distillés performs mieux que ceux générés à l'aide deRL sur de petites tailles.

  - **Efficacité** : Les modèles minuscules sont plus efficaces en termes de ressources computationnelles et de temps de chargement, rendant leur utilisation pratique possible.

---

 **Implications et Conséquences**

1. **Économie d'Environnement** :

   - La distillation des modèles réduit la consommation énergétique et de ressources liées à l'entraînement et à l'utilisation des modèles, ce qui est particulièrement pertinent dans un contexte où les énergies sontlimitées.

2. **Praticité des Modèles Génériques** :

   - Cette technique permet de rendre les modèles génératifs plus accessibles pour les applications pratiques, comme les assistants virtuels, les plateformes de traitement du langage naturel (NLP), ou les réseaux sociaux.

3. **Développement de Modèles plus Performants** :

   - La distillation peut être utilisée pour améliorer la performance des modèles existants, en particulier dans les cas où des modèles minuscules sont déjà suffisants pour une tâche donnée.

---

 **Questions que Peut Répondre ce Texte**

1. **Qu'est-ce que la distillation des modèles ?**

   - C'est une technique utilisée pour réduire la taille d'un modèle tout en conservant ou améliorant son performance.

2. **Comment aient-ils utilisé DeepSeek-R1 dans leur étude ?**

   - Ils l'ont utilisé comme source de données ou de connaissances pour distiller les modèles minuscules.

3. **Pourquoi est-ce important d'avoir un modèle plus petit mais performant ?**

   - Parce qu'il réduit la consommation de ressources computationnelles et rend les modèles plus accessibles pour des applications pratiques.

4. **Est-ce que la distillation fonctionne toujours aussi bien que d'autres méthodes ?**

   - Il semble dépendre du contexte et des données utilisées, mais dans ce cas particulier, elle a été comparée et dominée par d'autres méthodes comme leRL.

5. **Quels sont les domaines où cette technique pourrait être utile ?**

   - Dans n'importe quel domaine où les modèles génératifs sont utilisés, mais plus particulièrement dans des applications où des performances équitables et des ressources limitées sont essentielles.

---

**Conclusion**

L'ex fournit une preuve de concept solide pour la distillation des modèles, en montrant qu'elle peut être une alternative efficace aux méthodes existantes pour générer des modèles minuscules performants. Ce qui est particulièrement utile dans un contexte où les capacités computationnelles sont limitées et où des performances équitables sont nécessaires.


Sympa les source (Citations) ci-dessus.


Website: https://ollama.com/

Find more models: https://ollama.com/library

GitHub: https://github.com/ollama/ollama

API: https://github.com/ollama/ollama/blob/main/docs/api.md

Python SDK: https://github.com/ollama/ollama-python

JS SDK: https://github.com/ollama/ollama-js

FAQs: https://github.com/ollama/ollama/blob/main/docs/faq.md

Follow Ollama on Twitter: 

https://twitter.com/ollama 


Tu veux exécuter DeepSeek R1 en local sur ton PC ? 

Dans cette vidéo, je te montre comment installer et utiliser DeepSeek R1 avec Ollama en seulement 5 minutes !

https://youtu.be/-AqP8_89wMw?si=VYXSaiKCw2Fo7rz6

🔹 Au programme :

✅ Installation d’Ollama

✅ Téléchargement et exécution de DeepSeek R1

✅ Test en local via l’API Ollama

✅ Utilisation en mode chat et streaming

Pourquoi DeepSeek R1 ?

Ce modèle open-source offre des performances impressionnantes et fonctionne sans connexion Internet sur ton ordinateur. Idéal pour les développeurs et passionnés d'IA !

Liens utiles :

▶ DeepSeek : https://www.deepseek.com

▶ Ollama : https://ollama.com

▶ Hugging Face : https://huggingface.co/deepseek-ai


J’ai testé DeepSeek vs. OpenAI-o1 pour les tâches de science des données : voici ce que j’ai trouvé.

0:00 - Introduction
0:37 - Première impression
1:11 - Formation et tests de performance DeepSeek-R1
2:14 - Comment utiliser DeepSeek-R1
4:19 - Question de test n°1 
8:08 - Question de test n°2
11:03 - Question de test #3
13h53 - Conclusion

https://youtu.be/fO80iIHkr9M?si=IBuKinNg3aO-6Cak

----

PIERRE EROL GIRAUDY 

Membre de AIDAUG et UGAIA, GUILD4AI

"UGAIA est une Association de fait"

https://lecercle.guild4ai.ai/






Tableau de bord pour l'analyse des cotations boursières des grandes entreprises

T2BI-IA pour l'analyse des cotations boursières des grandes entreprises. Voici une version résumée afin de présenter ce projet : Objecti...