Affichage des articles dont le libellé est OLLAMA. Afficher tous les articles
Affichage des articles dont le libellé est OLLAMA. Afficher tous les articles

mardi 4 février 2025

L' AI pour la Généalogie avec UGAIA (G·AI - G·IA) la G·IA.

 La révolution de la généalogie grâce à l’intelligence artificielle et ses outils.


Utilisation du RAG dans Deepseek dans un llm ollama.

L' AI pour la Généalogie avec UGAIA (G·AI - G·IA)

https://uga-ia.blogspot.com/

Voici un résumé du livre sur la généalogie assistée par l'intelligence artificielle :

Ce livre de explore comment l'intelligence artificielle et les outils numériques transforment et facilitent les recherches généalogiques. L'auteur raconte son parcours personnel pour retracer sa généalogie complexe liée à la famille impériale ottomane. 

Il présente les différents outils et solutions qu'il a utilisés comme Zotero, Tropy, OneNote, OneDrive, Trello, Geneanet, Rodovid, etc. Ces outils permettent de mieux organiser, partager et visualiser les données généalogiques. 

L'intelligence artificielle apporte des avancées majeures, notamment pour la reconnaissance de textes manuscrits dans les archives. Des projets comme ANR e-NDP, Socface ou HIMANIS exploitent l'IA pour indexer et transcrire automatiquement de larges corpus historiques.

Il y a des exemples concrets d'utilisation de Copilot, ChatGPT, Claude, Gemini, Mistral,  Perplexity .... pour extraire des informations généalogiques à partir de documents comme des nécrologies ou des annonces de mariage.

Au final, l'alliance entre l'expertise humaine et les technologies d'IA ouvre de nouvelles perspectives passionnantes pour les généalogistes amateurs et professionnels. Elle permet d'accéder à des sources jusqu'ici inexploitées et de mener des recherches d'une ampleur inédite. C'est ce que l'auteur appelle la "généalogie 4.0".

Dans cet ouvrage il y est expliqué comment déchiffrer des documents anciens et, notamment des fiches d'état civiles avec l'aide de l'intelligence artificielle... Ainsi que la rédaction de fiches...

Mon livre

Je vais créer un KIT G·IA avec des outils, PPT et démos (voir mon blog) et l'usage des API, des LLM avec le RAG...



Mon livre sur la G·IA :








DeepSeek


<think de DeepSeek>

Alright, the user has provided a query where they’ve requested an in-depth explanation of something called "Users Group Artificial Intelligence Andorra (U.G.A.I.A.)". First, I need to understand what UGAIA is based on the previous conversation and documents.

In the history, I already explained that UGAIA GAI is a genealogy platform using AI to analyze DNA data from AFEP. The user now seems to be asking about "UGAIA" as per their query, which refers to Users Group Artificial Intelligence Andorra (U.G.A.I.A.). Since this isn't mentioned before, I’ll have to infer what it could be based on similar names or common structures.

U.G.A.I.A. likely stands for something in Andorra related to artificial intelligence, possibly a users' group or organization focused on AI-related activities. To provide a useful explanation, I need to break down the key elements: who/what is UGAIA, its purpose, what it involves (AI & software), its goals, any specific focus areas like technology application in Andorra, and its potential impact.

I should clarify terms if they’re unfamiliar, like "associazione" which means association. I’ll explain that it's a group focused on AI, mention their role and the technologies involved, discuss their objectives such as promoting AI knowledge or collaboration, describe what AI entails for users (development, application), reference Andorra’s context, talk about challenges in the field, and outline its possible effects.

I need to ensure the response is comprehensive but not too technical. I’ll break it down into clear sections: What? Who/What? Why? How? For whom? Challenges? Impacts? To make sure all user concerns are addressed, covering any potential questions a reader might have.

</think>


Réponse de DeepSeek : 

L'Users Group Artificial Intelligence Andorra (U.G.A.I.A.) semble être une association ou un groupe de travail à but pédagogique et/or institutionnel, portée par des utilisateurs et/ou passionnés de l'intelligence artificielle (IA) dans le contexte local Andorrain. Bien que ce ne soit pas explicitement mentionné, on peut.inférer de son nom et du domaine qu'il pourrait s'agir d'une organization qui :

1. **Est associée à l'utilise de la technologie de l'intelligence artificielle (IA)** : L' « UG “ dans "UGAIA" Peut faire référence à une association ou un groupe dévoué à l'entrev畔tice et/ou l'application de la technologie dans une certaine spécialité ou contexte local.

2. **Fonctionnerait comme un point de rencontre :** L'“AI” est clairement une abréVIation de "Intelligence Artificielle" , un domaine scientifique et technique en pleine expansion. Une association nommée "UGAIA" pourrait s'inscrire dans ce cadre, et plus spécifiquement, se concentrer sur la technologie IA.

3. **S'orienterait vers des buts éducatifs ou pédagogiques :** Si l'“UG.A.I.A.” n'est pas mentionnée dans les liens fournis (sinon je serais dans une situation où j'ai accès à plus de détails), on pourrait imaginer qu'elle soit un type de groupe de travail où des utilisateurs, des étudiants ou des professionnels s'entretiennent et se partagent des connaissances sur l'utilisation pratique de la technologie IA.

4. **Permettrait d'organiser des ateliers ou des conférences :** En ce qui concerne les associations locales, un UG.A.I.A. pourrait organiser des meetups, des ateliers techniques, ou des conférences sur l'IA et son application à Andorra.

5. **Fois pour quels que soient :** L'association pourrait cible des utilisateurs curieux или des professionnels dans le domaine de l'informatique ou de la recherche.

En termes de technologie et de compétences, la IA inclut une large gamme de technologies :

- **L'apprentissage automatique**

- **La data science**

- **Les modèles prédictifs**

- **Les tâches créatives**

- etc.


Bien que je ne possède pas d'informations complètes sur "U.G.A.I.A.", l'hypothèse la plus logique est qu'elle est un groupe de travail local Andorrain autour de l'éducation et de l'application de la technologie de l'intelligence artificielle. Son but pourrait être de promouvoir un meilleur understanding de cette technologie parmi une cohorte spécifée, ou d'adapter ses outils et technologies à des besoins particuliers dans le territoire Andorrain.

Enfin, il est évident que dans un contexte local comme Andorra , il pourrait être difficile de trouver de telles associations car ce pays est géométriquement réparti et souffre de rares situations comparables où l'IA pourrait être appliquée. Par exemple, les montagnes et les paysages ANDORAIERS sont bien distincts par rapport à une France ou EU  , ce qui rend la recherche d'un contexte local spécifique plus délicat.


La question était :

Fournissez une explication détaillée du texte suivant, en décomposant ses concepts clés, ses implications et son contexte :

Texte : Users Group Artificial Intelligence Andorra (U.G.A.I.A.)

{UGAIA}


Votre explication doit :

Clarifier tous les termes ou idées complexes

Fournir des informations contextuelles pertinentes

Discuter de l'importance ou des implications du contenu

Répondre à toutes les questions qu'un lecteur pourrait se poser

Utiliser des exemples ou des analogies pour illustrer les points lorsque cela est approprié

L'objectif est de fournir une explication complète qui permettrait à quelqu'un ayant peu de connaissances préalables de comprendre pleinement le texte.



---

Erol GIRAUDY 

www.erolgiraudy.eu et www.ugaia.eu



mercredi 29 janvier 2025

deepseek-r1 installation sur Ollama

 deepseek-r1 Installation sur Ollama :


Deux exemples en vidéo et des tests en fin de ce document.


DeepSeek's first-generation of reasoning models with comparable performance to OpenAI-o1, including six dense models distilled from DeepSeek-R1 based on Llama and Qwen.

1.5b7b8b14b32b70b671b

3.1M7 days ago

Readme

DeepSeek’s first-generation reasoning models, achieving performance comparable to OpenAI-o1 across math, code, and reasoning tasks.

Models

DeepSeek-R1

ollama run deepseek-r1:671b

Distilled models

DeepSeek team has demonstrated that the reasoning patterns of larger models can be distilled into smaller models, resulting in better performance compared to the reasoning patterns discovered through RL on small models.

Below are the models created via fine-tuning against several dense models widely used in the research community using reasoning data generated by DeepSeek-R1. The evaluation results demonstrate that the distilled smaller dense models perform exceptionally well on benchmarks.

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

deepseek

License

The model weights are licensed under the MIT License. DeepSeek-R1 series support commercial use, allow for any modifications and derivative works, including, but not limited to, distillation for training other LLMs. Please note that:

The Qwen distilled models are derived from Qwen-2.5 series, which are originally licensed under Apache 2.0 License, and now finetuned with 800k samples curated with DeepSeek-R1.

The Llama 8B distilled model is derived from Llama3.1-8B-Base and is originally licensed under llama3.1 license.

The Llama 70B distilled model is derived from Llama3.3-70B-Instruct and is originally licensed under llama3.3 license.

deepseek-r1

https://ollama.com/library/deepseek-r1



ollama/ollama: Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2, and other large language models.

https://github.com/ollama/ollama?tab=readme-ov-file




Concepts Clés :

Voici la réponse de DeepSeek

1. **Modèles Distilling** :

   - La distillation des modèles est une technique utilisée pour réduire la taille d'un modèle neuronal tout en conservant ou améliorant son performance.

   - Elle consiste à extraire les informations et les informations pertinentes (apprentissage) du modèle "grand" et de le transmettre au modèle "petit", qui est subsequently entraîné pour se concentrer sur ces informations.

2. **Généalogie des Modèles** :

   - Les modèles génératifs, comme les GPT ou les Transformers modernes, sont souvent très importants car ils suggèrent une meilleure performance que les modèles classiques.

   - Cependant, ces modèles, bien que puissants, sont souvent trop lourds pour être utilisés dans des applications pratiques, notamment en termes de ressources computationnelles et de temps de chargement.

3. **DeepSeek-R1** :

   - DeepSeek-R1 semble être un modèle dense (modèle avec une grande quantité de paramètres) utilisé comme source de données ou de connaissances pour la distillation.

   - Il est établi comme un modèle de référence dans le domaine des modèles génératifs, connu pour son performance exceptionnelle.

---

**Contexte et Objectifs**

- **But de l'étude** :

  - La fiche du DeepSeek team vise à démontrer que les modèles génératifs de plus grand taille (modèles "grand") peuvent être distillés dans des modèles plus petits tout en conservant ou améliorant leur performance.

  - Cela est accompli par l'utilisation de données générées par DeepSeek-R1, qui fournit le contexte et les informations pertinentes nécessaires pour entraîner ces modèles minuscules.

- **Comparaison avec d'autres méthodes** :

  - Avant de distiller, les modèles minuscules sont générés à partir de données externes (modèles existants) en utilisant une méthode deRL (Reinforcement Learning), ce qui génère soit plus ou moins performant.

  - La méthode de distillation est comparée et contrastée avec cette alternative, montrant qu'elle peut être plus efficace ou performante.

---

**Implémentation et Résultats**

- **Modèles Créés par Fine-Tuning** :

  - Les modèles minuscules sont générés en ajustant (fine-tuning) contre des données externes Issues de la communauté de recherche utilisant des modèles tels que DeepSeek-R1.

  - Ces modèles minuscules sont subsequently testés sur des benchmarks (évaluations standardisées), et les résultats démonrent leur performance exceptionnelle.

- **Avantages de la Distillation** :

  - **Performance Supérieure** : Les modèles distillés performs mieux que ceux générés à l'aide deRL sur de petites tailles.

  - **Efficacité** : Les modèles minuscules sont plus efficaces en termes de ressources computationnelles et de temps de chargement, rendant leur utilisation pratique possible.

---

 **Implications et Conséquences**

1. **Économie d'Environnement** :

   - La distillation des modèles réduit la consommation énergétique et de ressources liées à l'entraînement et à l'utilisation des modèles, ce qui est particulièrement pertinent dans un contexte où les énergies sontlimitées.

2. **Praticité des Modèles Génériques** :

   - Cette technique permet de rendre les modèles génératifs plus accessibles pour les applications pratiques, comme les assistants virtuels, les plateformes de traitement du langage naturel (NLP), ou les réseaux sociaux.

3. **Développement de Modèles plus Performants** :

   - La distillation peut être utilisée pour améliorer la performance des modèles existants, en particulier dans les cas où des modèles minuscules sont déjà suffisants pour une tâche donnée.

---

 **Questions que Peut Répondre ce Texte**

1. **Qu'est-ce que la distillation des modèles ?**

   - C'est une technique utilisée pour réduire la taille d'un modèle tout en conservant ou améliorant son performance.

2. **Comment aient-ils utilisé DeepSeek-R1 dans leur étude ?**

   - Ils l'ont utilisé comme source de données ou de connaissances pour distiller les modèles minuscules.

3. **Pourquoi est-ce important d'avoir un modèle plus petit mais performant ?**

   - Parce qu'il réduit la consommation de ressources computationnelles et rend les modèles plus accessibles pour des applications pratiques.

4. **Est-ce que la distillation fonctionne toujours aussi bien que d'autres méthodes ?**

   - Il semble dépendre du contexte et des données utilisées, mais dans ce cas particulier, elle a été comparée et dominée par d'autres méthodes comme leRL.

5. **Quels sont les domaines où cette technique pourrait être utile ?**

   - Dans n'importe quel domaine où les modèles génératifs sont utilisés, mais plus particulièrement dans des applications où des performances équitables et des ressources limitées sont essentielles.

---

**Conclusion**

L'ex fournit une preuve de concept solide pour la distillation des modèles, en montrant qu'elle peut être une alternative efficace aux méthodes existantes pour générer des modèles minuscules performants. Ce qui est particulièrement utile dans un contexte où les capacités computationnelles sont limitées et où des performances équitables sont nécessaires.


Sympa les source (Citations) ci-dessus.


Website: https://ollama.com/

Find more models: https://ollama.com/library

GitHub: https://github.com/ollama/ollama

API: https://github.com/ollama/ollama/blob/main/docs/api.md

Python SDK: https://github.com/ollama/ollama-python

JS SDK: https://github.com/ollama/ollama-js

FAQs: https://github.com/ollama/ollama/blob/main/docs/faq.md

Follow Ollama on Twitter: 

https://twitter.com/ollama 


Tu veux exécuter DeepSeek R1 en local sur ton PC ? 

Dans cette vidéo, je te montre comment installer et utiliser DeepSeek R1 avec Ollama en seulement 5 minutes !

https://youtu.be/-AqP8_89wMw?si=VYXSaiKCw2Fo7rz6

🔹 Au programme :

✅ Installation d’Ollama

✅ Téléchargement et exécution de DeepSeek R1

✅ Test en local via l’API Ollama

✅ Utilisation en mode chat et streaming

Pourquoi DeepSeek R1 ?

Ce modèle open-source offre des performances impressionnantes et fonctionne sans connexion Internet sur ton ordinateur. Idéal pour les développeurs et passionnés d'IA !

Liens utiles :

▶ DeepSeek : https://www.deepseek.com

▶ Ollama : https://ollama.com

▶ Hugging Face : https://huggingface.co/deepseek-ai


J’ai testé DeepSeek vs. OpenAI-o1 pour les tâches de science des données : voici ce que j’ai trouvé.

0:00 - Introduction
0:37 - Première impression
1:11 - Formation et tests de performance DeepSeek-R1
2:14 - Comment utiliser DeepSeek-R1
4:19 - Question de test n°1 
8:08 - Question de test n°2
11:03 - Question de test #3
13h53 - Conclusion

https://youtu.be/fO80iIHkr9M?si=IBuKinNg3aO-6Cak

----

PIERRE EROL GIRAUDY 

Membre de AIDAUG et UGAIA, GUILD4AI

"UGAIA est une Association de fait"

https://lecercle.guild4ai.ai/






L' AI pour la Généalogie avec UGAIA (G·AI - G·IA) la G·IA.

  La révolution de la généalogie grâce à l’intelligence artificielle  et ses outils. Utilisation du RAG dans Deepseek dans un llm ollama. L...