lundi 21 octobre 2024

L’application ChatGPT est DISPONIBLE sur Windows ! (Tuto complet)

ChatGPT (Early Version for Plus, Team, Enterprise, and Edu).


L'application ChatGPT : https://openai.com/chatgpt/download/


OpenAI a annoncé le lancement en avant-première de l'application ChatGPT dédiée pour Windows. Actuellement accessible aux utilisateurs de ChatGPT Plus, Team, Enterprise, et Edu, cette version préliminaire précède une version complète prévue plus tard dans l'année. L'application permet aux utilisateurs de discuter autour de fichiers et de photos, tout en offrant les dernières améliorations du modèle OpenAI, incluant l'accès à OpenAI o1-preview. Bien que compatible avec la plupart des appareils Windows 10, certaines fonctionnalités, comme le mode vocal avancé et certaines intégrations du GPT Store, ne sont pas encore disponibles.


Chapitres de la vidéo :


0:00 Introduction
0:41 L'annonce d'OpenAI
1:49 Les fonctionnalités
2:37 Les avantages de l'application
3:16 Les inconvénients de l'application
3:48 Comment installer l'application ChatGPT ?
4:49 Prise en main de l'application
6:21 L'application qui va vous faire gagner du temps
7:06 Démonstrations de l'application
13:01 Conclusion

Sources de la vidéo : 


Article de Tech Crunch : ChatGPT comes to Windows | TechCrunch

Voici un résumé des 5 points en français :


1. **Introduction de l'application ChatGPT pour Windows (00:00 - 01:21) :**
   - ChatGPT est désormais disponible en tant qu'application sur Windows, lancée le 17 octobre.
   - Accessible d'abord aux abonnés ChatGPT Plus, Entreprise, Team, et EDU.
   - L'application propose un raccourci (Alt + Espace) pour un accès rapide.

2. **Fonctionnalités clés et avantages (01:21 - 02:36) :**
   - L'application permet un accès plus rapide par rapport à la version navigateur.
   - Une petite fenêtre pop-up permet des interactions rapides sans ouvrir l'interface complète.
   - Elle devrait être accessible à tous les utilisateurs d'ici la fin de l'année.

3. **Instructions pour l'installation (03:28 - 04:57) :**
   - Il faut se rendre sur le site d’OpenAI, télécharger l'application pour Windows et se connecter via un navigateur.
   - L'application peut être épinglée à la barre des tâches pour un accès plus facile.

4. **Cas d'utilisation et limites (06:18 - 10:28) :**
   - L'application est utile pour poser des questions rapides, résumer des articles, résoudre des problèmes et s'intégrer avec des outils de développement.
   - Elle présente toutefois des limites, comme l'absence de commandes vocales avancées, le partage d'écran en temps réel et certaines fonctions comme "Ctrl + F".

5. **Potentiel futur et conclusion (13:11 - 14:00) :**
   - Une mise à jour pourrait permettre à ChatGPT d’interagir en temps réel avec les écrans des utilisateurs, ce qui améliorerait grandement la productivité.
   - L'auteur propose une formation gratuite pour utiliser l’IA et invite à s’abonner pour plus de contenu.

Get ChatGPT on mobile or desktop.


Download ChatGPT | OpenAI


ChatGPT (Early Version for Plus, Team, Enterprise, and Edu)




samedi 19 octobre 2024

NVIDIA a créé une IA Nemotron 70b


NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b)


Dans cette vidéo, on plonge dans l'univers de Nemotron, un modèle de langage open source développé par Nvidia et basé sur LLAMA 3.1 de Meta. Avec ses 70 milliards de paramètres, Nemotron se distingue par une performance impressionnante, notamment grâce à l'apprentissage par renforcement à partir du feedback humain (RLHF). 

Ce modèle est conçu pour des tâches complexes comme le raisonnement mathématique ou la modération de contenu, tout en restant plus économe en ressources que des modèles comme GPT-4. 
Découvrez pourquoi Nemotron est un acteur clé dans l'évolution des modèles d'intelligence artificielle.

Chapitres de la vidéo : 

0:00 Introduction
0:59 Présentation de Nemotron 70b
2:33 Les performances de ce modèle
4:10 Pourquoi ce modèle est si bon ? 
5:07 Les 3 avantages de cette méthode
5:41 Comment tester Nemotron 70b ?
6:27 Test et comparaison de ce modèle
14:21 Conclusion

Sources de la vidéo : 


(37) NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b) - YouTube :


nvidia/Llama-3.1-Nemotron-70B-Reward-HF · Hugging Face :



Llama-3.1-Nemotron-70B-Reward est un grand modèle de langage personnalisé développé par NVIDIA pour prédire la qualité des réponses générées par LLM. Plus précisément, il a été entraîné à l’aide d’une base Llama-3.1-70B-Instruct sur une nouvelle approche combinant la force de Bradley Terry et la modélisation de récompense de régression SteerLM.

Étant donné une conversation en anglais avec plusieurs tours entre l’utilisateur et l’assistant (jusqu’à 4 096 jetons), il évalue la qualité du tour final de l’assistant à l’aide d’un score de récompense.

Pour la même invite, une réponse avec un score de récompense plus élevé a une qualité supérieure à une autre réponse avec un score de récompense inférieur, mais on ne peut pas en dire autant lorsque l’on compare les scores entre les réponses à différentes invites.

Llama-3.1-Nemotron-70B-Reward-HF a été converti à partir de Llama-3.1-Nemotron-70B-Reward pour le soutenir dans la base de code de HuggingFace Transformers. Veuillez noter que les résultats de l’évaluation peuvent être légèrement différents de ceux du Lama-3.1-Nemotron-70B-Reward tel qu’évalué dans NeMo-Aligner, sur lequel les résultats d’évaluation ci-dessous sont basés.

Essayez gratuitement l’inférence hébergée chez build.nvidia.com - elle est livrée avec une interface API compatible OpenAI et le simple fait de vous inscrire vous permet d’obtenir 100k appels API gratuits vers ce modèle.

En utilisant ce modèle de récompense pour RLHF (plus précisément, REINFORCE), nous avons pu régler un modèle Llama-3.1-70B-Instruct pour atteindre AlpacaEval 2 LC de 57,6, Arena Hard de 85,0 et GPT-4-Turbo MT-Bench de 8,98, qui sont connus pour être prédictifs de LMSys Chatbot Arena Elo Ce modèle Instruct est disponible chez Llama-3.1-Nemotron-70B-Instruct en tant que modèle .nemo et Llama-3.1-Nemotron-70B-Instruct-HF en tant que modèle HF Transformers.

Au 1er octobre 2024, ce modèle est #1 sur les trois benchmarks d’alignement automatique, devançant les modèles de frontière forts tels que GPT-4o et Claude 3.5 Sonnet.

Voir les détails sur notre article à https://arxiv.org/abs/2410.01257 - en guise d’aperçu, ce modèle peut corriger la question sans incitation spécialisée ni jetons de raisonnement supplémentaires....

llama-3_1-nemotron-70b-instruct | NVIDIA NIM :




Nvidia Releases Nemotron 70B Model; Claims to Beat GPT-4o and Claude 3.5 Sonnet | Beebom :



En dehors de cela, Nvidia affirme que Llama 3.1 Nemotron 70B peut répondre correctement à la question de la fraise (combien de r dans fraise ?) qui a déconcerté tant de LLM. 

Voir les détails sur notre article à https://arxiv.org/abs/2410.01257 - en guise d’aperçu, ce modèle peut corriger la question sans incitation spécialisée ni jetons de raisonnement supplémentaires :How many r in strawberry?

[2410.01257] HelpSteer2-Preference: Complementing Ratings with Preferences


$ ollama run nemotron
>>> How many r in strawberry?
A sweet question!

Let's count the "R"s in "strawberry":

1. S
2. T
3. R
4. A
5. W
6. B
7. E
8. R
9. R
10. Y

There are **3** "R"s in the word "strawberry".

Il n’utilise pas de jetons de raisonnement supplémentaires comme les modèles OpenAI o1 ou ne tire pas parti d’invites spécialisées pour obtenir la bonne réponse. 

Lors de mes brefs tests, le modèle s’est trompé du premier coup. Cependant, lorsque j’ai posé à nouveau la même question, elle a correctement répondu aux 3 R.

3 R dans Strawberry.

GitHub - NVIDIA/NeMo: A scalable generative AI framework built for researchers and developers working on Large Language Models, Multimodal, and Speech AI (Automatic Speech Recognition and Text-to-Speech) :

https://github.com/NVIDIA/NeMo


Quickstart with NeMo-Run — NVIDIA NeMo Framework User Guide latest documentation :



library  nemotron :

Llama-3.1-Nemotron-70B-Instruct est un grand modèle de langage personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par LLM aux requêtes des utilisateurs.


Nemotron-Mini :

C'est petit modèle de langage de NVIDIA optimisé pour le jeu de rôle, l’assurance qualité RAG et l’appel de fonctions.

Nemotron-Mini-4B-Instruct est un modèle de génération de réponses pour le jeu de rôle, la récupération, la génération augmentée et l’appel de fonctions. Il s’agit d’un modèle de petit langage (SLM) optimisé par distillation, élagage et quantification pour la vitesse et le déploiement sur l’appareil.

Ce modèle d’instruction est optimisé pour le jeu de rôle, l’assurance qualité RAG et l’appel de fonction en anglais. Il prend en charge une longueur de contexte de 4 096 jetons. Ce modèle est prêt pour un usage commercial.

Llama-3.1-Nemotron-70B


Llama-3.1-Nemotron-70B-Instruct est un grand modèle de langage personnalisé par NVIDIA pour améliorer l’utilité des réponses générées par LLM aux requêtes des utilisateurs.

Ce modèle a été entraîné à l’aide des invites RLHF (plus précisément, REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference sur un modèle Llama-3.1-70B-Instruct comme politique initiale.


nemotron:latest


Nom Digérer Modifié à Taille Actions

nemotron:latest 2262f...d589 a minute     40 GB


mistral:latest f974a...5091 7 days             3.8 GB


llava:latest 8dd30...d081 7 days             4.4 GB


mistral-small:latest d095c...88bc 8 days     12 GB


llama3.2:latest a80c4...8b72 9 days             1.9 GB


Performance du PC-AI. 

C:\Users\erolg>ollama list
NAME                    ID              SIZE      MODIFIED
nemotron-mini:latest    ed76ab18784f    2.7 GB    24 minutes ago
nemotron:latest         2262f047a28a    42 GB     36 minutes ago
mistral:latest          f974a74358d6    4.1 GB    6 days ago
llava:latest            8dd30f6b0cb1    4.7 GB    7 days ago
mistral-small:latest    d095cd553b04    12 GB     8 days ago
llama3.2:latest         a80c4f17acd5    2.0 GB    8 days ago

C:\Users\erolg>

Installation de Llama 3.2 sur un PC-AI sous Windows.


Installation de Nemotron 70b sur un PC-AI sous Windows, et son plan de gouvernance :



--- 

Pierre Erol GIRAUDY 

http://about.me/giraudyerol

https://guild4ai.ai/





jeudi 17 octobre 2024

L'Intelligence Artificielle en Afrique : Réalisations, Problèmes, Enjeux...


Dans cette vidéo, nous faisons l'Etat des lieux de l'Intelligence Artificielle en Afrique. Quels sont les domaines dans lesquels l'Intelligence Artificielle est appliquée est quels sont les startups qui y interviennent ? Quelles sont les écoles et universités qui proposent des Masters en IA et Data Science ? Quels sont les problèmes qui ralentissent l'utilisation de l'IA en Afrique ? Quels sont les biais et dangers auxquels nous exposent une intelligence artificielle non inclusive et sans les africains.

00:00 Intro
02:40 Disclaimer
03:22 L'IA dans Energie en Afrique
05:00 L'IA dans Agriculture en Afrique
07:12 L'IA dans Finance en Afrique
08:31 L'IA dans Santé en Afrique
10:17 L'IA dans la Culture en Afrique
12:36 L'IA dans l'Education en Afrique
15:04 Les problèmes de l'évolution de l'IA en Afrique
18:00 Les biais et dangers de l'IA pour l'Afrique
19:20 Outro

Références
Lien Github de mon bootcamp sur l'analyse de données : https://github.com/kevindegila/data-a...
Fenix International : https://www.fenixintl.com/
Electricity Growth and Use in Developing Economies (e-GUIDE): https://eguide.io/
Zenvus : https://www.zenvus.com/
PlantVillage : https://plantvillage.psu.edu/
Video de PlantVillage sur Tensorflow :    • TensorFlow: an ML platform for solvin...  
HelloTractor : https://hellotractor.com/
Credit scoring avec données Mobile Money IBM : https://www.heinz.cmu.edu/media/2017/...
Tambua Health : https://www.tambuahealth.com/
Video de Tambua Health sur Tensorflow :    • Powered by TensorFlow: Helping doctor...  
Ubenwa : Détéction des lésions cérébrales chez les bébés : https://ubenwa.ai/
Masakhane : https://www.masakhane.io/
Demo de l'application de traduction English to fongbe de TakwimuLab :    • English to Fongbe - #TakwimuTranslate...  
Competition sur Zindi Fongbe-Ewe French : https://zindi.africa/competitions/ai4...
Competition sur la reconnaissance vocale du wolof : https://zindi.africa/competitions/ai4...
Master IA AIMS à Kigali Rwanda : https://aimsammi.org/
Article sur la bourse de Deep Mind en Ouganda: https://news.mak.ac.ug/2021/02/deepmi...
Master Data Science en Côte d'ivoire : https://datascience.inphb.ci/vues/dat...
Data Science Nigeria : https://www.datasciencenigeria.org/
GalsenAI au Sénégal : https://galsen.ai/
Article sur le Lab de GoogleAI au Ghana: https://www.cnbc.com/2018/06/14/googl...
L'offre de AI4D : https://africa.ai4d.ai/fr/calls/multi...
Rapport de l'Unesco sur les besoins de L'Afrique pour utiliser l'IA: https://unesdoc.unesco.org/ark:/48223...
Realizing the Potential of AI in Africa: It All Turns on Trust http://vernon.eu/publications/2021_Al...
Government Artificial Intelligence Readiness
Index 2019 : https://www.oxfordinsights.com/ai-rea...

Rejoins-nous sur discord pour apprendre ensemble :   / discord  

A propos:
Blog : https://www.kevindegila.com
Twitter :   / kevindegila  
LinkedIn :   / kevin-degila-9164b5151  
Facebook :   / kevindegilayoutube  

Abonnez-vous !!!
Tags : Intelligence artificielle en Afrique, Artificial Intelligence in Africa, Startup, Agriculture, Medecine, Santé, Langues peu dotées d'Afrique, AIMS, Finances, Mobile Money, Flutterwave, Paystack, Ubenwa, Masakhane, TakwimuLab, Deep Learning Indaba, Data Science Nigeria, Galsen AI, Rwanda, CMU, DeepMind, Ouganda, Kenya, IBM, Orange, INPHB, Côte d'ivoire, Data Science en Afrique.

Chanson officielle SIN AFRICA


lundi 14 octobre 2024

Gouvernance et Paramétrages d'OLLAMA

 

Paramétrages d'OLLAMA

Paramétrages OLLAMA :


  • Un aperçu des paramètres et de l'administration

    Ollama est une plateforme open-source qui vous permet d'exécuter des modèles de langage de grande taille (LLM) directement sur votre machine. Elle offre une grande flexibilité et une personnalisation poussée, mais nécessite une certaine compréhension technique pour être configurée de manière optimale.


    Les paramètres clés d'Ollama

     La console d'Administration d'OLLAMA / settings


    1. General Settings

    2. RAG Settings

    3. Ollama Settings

    4. Chrome AI Settings

    5. Beta

    6. Manage Models

    7. Manage Knowledge

    8. Manage Prompts

    9. Manage Share

    10. About

     

    Page Assist Version1.2.4

    Ollama Version0.3.13

    CommunityDiscord Server

    X (formerly Twitter)@page_assist

     

     

     Paramètres d'inférence :

     

    Nombre de threads : Détermine le nombre de cœurs de votre processeur utilisés pour les calculs.

    Mémoire : La quantité de mémoire allouée au modèle.

    Précision : Le niveau de précision souhaité pour les calculs.

    Paramètres du serveur :

    Port : Le port sur lequel le serveur Ollama écoute les requêtes.

    Adresse IP : L'adresse IP à laquelle le serveur est lié.

     

    Autres paramètres :

    Interface utilisateur : Vous pouvez choisir entre une interface en ligne de commande ou une interface graphique.

     Personnalisation :

  • De nombreux autres paramètres permettent de personnaliser le comportement du modèle, comme la température (qui contrôle la créativité du modèle), le top_p (qui limite le vocabulaire utilisé), etc.

     

    Paramètres du modèle :

    Choix du modèle : Vous pouvez sélectionner différents modèles (Llama, Mistral, etc.), chacun ayant ses propres forces et faiblesses.

    Taille du modèle : La taille du modèle affecte la qualité des réponses et la quantité de ressources requises (mémoire, puissance de calcul).

    Quantification : Cette technique permet de réduire la taille du modèle pour une inférence plus rapide sur des machines moins puissantes.

     

     

    Inférence :

    Nombre de threads: Détermine le nombre de cœurs de votre CPU à utiliser pour l'inférence.

    Mémoire: La quantité de mémoire allouée au modèle.

    Précision: Le niveau de précision souhaité pour les calculs.

    Serveur:

    Port: Le port sur lequel le serveur Ollama écoute les requêtes.

    Adresse IP: L'adresse IP à laquelle le serveur est lié.

     

    Interface utilisateur:

    Type d'interface : Ollama peut être utilisé via une interface en ligne de commande ou une interface graphique.

     Personnalisation : L'interface peut être personnalisée pour répondre à vos besoins spécifiques.

     

    Administration et paramétrage

    L'administration d'Ollama se fait principalement via la ligne de commande. Voici quelques commandes courantes :

     

    Démarrer Ollama : ollama serve

    Arrêter Ollama : ollama stop

    Charger un modèle : ollama load llama3.2

    Générer du texte : ollama run llama3.2 "Traduis ceci en espagnol : Hello, how are you?"

     

    Paramétrage avancé:

     Pour un paramétrage plus fin, vous pouvez modifier le fichier de configuration d'Ollama (généralement config.yaml). Ce fichier vous permet de personnaliser de nombreux aspects, tels que :

     

    Chemin vers les modèles : Indiquez où sont stockés vos modèles.

    Paramètres du serveur : Configurez le serveur HTTP.

    Journalisation : Configurez les niveaux de journalisation.

    Plugins: Ajoutez des plugins pour étendre les fonctionnalités d'Ollama.

    Outils d'aide

     

     Ici j'indexe et travaille sur des documents personnels (un livre)

    L'indexation de documents avec Ollama consiste à transformer vos fichiers (PDF, texte, etc.) en une base de données que vous pouvez interroger à l'aide d'un langage naturel. Cela signifie que vous pouvez poser des questions à votre ordinateur comme vous le feriez à une personne et obtenir des réponses pertinentes basées sur le contenu de vos documents.

     

    En conclusion

     Ollama offre une solution simple et efficace pour indexer vos documents personnels et créer votre propre assistant virtuel. En suivant ces étapes et en explorant les fonctionnalités avancées de LlamaIndex, vous pourrez tirer pleinement parti de cette technologie.

      

    En résumé :

     Ollama est un outil flexible et puissant pour travailler avec des LLM. En ajustant les paramètres, vous pouvez personnaliser l'expérience pour l'adapter à vos besoins spécifiques.

     Pour aller plus loin :

     Si vous souhaitez approfondir vos connaissances sur Ollama, je vous recommande de consulter :

     La documentation officielle d'Ollama : Elle contient des informations détaillées sur tous les paramètres et les fonctionnalités.

    La communauté Ollama : Vous y trouverez de l'aide et des conseils auprès d'autres utilisateurs.

    Des tutoriels en ligne : De nombreux tutoriels sont disponibles pour vous guider dans l'installation et la configuration d'Ollama.

     Unlocking the Power of Ollama: Advanced Configuration Settings

  • https://www.arsturn.com/blog/advanced-configuration-settings-for-ollama

GitHub - ollama/ollama: Get up and running with Llama 3.2, Mistral, Gemma 2, and other large language models.

ollama/docs/modelfile.md at main · ollama/ollama · GitHub

L’application ChatGPT est DISPONIBLE sur Windows ! (Tuto complet)

ChatGPT (Early Version for Plus, Team, Enterprise, and Edu). L'application ChatGPT : https://openai.com/chatgpt/download/ OpenAI a annon...