jeudi 9 janvier 2025

Phi-4

Phi 4 est un modèle ouvert de 14B à la pointe de la technologie de Microsoft.

Un modèle ouvert de paramètres qui fonctionne à égalité avec GPT-4o-mini d'OpenAI de Microsoft est disponible sur Ollama.  

 Principaux cas d’utilisation

Phi-4 est conçu pour accélérer la recherche sur les modèles linguistiques, destinés à servir de base à des fonctionnalités génératives basées sur l'IA. Il fournit des utilisations pour les systèmes et applications d'IA à usage général (principalement en anglais) qui nécessitent : library https://ollama.com/library

Mes Ollama...

Rapport technique du Phi-4   

 Si vous avez des commentaires, veuillez répondre directement à cet e-mail pour nous le faire savoir ou via notre Discord .    https://discord.com/channels/1128867683291627614/1150902223417655317 

Introducing Phi-4: Microsoft’s Newest Small Language Model Specializing in Complex Reasoning | Microsoft Community Hub

https://techcommunity.microsoft.com/blog/aiplatformblog/introducing-phi-4-microsoft%E2%80%99s-newest-small-language-model-specializing-in-comple/4357090

Ollama Phi-4 installé.

 La dernière version d'Ollama est la 0.5.4

 Télécharger Ollama https://github.com/ollama/ollama

Phi 4 est un modèle ouvert de pointe à 14 milliards de paramètres, construit sur un mélange d’ensembles de données synthétiques, de données provenant de sites Web filtrés du domaine public, de livres universitaires acquis et d’ensembles de données de questions-réponses.

Phi-4 benchmark

Le modèle a fait l’objet d’un processus rigoureux d’amélioration et d’alignement, intégrant à la fois un réglage fin supervisé et une optimisation directe des préférences pour garantir un respect précis des instructions et des mesures de sécurité robustes.

Durée du contexte : 16k tokens

Phi-4 performance eval by Microsoft

Principaux cas d’utilisation

Le modèle est conçu pour accélérer la recherche sur les modèles de langage, à utiliser comme élément constitutif des fonctionnalités générées par l’IA. Il fournit des utilisations pour des systèmes et des applications d’IA à usage général (principalement en anglais) qui nécessitent :

  1. Environnements à mémoire limitée/calcul.
  2. Scénarios liés à la latence.
  3. Raisonnement et logique.

Cas d’utilisation hors du champ d’application

Les modèles ne sont pas spécifiquement conçus ou évalués pour toutes les applications en aval, de sorte que :

  1. Les développeurs doivent tenir compte des limites courantes des modèles de langage lorsqu’ils sélectionnent les cas d’utilisation, et évaluer et atténuer l’exactitude, la sécurité et l’équité avant de les utiliser dans un cas d’utilisation en aval spécifique, en particulier pour les scénarios à haut risque.
  2. Les développeurs doivent connaître et respecter les lois ou réglementations applicables (y compris la confidentialité, les lois sur la conformité commerciale, etc.) qui sont pertinentes pour leur cas d’utilisation, y compris l’accent mis sur l’anglais par le modèle.
  3. Rien de ce qui est contenu dans ce fichier readme ne doit être interprété comme une restriction ou une modification de la licence sous laquelle le modèle est publié.
Ma première question à Phi-4

Favoriser l’innovation en IA de manière sûre et responsable :


La création de solutions d’IA de manière responsable est au cœur du développement de l’IA chez Microsoft. Nous avons mis à la disposition des clients qui construisent avec des modèles Phi nos capacités d’IA responsable robustes, y compris Phi-3.5-mini optimisé pour les PC Windows Copilot+. 


Phi Silica, small but mighty on-device SLM


https://blogs.windows.com/windowsexperience/2024/12/06/phi-silica-small-but-mighty-on-device-slm/


Azure AI Foundry fournit aux utilisateurs un ensemble robuste de fonctionnalités pour aider les organisations à mesurer, atténuer et gérer les risques d’IA tout au long du cycle de développement de l’IA pour les applications traditionnelles d’apprentissage automatique et d’IA générative. Les évaluations Azure AI dans AI Foundry permettent aux développeurs d’évaluer de manière itérative la qualité et la sécurité des modèles et des applications à l’aide de métriques intégrées et personnalisées pour informer les atténuations.  


How to evaluate generative AI models and applications with Azure AI Foundry - Azure AI Foundry | Microsoft Learn

https://learn.microsoft.com/en-us/azure/ai-studio/how-to/evaluate-generative-ai-app


https://ai.azure.com/explore/models/Phi-4/version/1/registry/azureml?tid=6e64fb26-716e-4bec-a05a-2b526a797c2e

De plus, les utilisateurs de Phi peuvent utiliser les fonctionnalités de sécurité du contenu Azure AI telles que les boucliers d’invite, la détection de matériaux protégés et la détection de mise à la terre. 

Ces fonctionnalités peuvent être exploitées en tant que filtres de contenu avec n’importe quel modèle de langage inclus dans notre catalogue de modèles, et les développeurs peuvent intégrer facilement ces fonctionnalités dans leur application via une API unique. 

Une fois en production, les développeurs peuvent surveiller la qualité et la sécurité de leur application, les attaques contradictoires et l’intégrité des données, en intervenant en temps opportun à l’aide d’alertes en temps réel.

Comparaison des modifications

Choisissez deux branches pour voir ce qui a changé ou pour démarrer une nouvelle demande de tirage. Si vous en avez besoin, vous pouvez également  ou en savoir plus sur les comparaisons de différentiels.

Comparing v0.4.5...v0.4.6 · ollama/ollama · GitHub

https://github.com/ollama/ollama/compare/v0.4.5...v0.4.6


En mai, nous avons présenté les PC Copilot+, ces appareils incluent une unité de traitement neuronal (NPU) capable de plus de 40 trillions d’opérations par seconde (TOPS). Lors de notre annonce de mai, nous avons également dévoilé Phi Silica, le nouveau SLM sur l’appareil disponible à partir des NPU Snapdragon X Series. 

Phi Silica est la série sœur de modèles Phi qui exploite le NPU sur les PC Copilot+. 

Lors de l’Ignite de novembre, nous avons également annoncé que les développeurs pourront accéder à l’API Phi Silica à partir de janvier 2025. 

Les développeurs peuvent intégrer des fonctionnalités d’intelligence linguistique dans leurs applications sans avoir à se soucier de l’optimisation ou de la personnalisation du modèle, car Phi Silica est préréglé et livré dans la boîte de réception.

https://blogs.windows.com/windowsexperience/2024/12/06/phi-silica-small-but-mighty-on-device-slm/

https://www.microsoft.com/applied-sciences/

https://news.microsoft.com/source/features/ai/the-phi-3-small-language-models-with-big-potential/

https://blogs.windows.com/windowsexperience/2024/11/19/microsoft-ignite-2024-embracing-the-future-of-windows-at-work/

https://youtu.be/lo-uIlQbfUs?si=PVclIFaeUsDUqB6x


Conclusion retour à la réalité : 

Bien que les réalisations de Phi-4 soient importantes, les performances de référence doivent être interprétées en tenant compte du contexte. Le rapport technique de Microsoft reconnaît plusieurs faiblesses, offrant une vision équilibrée de ses capacités :


Hallucinations factuelles : 

Phi-4 peut fabriquer des informations plausibles mais incorrectes, comme l’invention de biographies pour des noms qui semblent réels. Sans outils tels que les moteurs de recherche, ces problèmes sont difficiles à résoudre complètement.

Respect des instructions : 

le modèle a du mal à gérer les tâches nécessitant un formatage strict ou des instructions détaillées, telles que la génération de données tabulaires ou des structures à puces. Cette limitation provient du fait qu’il se concentre sur les questions et réponses et les tâches de raisonnement pendant la formation.

Erreurs de raisonnement : 

Malgré ses prouesses, Phi-4 peut faire des erreurs de raisonnement, jugeant parfois mal même de simples comparaisons (par exemple, identifiant à tort « 9,9 » comme étant plus petit que « 9,11 »).

Compromis d’interaction : 

Phi-4 est optimisé pour les requêtes à tour unique et, en tant que tel, fournit parfois des explications trop détaillées sur la chaîne de pensée qui peuvent rendre les interactions simples fastidieuses.

Pourquoi c’est toujours important : 

Malgré ces limitations, Phi-4 représente une avancée majeure dans la conception efficace de l’IA. Sa capacité à surpasser les modèles plus grands sur les tâches STEM tout en utilisant moins de ressources est une réalisation importante.

L’essentiel : 

Phi-4 illustre la promesse de modèles plus petits et plus intelligents adaptés à des domaines spécifiques. Bien que ses performances sur des benchmarks comme l’AMC soient remarquables, les développeurs doivent tenir compte de ses limites, en particulier en matière de fiabilité factuelle et de respect strict des instructions. 

Phi-4 est actuellement disponible sur Azure AI Foundry et sera disponible sur Hugging Face.

syedaic/phi-4-abliterated-Q8_0-GGUF · Hugging Face

https://huggingface.co/syedaic/phi-4-abliterated-Q8_0-GGUF


Phi-4 Technical Report :



mercredi 8 janvier 2025

Comparaison approfondie des IA en 2025

Comparaison approfondie des IA en 2025 : 


Comparaison mise à jour


Mon avis personnel (mis à jour)

Le choix de l'IA idéale dépend toujours de vos besoins spécifiques.

  • Si vous êtes développeur: Copilot est un incontournable pour booster votre productivité.
  • Si vous avez besoin d'une solution polyvalente: OpenAI reste un excellent choix.
  • Si vous privilégiez le respect de la vie privée et la personnalisation: Mistral est une option intéressante.
  • Si vous recherchez une IA spécialisée dans la recherche: Perplexity est faite pour vous.

Nouvelles réflexions:

  • Spécialisation: Les IA se spécialisent de plus en plus. Il est intéressant de comparer les modèles sur des tâches spécifiques (rédaction, traduction, génération de code...).
  • Évolution rapide: Le paysage des IA évolue rapidement. Il est important de suivre les dernières avancées et mises à jour.
  • Combinaison des outils: N'hésitez pas à combiner plusieurs IA pour obtenir les meilleurs résultats. Par exemple, utiliser Copilot pour le développement et Perplexity pour la recherche.

Questions pour affiner votre choix:

  • Quelles sont les tâches que vous souhaitez automatiser avec une IA ?
  • Quel est votre budget ?
  • Privilégiez-vous la qualité, la vitesse ou la polyvalence ?
  • Souhaitez-vous une IA personnalisable ou une solution clé en main ?

N'hésitez pas à me poser d'autres questions !

Note: J'ai ajouté une section "Nouvelles réflexions" pour apporter une perspective plus large sur le choix d'une IA. J'ai également souligné l'importance de suivre l'évolution du marché et de combiner éventuellement plusieurs outils.

Copilot (Prix variable selon l'abonnement)

  • Atouts :
    • Complétion de code intelligente: Excellente pour accélérer le développement, suggérant du code, des fonctions entières, et même des tests unitaires.
    • Intégration profonde avec les IDE: Fonctionne de manière transparente au sein de votre environnement de développement préféré (VS Code, etc.).
    • Apprentissage continu: S'améliore constamment grâce à la communauté d'utilisateurs.
  • Limitations:
    • Dépendance à un IDE: Moins polyvalent qu'un modèle de langage général.
    • Coût: Peut devenir rapidement onéreux pour une utilisation intensive.
  • Idéal pour:
    • Les développeurs souhaitant gagner en productivité et en qualité de code.

Les coûts associés aux API et aux tokens : une analyse détaillée

Comprendre les tarifs des API et des tokens est essentiel pour optimiser l'utilisation de ces outils et éviter les mauvaises surprises.

Qu'est-ce qu'une API et un token ?

  • API (Application Programming Interface) : Il s'agit d'un ensemble de règles et de spécifications qui permettent à différentes applications de communiquer entre elles.
  • Token : Un token est une chaîne de caractères qui sert d'identifiant unique pour authentifier une requête à une API. Il permet de vérifier l'identité de l'utilisateur ou de l'application et de limiter l'accès à certaines fonctionnalités.

Comment sont facturés les usages des API et des tokens ?

Les modèles de tarification varient considérablement d'un fournisseur à l'autre et peuvent dépendre de plusieurs facteurs :

  • Le nombre de requêtes: Plus vous effectuez de requêtes à l'API, plus le coût augmente.
  • La quantité de données traitées: Le volume de données transmises dans chaque requête peut influencer le prix.
  • La complexité de la requête: Certaines requêtes plus complexes (par exemple, une traduction longue ou une génération d'image détaillée) peuvent être plus coûteuses.
  • Le modèle d'utilisation: Certains fournisseurs proposent des tarifs fixes mensuels, tandis que d'autres facturent à l'usage.

Les principaux modèles de tarification sont les suivants :

  • Paiement à l'usage: Vous payez en fonction du nombre de requêtes effectuées et de la quantité de données utilisées.
  • Abonnement: Vous souscrivez à un abonnement mensuel ou annuel qui vous donne accès à un certain nombre de requêtes ou de données.
  • Gratuité avec limites: Certaines API proposent un niveau d'utilisation gratuit, mais avec des limitations en termes de nombre de requêtes ou de fonctionnalités.
  • Modèle hybride: Certains fournisseurs combinent plusieurs modèles de tarification.

Exemples de fournisseurs et de leurs tarifs

Les tarifs des API peuvent varier considérablement d'un fournisseur à l'autre. Voici quelques exemples :

  • OpenAI: Propose des tarifs à l'usage pour ses modèles GPT, avec des prix qui varient en fonction du modèle et de la quantité de texte générée.
  • Google Cloud Platform: Offre une tarification flexible pour ses API, avec des options à l'usage et des abonnements.
  • Amazon Web Services: Propose une large gamme d'API avec des tarifs compétitifs, souvent facturés à l'heure.
  • Microsoft Azure: Offre des tarifs similaires à ceux d'AWS, avec des options de réservation pour les clients à fort volume.

Comment optimiser vos coûts ?

  • Choisissez le bon modèle de tarification: Évaluez vos besoins et choisissez le modèle qui vous convient le mieux.
  • Optimisez vos requêtes: Réduisez le nombre de requêtes en regroupant les informations, en utilisant des paramètres par défaut et en évitant les requêtes inutiles.
  • Utilisez des tokens efficacement: Gérez vos tokens avec soin et évitez de les exposer.
  • Surveillez votre consommation: Utilisez les outils de monitoring mis à disposition par les fournisseurs pour suivre votre consommation et identifier les éventuels problèmes.
  • Comparez les offres: N'hésitez pas à comparer les offres de différents fournisseurs pour trouver la solution la plus adaptée à vos besoins.

En conclusion, les coûts associés aux API et aux tokens peuvent varier considérablement en fonction de nombreux facteurs. Il est important de bien comprendre les différents modèles de tarification et d'optimiser votre utilisation pour éviter les mauvaises surprises.

Pour obtenir des informations plus précises sur les tarifs, je vous invite à consulter la documentation des API que vous souhaitez utiliser.


Bienvenue to Mistral AI Documentation | Mistral AI Large Language Models

Technologie | Mistral AI | Frontier AI in your hands

https://mistral.ai/fr/technology/#pricing


Tarifs OpenAI pour générer 10 000 mots avec GPT-3 : Une estimation complexe

La réponse exacte à votre question est difficile à donner sans plus de détails, car les coûts peuvent varier considérablement en fonction de plusieurs facteurs.

Les facteurs influençant le coût :

  • Le modèle GPT-3 choisi: OpenAI propose plusieurs modèles GPT-3, chacun avec ses propres capacités et tarifs. Les modèles plus puissants (comme Davinci) sont généralement plus chers que les modèles moins puissants (comme Ada).
  • La longueur des prompts: Plus vos prompts (les instructions que vous donnez au modèle) sont longs, plus le coût augmente.
  • La longueur des réponses: Évidemment, plus le modèle génère de texte, plus le coût augmente.
  • Les fonctionnalités utilisées: Certaines fonctionnalités avancées, comme la traduction ou la génération de code, peuvent entraîner des coûts supplémentaires.

Comment estimer le coût ?

1. Compter les tokens:

  • Qu'est-ce qu'un token ? Un token est une unité de base utilisée pour mesurer la quantité de texte. Un mot peut correspondre à plusieurs tokens, et la longueur d'un token peut varier en fonction de la langue et des caractères utilisés.
  • Pourquoi compter les tokens ? Les tarifs d'OpenAI sont généralement calculés en fonction du nombre de tokens utilisés pour les prompts et les réponses.

2. Consulter les tarifs d'OpenAI:

  • Le site officiel d'OpenAI: C'est la source la plus fiable pour obtenir les tarifs les plus récents. Les tarifs peuvent changer régulièrement, il est donc important de vérifier les informations directement sur le site.
  • La documentation technique: La documentation technique d'OpenAI fournit des informations détaillées sur les différents modèles, leurs capacités et leurs tarifs.

3. Utiliser un calculateur de coût:

  • Outils en ligne: Il existe des outils en ligne qui peuvent vous aider à estimer le coût de votre utilisation d'OpenAI, en fonction du modèle choisi et du nombre de tokens.

Un exemple simplifié :

Supposons que :

  • Vous utilisez le modèle Davinci.
  • Un mot correspond en moyenne à 1,5 token.
  • Le coût par 1000 tokens est de 0,06 $.

Pour générer 10 000 mots, vous aurez besoin d'environ 15 000 tokens. Le coût estimé serait donc de :

  • 15 000 tokens / 1000 tokens/1000 tokens * 0,06 $/1000 tokens = 0,9 $.

Important : Cet exemple est très simplifié et ne prend pas en compte tous les facteurs qui peuvent influencer le coût final.

Pour obtenir une estimation plus précise, je vous recommande de:

  • Consulter la documentation technique d'OpenAI: Vous y trouverez les informations les plus à jour sur les tarifs et les modèles.
  • Utiliser un outil de calcul de coût en ligne: De nombreux outils sont disponibles pour vous aider à estimer vos coûts.
  • Effectuer des tests: La meilleure façon d'obtenir une estimation précise est d'effectuer des tests avec de petits volumes de texte pour voir comment les coûts évoluent.

En conclusion, le coût de génération de 10 000 mots avec GPT-3 peut varier considérablement en fonction de plusieurs facteurs. Il est essentiel de bien comprendre les tarifs d'OpenAI et d'utiliser les outils mis à votre disposition pour estimer vos coûts.

Voulez-vous que je vous aide à trouver un outil de calcul de coût ou que je vous explique plus en détail comment lire la documentation technique d'OpenAI ?

Liens OpenAI

https://chatgpt.com/ : commencez ici pour accéder à ChatGPT.

https://platform.openai.com/playground : le Playground d’OpenAI.

https://community.openai.com : forum d’OpenAI.

https://platform.openai.com/docs/plugins/getting-started : documentation d’OpenAI.

https://www.bing.com/images/create?FORM=GENEXP : pour générer des images gratuitement avec Dall-E.

https://openai.com/news/ : pour les dernières informations sur OpenAI.

 ---



Phi-4

Phi 4 est un modèle ouvert de 14B à la pointe de la technologie de Microsoft. Un modèle ouvert de paramètres qui fonctionne ...