Phi 4 est un modèle ouvert de 14B à la pointe de la technologie de Microsoft.
Un modèle ouvert de paramètres qui fonctionne à égalité avec GPT-4o-mini d'OpenAI de Microsoft est disponible sur Ollama.
Principaux cas d’utilisation
Phi-4 est conçu pour accélérer la recherche sur les modèles linguistiques, destinés à servir de base à des fonctionnalités génératives basées sur l'IA. Il fournit des utilisations pour les systèmes et applications d'IA à usage général (principalement en anglais) qui nécessitent : library https://ollama.com/library
Rapport technique du Phi-4
Si vous avez des commentaires, veuillez répondre directement à cet e-mail pour nous le faire savoir ou via notre Discord . https://discord.com/channels/1128867683291627614/1150902223417655317
Introducing Phi-4: Microsoft’s Newest Small Language Model Specializing in Complex Reasoning | Microsoft Community Hub
La dernière version d'Ollama est la 0.5.4
Télécharger Ollama https://github.com/ollama/ollama
Phi 4 est un modèle ouvert de pointe à 14 milliards de paramètres, construit sur un mélange d’ensembles de données synthétiques, de données provenant de sites Web filtrés du domaine public, de livres universitaires acquis et d’ensembles de données de questions-réponses.
Le modèle a fait l’objet d’un processus rigoureux d’amélioration et d’alignement, intégrant à la fois un réglage fin supervisé et une optimisation directe des préférences pour garantir un respect précis des instructions et des mesures de sécurité robustes.
Durée du contexte : 16k tokens
Principaux cas d’utilisation
Le modèle est conçu pour accélérer la recherche sur les modèles de langage, à utiliser comme élément constitutif des fonctionnalités générées par l’IA. Il fournit des utilisations pour des systèmes et des applications d’IA à usage général (principalement en anglais) qui nécessitent :
- Environnements à mémoire limitée/calcul.
- Scénarios liés à la latence.
- Raisonnement et logique.
Cas d’utilisation hors du champ d’application
Les modèles ne sont pas spécifiquement conçus ou évalués pour toutes les applications en aval, de sorte que :
- Les développeurs doivent tenir compte des limites courantes des modèles de langage lorsqu’ils sélectionnent les cas d’utilisation, et évaluer et atténuer l’exactitude, la sécurité et l’équité avant de les utiliser dans un cas d’utilisation en aval spécifique, en particulier pour les scénarios à haut risque.
- Les développeurs doivent connaître et respecter les lois ou réglementations applicables (y compris la confidentialité, les lois sur la conformité commerciale, etc.) qui sont pertinentes pour leur cas d’utilisation, y compris l’accent mis sur l’anglais par le modèle.
- Rien de ce qui est contenu dans ce fichier readme ne doit être interprété comme une restriction ou une modification de la licence sous laquelle le modèle est publié.
Favoriser l’innovation en IA de manière sûre et responsable :
La création de solutions d’IA de manière responsable est au cœur du développement de l’IA chez Microsoft. Nous avons mis à la disposition des clients qui construisent avec des modèles Phi nos capacités d’IA responsable robustes, y compris Phi-3.5-mini optimisé pour les PC Windows Copilot+.
Phi Silica, small but mighty on-device SLM
https://blogs.windows.com/windowsexperience/2024/12/06/phi-silica-small-but-mighty-on-device-slm/
Azure AI Foundry fournit aux utilisateurs un ensemble robuste de fonctionnalités pour aider les organisations à mesurer, atténuer et gérer les risques d’IA tout au long du cycle de développement de l’IA pour les applications traditionnelles d’apprentissage automatique et d’IA générative. Les évaluations Azure AI dans AI Foundry permettent aux développeurs d’évaluer de manière itérative la qualité et la sécurité des modèles et des applications à l’aide de métriques intégrées et personnalisées pour informer les atténuations.
How to evaluate generative AI models and applications with Azure AI Foundry - Azure AI Foundry | Microsoft Learn
https://learn.microsoft.com/en-us/azure/ai-studio/how-to/evaluate-generative-ai-app
De plus, les utilisateurs de Phi peuvent utiliser les fonctionnalités de sécurité du contenu Azure AI telles que les boucliers d’invite, la détection de matériaux protégés et la détection de mise à la terre.
Ces fonctionnalités peuvent être exploitées en tant que filtres de contenu avec n’importe quel modèle de langage inclus dans notre catalogue de modèles, et les développeurs peuvent intégrer facilement ces fonctionnalités dans leur application via une API unique.
Une fois en production, les développeurs peuvent surveiller la qualité et la sécurité de leur application, les attaques contradictoires et l’intégrité des données, en intervenant en temps opportun à l’aide d’alertes en temps réel.
Comparaison des modifications
Choisissez deux branches pour voir ce qui a changé ou pour démarrer une nouvelle demande de tirage. Si vous en avez besoin, vous pouvez également ou en savoir plus sur les comparaisons de différentiels.
Comparing v0.4.5...v0.4.6 · ollama/ollama · GitHub
https://github.com/ollama/ollama/compare/v0.4.5...v0.4.6
En mai, nous avons présenté les PC Copilot+, ces appareils incluent une unité de traitement neuronal (NPU) capable de plus de 40 trillions d’opérations par seconde (TOPS). Lors de notre annonce de mai, nous avons également dévoilé Phi Silica, le nouveau SLM sur l’appareil disponible à partir des NPU Snapdragon X Series.
Phi Silica est la série sœur de modèles Phi qui exploite le NPU sur les PC Copilot+.
Lors de l’Ignite de novembre, nous avons également annoncé que les développeurs pourront accéder à l’API Phi Silica à partir de janvier 2025.
Les développeurs peuvent intégrer des fonctionnalités d’intelligence linguistique dans leurs applications sans avoir à se soucier de l’optimisation ou de la personnalisation du modèle, car Phi Silica est préréglé et livré dans la boîte de réception.
https://blogs.windows.com/windowsexperience/2024/12/06/phi-silica-small-but-mighty-on-device-slm/
https://www.microsoft.com/applied-sciences/
https://news.microsoft.com/source/features/ai/the-phi-3-small-language-models-with-big-potential/
https://youtu.be/lo-uIlQbfUs?si=PVclIFaeUsDUqB6x
Conclusion retour à la réalité :
Bien que les réalisations de Phi-4 soient importantes, les performances de référence doivent être interprétées en tenant compte du contexte. Le rapport technique de Microsoft reconnaît plusieurs faiblesses, offrant une vision équilibrée de ses capacités :
Hallucinations factuelles :
Phi-4 peut fabriquer des informations plausibles mais incorrectes, comme l’invention de biographies pour des noms qui semblent réels. Sans outils tels que les moteurs de recherche, ces problèmes sont difficiles à résoudre complètement.
Respect des instructions :
le modèle a du mal à gérer les tâches nécessitant un formatage strict ou des instructions détaillées, telles que la génération de données tabulaires ou des structures à puces. Cette limitation provient du fait qu’il se concentre sur les questions et réponses et les tâches de raisonnement pendant la formation.
Erreurs de raisonnement :
Malgré ses prouesses, Phi-4 peut faire des erreurs de raisonnement, jugeant parfois mal même de simples comparaisons (par exemple, identifiant à tort « 9,9 » comme étant plus petit que « 9,11 »).
Compromis d’interaction :
Phi-4 est optimisé pour les requêtes à tour unique et, en tant que tel, fournit parfois des explications trop détaillées sur la chaîne de pensée qui peuvent rendre les interactions simples fastidieuses.
Pourquoi c’est toujours important :
Malgré ces limitations, Phi-4 représente une avancée majeure dans la conception efficace de l’IA. Sa capacité à surpasser les modèles plus grands sur les tâches STEM tout en utilisant moins de ressources est une réalisation importante.
L’essentiel :
Phi-4 illustre la promesse de modèles plus petits et plus intelligents adaptés à des domaines spécifiques. Bien que ses performances sur des benchmarks comme l’AMC soient remarquables, les développeurs doivent tenir compte de ses limites, en particulier en matière de fiabilité factuelle et de respect strict des instructions.
Phi-4 est actuellement disponible sur Azure AI Foundry et sera disponible sur Hugging Face.
syedaic/phi-4-abliterated-Q8_0-GGUF · Hugging Face
https://huggingface.co/syedaic/phi-4-abliterated-Q8_0-GGUF