Intelligence Artificielle Technologie et Innovation Trends

Phi-2 de Microsoft concurrence Gemini Nano de Google

Phi-2 de Microsoft concurrence Gemini Nano de Google | Forcinews
Getting your Trinity Audio player ready...

Microsoft a présenté Phi-2, un petit modèle linguistique d’IA conçu pour l’expérimentation et capable, théoriquement, de fonctionner sur n’importe quel appareil. Une réponse à ses concurrents tels que Gemini Nano de Google.

Microsoft ne compte pas uniquement sur OpenAI en matière d’intelligence artificielle. La société développe également en interne ses propres modèles linguistiques. En juin dernier, elle a dévoilé Phi-1, un petit modèle d’IA qui a réussi à surpasser ChatGPT dans certaines tâches, tout en utilisant moins de puissance. C’est maintenant au tour de Phi-2 de faire son entrée, avec une philosophie similaire.

Phi-2 : moins complexe que GPT ou Gemini, mais puissant

Faire mieux avec moins : telle est la philosophie de Phi-2. Il s’agit d’un petit modèle linguistique, à ne pas confondre avec un modèle linguistique de grande envergure. La différence avec GPT ou Gemini (Pro ou Ultra) réside dans le nombre nettement inférieur de paramètres : 2,7 milliards, comparés à des dizaines, voire des centaines de milliards pour les modèles linguistiques les plus puissants.

De Phi-1.5 à Phi-2 - Source- Microsoft | Forcinews

Microsoft vante les mérites de Phi-2 en affirmant qu’il “démontre des capacités exceptionnelles de raisonnement et de compréhension linguistique, avec des performances de pointe parmi les modèles linguistiques principaux de moins de 13 milliards de paramètres”. Selon les tests, Phi-2 pourrait rivaliser, voire surpasser, des modèles linguistiques jusqu’à 25 fois plus grands. Le développement des modèles linguistiques a révélé qu’ils peuvent débloquer des capacités auxquelles on ne s’attendait pas.

Le processus d’entraînement de cette petite intelligence artificielle

L’objectif actuel de Microsoft est de tenter de libérer ces capacités sur des modèles plus petits et plus spécialisés. On pourrait ainsi disposer de modèles dédiés à des tâches spécifiques telles que la traduction, l’assistance à la programmation, la synthèse de texte, etc. Pour ce faire, il est nécessaire d’adapter la formation de ces modèles en restreignant la sélection des données.

Résultats Phi-2 sur un problème de physique simple, qui inclut un calcul de racine carrée approximativement correct | Forcinews
Résultats Phi-2 sur un problème de physique simple, qui inclut un calcul de racine carrée approximativement correct – Source : Microsoft

Par exemple, Phi-2 a été entraîné avec “des données synthétiques spécialement créées pour enseigner au modèle le raisonnement du bon sens et les connaissances générales”. L’idée est d’avoir des données plus précises et de meilleure qualité, tandis que d’autres modèles multiplieront les données et les diversifieront. Phi-2 s’appuie naturellement sur sa version précédente, Phi-1.5, qui compte 1,3 milliard de paramètres. Sur son blog, Microsoft rapporte que la formation de Phi-2 a duré 14 jours et a nécessité 96 GPU Nvidia A100. Comptez 20 000 $ par carte graphique de ce type : ce produit est spécialisé dans la formation de modèles d’IA.

Le degré de toxicité du Phi-2 par rapport aux autres LLM envers diverses communautés - Forcinews
Le degré de toxicité du Phi-2 par rapport aux autres LLM envers diverses communautés – Source : Microsoft

Le traitement plus minutieux des données en amont permet également d’obtenir un modèle moins toxique. C’est du moins la conclusion de Microsoft, qui observe un comportement plus adéquat de Phi-2 par rapport à d’autres modèles open source pourtant formés avec le renforcement humain.

Un modèle d’IA que vous ne risquez probablement pas d’utiliser

En fin de compte, Phi-2 s’avère performant dans certaines tâches comparé au modèle d’IA Mistral ou même à LLaMA-2 avec 7 ou 13 milliards de paramètres. SLM va même au-delà de la version de Meta avec 70 milliards de paramètres pour des “tâches de raisonnement multi-étapes, c’est-à-dire la programmation et les mathématiques”. En ce qui concerne Gemini Nano, la plus petite version du modèle linguistique de Google récemment annoncée, Phi-2 le surpasse ou l’égale une fois de plus, malgré sa taille réduite.

Performances moyennes sur les benchmarks groupés par rapport aux SLM open source populaires | Forcinews

Cependant, Microsoft n’envisage pas de mettre Phi-2 à la disposition du grand public, via un chatbot comme Copilot, par exemple. La société le considère davantage comme “un terrain de jeu idéal pour les chercheurs, notamment pour explorer l’interprétabilité mécaniste, améliorer la sécurité, ou affiner les expériences sur une variété de tâches”. Phi-2 est effectivement disponible dans Azure AI Studio, son service de modélisation d’IA.

Avatar

Rédaction

About Author

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Forcinews, le média de l’actualité sur le digital et les technologies.

Liens utiles

Recevez les dernières actualités du digital

    Selons les nouveautés, nos envois sont de 1 à 4 newsletters par mois.

    © 2018 – 2024, Forcinews All Rights Reserved. By Forcinet.