Getting your Trinity Audio player ready...
|
Dans un mouvement audacieux, OpenAI lance GPT-4o, une version améliorée du modèle GPT-4 qui alimente son produit phare, ChatGPT. Ce modèle mis à jour est “beaucoup plus rapide” et améliore “les capacités dans le texte, la vision et l’audio”, a déclaré Mira Murati, CTO d’OpenAI, lors d’une annonce en direct lundi dernier.
Il sera gratuit pour tous les utilisateurs, et les utilisateurs payants continueront à bénéficier de “jusqu’à cinq fois les limites de capacité” des utilisateurs gratuits, a ajouté Murati.
OpenAI, le géant de l’intelligence artificielle soutenu par Microsoft, a frappé fort avec le lancement de GPT-4o. Ce nouveau modèle, une amélioration significative par rapport à son prédécesseur, offre une vitesse accrue et des capacités étendues dans le traitement du texte, de la vidéo et de l’audio. Le point culminant ? Il sera gratuit pour tous les utilisateurs de ChatGPT. Découvrez les détails de cette révolution dans le monde de l’IA générative ci-dessous.
Dans un article de blog, OpenAI indique que les capacités de GPT-4o “seront déployées de manière itérative”, mais ses capacités de texte et d’image commenceront à être déployées dès aujourd’hui dans ChatGPT.
Le PDG d’OpenAI, Sam Altman, a publié que le modèle est “nativement multimodal”, ce qui signifie que le modèle peut générer du contenu ou comprendre des commandes sous forme de voix, de texte ou d’images. Les développeurs qui souhaitent expérimenter avec GPT-4o auront accès à l’API, qui est à moitié moins cher et deux fois plus rapide que GPT-4 Turbo, a ajouté Altman sur X.
De nouvelles fonctionnalités arrivent dans le mode vocal de ChatGPT avec le nouveau modèle. L’application pourra agir comme un assistant vocal à la Her, en répondant en temps réel et en observant le monde qui vous entoure. Le mode vocal actuel est plus limité, ne répondant qu’à une seule demande à la fois et fonctionnant uniquement avec ce qu’il peut entendre.
Altman a réfléchi à la trajectoire d’OpenAI dans un article de blog suivant l’événement en direct. Il a déclaré que la vision originale de l’entreprise était de “créer toutes sortes d’avantages pour le monde”, mais il a reconnu que la vision avait changé. OpenAI a été critiqué pour ne pas avoir rendu ses modèles d’IA avancés open source, et Altman semble dire que l’accent de l’entreprise s’est déplacé vers la mise à disposition de ces modèles aux développeurs via des API payantes et que ces tiers utilisent pour créer. “Il semble maintenant que nous allons créer de l’IA et que d’autres personnes l’utiliseront pour créer toutes sortes de choses incroyables dont nous bénéficierons tous.”
Avant le lancement de GPT-4o d’aujourd’hui, des rapports contradictoires prédisaient qu’OpenAI annonçait un moteur de recherche IA pour rivaliser avec Google et Perplexity, un assistant vocal intégré à GPT-4, ou un modèle totalement nouveau et amélioré, GPT-5. Bien sûr, OpenAI a veillé à lancer ce produit juste avant la conférence phare de Google, la Google I/O, où nous nous attendons à voir le lancement de divers produits IA de l’équipe Gemini.
OpenAI dévoile GPT-4o et une version de bureau de ChatGPT
OpenAI a présenté lundi un nouveau modèle d’IA et une version de bureau de ChatGPT, son chatbot populaire.
Le nouveau modèle s’appelle GPT-4o. “C’est la première fois que nous faisons vraiment un énorme pas en avant en ce qui concerne la facilité d’utilisation”, a déclaré Mira Murati, directrice de la technologie d’OpenAI, lors d’un événement diffusé en direct.
OpenAI a lancé un nouveau modèle d’IA et une version de bureau de ChatGPT, ainsi qu’une interface utilisateur mise à jour, dans le cadre de ses derniers efforts pour étendre l’utilisation de son chatbot populaire.
La mise à jour apporte GPT-4 à tout le monde, y compris les utilisateurs gratuits d’OpenAI, a déclaré Mira Murati lors d’un événement diffusé en direct.
Elle a ajouté que le nouveau modèle, GPT-4o, est “beaucoup plus rapide”, avec des capacités améliorées en texte, vidéo et audio. OpenAI prévoit finalement de permettre aux utilisateurs de discuter en vidéo avec ChatGPT.
“Nous faisons vraiment un énorme pas en avant en ce qui concerne la facilité d’utilisation”, a déclaré Murati.
OpenAI, soutenu par Microsoft, a été valorisé à plus de 80 milliards de dollars par les investisseurs. La société, fondée en 2015, est sous pression pour rester en tête du marché de l’IA générative tout en trouvant des moyens de gagner de l’argent alors qu’elle dépense des sommes énormes en processeurs et en infrastructure pour construire et former ses modèles.
Le “o” dans GPT-4o signifie “omni”. Le nouveau modèle permet à ChatGPT de gérer 50 langues différentes avec une vitesse et une qualité améliorées, et il sera également disponible via l’API d’OpenAI, ce qui permettra aux développeurs de commencer à créer des applications en utilisant le nouveau modèle dès aujourd’hui, a déclaré Murati.
Elle a ajouté que GPT-4o est deux fois plus rapide et coûte la moitié du prix de GPT-4 Turbo.
Des membres de l’équipe d’OpenAI ont présenté les capacités audio du nouveau modèle, par exemple en lui demandant d’aider à calmer quelqu’un avant un discours public. Le chercheur d’OpenAI, Mark Chen, a déclaré que le modèle est capable de “percevoir votre émotion”, ajoutant que le modèle peut également gérer les interruptions des utilisateurs. L’équipe lui a également demandé d’analyser l’expression faciale d’un utilisateur pour commenter les émotions que la personne peut ressentir.
“L’annonce n’existe plus aujourd’hui. Ce qui laisse supposer qu’une vente s’est conclue.”
Pour OpenAI, le lancement était l’une des plus grandes annonces de la société depuis le lancement en août de ChatGPT Enterprise, le niveau professionnel du chatbot IA. Cet outil était en développement depuis “moins d’un an” et avait bénéficié de l’aide de plus de 20 entreprises de tailles et de secteurs variés, a déclaré Brad Lightcap, directeur des opérations d’OpenAI, à CNBC à l’époque.
OpenAI, Microsoft et Google sont à la tête d’une ruée vers l’or de l’IA générative alors que des entreprises de presque tous les secteurs se précipitent pour ajouter des chatbots et des agents alimentés par l’IA à des services clés pour éviter d’être laissées pour compte par leurs concurrents. Plus tôt ce mois-ci, le rival d’OpenAI, Anthropic, a annoncé son premier produit d’entreprise et une application iPhone gratuite.
Un montant record de 29,1 milliards de dollars a été investi dans près de 700 transactions d’IA générative en 2023, soit une augmentation de plus de 260 % par rapport à l’année précédente, selon PitchBook. Le marché devrait dépasser un billion de dollars de revenus dans une décennie.
Certains dans l’industrie ont exprimé des préoccupations concernant la vitesse à laquelle de nouveaux services non testés arrivent sur le marché, et les universitaires et les éthiciens sont préoccupés par la tendance de la technologie à propager les biais.
Après le lancement de ChatGPT en novembre 2022, il a battu des records à l’époque en tant qu’application grand public à la croissance la plus rapide de l’histoire, et compte maintenant environ 100 millions d’utilisateurs actifs par semaine. OpenAI dit que plus de 92 % des entreprises du Fortune 500 utilisent la plateforme.
Murati a déclaré lors de l’événement de lundi qu’OpenAI veut “enlever une partie du mysticisme de la technologie”.
“Nous déploierons ces fonctionnalités pour tout le monde au cours des prochaines semaines”, a-t-elle déclaré.
Le nouveau modèle sera d’abord déployé mardi pour les clients de ChatGPT Plus et Team, puis pour Enterprise plus tard, selon un article de blog publié lundi. Il sera également disponible pour les utilisateurs gratuits de ChatGPT à partir de lundi, avec des limites d’utilisation. Les utilisateurs de ChatGPT Plus auront cinq fois plus de capacité de messages que les utilisateurs gratuits, et les clients de ChatGPT Team et Enterprise auront des limites d’utilisation encore plus importantes.
Murati a conclu l’événement diffusé en direct en remerciant le PDG de Nvidia, Jensen Huang, et son entreprise pour avoir fourni les unités de traitement graphique (GPU) nécessaires pour alimenter la technologie d’OpenAI.
“Je tiens simplement à remercier l’incroyable équipe d’OpenAI, et également merci à Jensen et à l’équipe de Nvidia pour nous avoir apporté les GPU les plus avancés pour rendre cette démonstration possible aujourd’hui”, a-t-elle déclaré.