OpenAI fait passer un cap aux assistants vocaux avec GPT-4o Contenu réservé aux abonnés
Contenu réservé aux abonnés
L'éditeur de ChatGPT a dégainé une version multimodale de son chatbot, capable de parler, analyser du code et des équations, détecter des émotions et effectuer des traductions en temps réel.
Par Thomas Pontiroli, Hortense Goulard
On croyait une scène tout droit sortie d'« Her », une comédie romantique où Scarlett Johannson prête sa voix à une intelligence artificielle. Le dernier modèle d'OpenAI, GTP-4o, est capable d'interagir avec fluidité avec un utilisateur, d'analyser un flux vidéo en direct, de répondre dans une autre langue, d'expliquer du code et des équations… Sa facilité d'utilisation pourrait faire la différence face aux concurrents, de plus en plus nombreux, de l'entreprise californienne.
C'est Mira Murati, la directrice de la technologie d'OpenAI, qui a présenté le nouveau modèle depuis leurs locaux de San Francisco, parmi des fauteuils moelleux et des plantes vertes. La conférence, qui a duré une demi-heure lundi, a été retransmise en direct, mais les journalistes n'avaient pas été conviés sur place.
Ce contenu est réservé aux abonnés Access et Premium