Le modèle GPT-4o d'OpenAI, dont le « o » signifie omni, marque un tournant : ChatGPT ne se limite plus aux échanges textuels, mais intègre désormais des capacités de raisonnement audio, vidéo et texte. Cette mise à jour des fonctionnalités de ChatGPT permet même aux utilisateurs gratuits de profiter d'interactions multimodales.
Traduction en temps réel pour éliminer les barrières linguistiques
Le nouveau modèle GPT-4o maîtrise 50 langues et peut passer rapidement de l'une à l'autre. Associé à une fonction de dialogue plus fluide, ChatGPT réalise désormais de l'interprétation simultanée, que ce soit pour les affaires (le texte original s'arrête ici)
Partage d'écran pour résoudre les problèmes de code et de montage
Auparavant, pour signaler une erreur de code ou un problème de montage, il fallait taper ou faire une capture d'écran pour décrire le problème. Désormais, GPT-4o peut lire directement le contenu partagé à l'écran, l'analyser et répondre vocalement, comme un professeur particulier. Lors des tests pratiques, l'identification d'une erreur de syntaxe Python via le partage d'écran et l'obtention de suggestions de correction ont pris moins de 30 secondes.


