Titikey
InicioConsejos prácticosGuía de ChatGPTNuevas funciones de ChatGPT GPT-4o: Guía práctica de voz en tiempo real y pantalla compartida

Nuevas funciones de ChatGPT GPT-4o: Guía práctica de voz en tiempo real y pantalla compartida

12/5/2026
ChatGPT

El modelo GPT-4o Omni de OpenAI ha revolucionado la forma en que interactuamos con la inteligencia artificial. La 'o' significa 'Omni' (todopoderoso), lo que convierte a ChatGPT en un asistente que no solo escribe, sino que escucha, ve y habla. Basado en mi experiencia real, me centraré en las dos funciones más prácticas: la conversación por voz y el uso compartido de pantalla, y cómo pueden resolver problemas cotidianos.

Conversación por voz natural y traducción instantánea

Lo que más me impresionó de GPT-4o es su capacidad de conversación por voz extremadamente natural. Reconoce el tono y las emociones de tu voz, e incluso espera pacientemente cuando dudas, sin la rigidez de antes. No es solo un truco: la función de traducción instantánea actualizada admite 50 idiomas y puede realizar comunicación intercultural en tiempo real como un intérprete profesional. Durante una reunión en el extranjero, me salvó de más de un apuro.

Ya sea para contar un cuento antes de dormir a los niños o para actuar como secretario en una reunión, ChatGPT ajusta su tono de voz y vocabulario según tus condiciones emocionales. Para usuarios con barreras idiomáticas o que necesitan compañía, esta experiencia de comunicación antropomórfica era difícil de lograr con tecnologías anteriores, y realmente elimina las brechas de comunicación.

Función de compartir pantalla: tu tutor personalizado

Cuando te atasques escribiendo, programando o editando videos, antes tenías que tomar capturas de pantalla o describir el problema por escrito a ChatGPT, lo cual era muy tedioso. Ahora, con la función de compartir pantalla de ChatGPT, el modelo puede leer directamente el contenido de tu pantalla y analizar el problema que estás tratando. Lo probé una vez: mientras escribía código, encontré un bug; el modelo miró mi pantalla y me guió por voz sobre cómo corregirlo, como si tuviera un tutor superdotado a mi lado.

Esta capacidad de comprensión 'visual' amplía enormemente los escenarios de uso de ChatGPT. Ya sea para describir el paisaje exterior a personas con discapacidad visual o para analizar gráficos de datos complejos para usuarios comunes, GPT-4o puede proporcionar ayuda precisa mediante la lectura de información visual. Los usuarios gratuitos de ChatGPT también pueden usar este nuevo modelo, aunque después de un cierto número de usos, se cambiará de nuevo a GPT-3.5.

Colaboración sin fisuras con el ecosistema Apple y la app para Mac

La colaboración entre OpenAI y Apple también forma parte de estas nuevas funciones. En la nueva aplicación para macOS, solo necesitas presionar la combinación de teclas Option+Space para invocar a ChatGPT en cualquier momento y comenzar una conversación por voz. Los usuarios pueden cargar archivos o fotos directamente desde el escritorio y buscar en el historial de conversaciones anteriores.

En el futuro, Siri en los dispositivos Apple también incorporará las funciones de GPT-4o, lo que significa que la colaboración de IA entre dispositivos será aún más cotidiana. Los trabajadores creativos pueden compartir su pantalla en cualquier momento para que la IA les ayude a resolver problemas; los usuarios comunes también pueden obtener rápidamente sugerencias personalizadas y creativas para generar contenido. Esta experiencia optimizada a nivel de sistema integra a ChatGPT de manera real en el flujo de trabajo diario.

InicioTiendaPedidos