OpenAI ha lanzado dos grandes actualizaciones para ChatGPT: el modelo omnímodo GPT-4o y la interfaz colaborativa Canvas. El primero permite que la IA realmente "vea" y "escuche" el mundo, mientras que el segundo hace que la creación y la programación sean tan fluidas como escribir un documento con un colega. Este artículo desglosa estas nuevas funciones y analiza cómo cambian la experiencia de uso cotidiano.
Capacidad multimodal de GPT-4o
La "o" de GPT-4o significa "omni" (omnímodo) y ya no se limita al texto. Soporta conversaciones de voz en tiempo real, percibe el tono y las emociones, e incluso realiza traducción simultánea —domina 50 idiomas, por ejemplo, si hablas en español, puede emitir una interpretación oral en inglés. Más práctico aún es la función de compartir pantalla: si te encuentras con un error de código o un problema de edición, solo comparte tu pantalla y GPT-4o "observará" tus acciones para darte instrucciones de voz, como un supertutor en línea en tiempo real.
Además, GPT-4o posee capacidad de comprensión visual: puede identificar escenas a través de la cámara y ayudar a personas con discapacidad visual a "escuchar" su entorno. Estas capacidades convierten a ChatGPT de una simple herramienta de chat en un asistente de IA que puede ver, oír y enseñar.
Canvas: te acompaña a crear como un entrenador
Canvas es una ventana de colaboración independiente que elimina por completo el diálogo tradicional. Cuando escribes un texto extenso o código, Canvas ofrece anotaciones en línea, sugerencias de modificación y edición directa. Por ejemplo, al redactar un artículo, puedes seleccionar un párrafo para que la IA lo refine, ajuste el tono o incluso lo convierta en una tabla o poema con un solo clic; al programar, Canvas permite revisión de código, corrección de errores y conversión entre lenguajes (como Python a JavaScript). Todas las modificaciones conservan el historial de versiones, por lo que siempre puedes retroceder.


