Seguro que te has topado con este colapso: un prompt que en ChatGPT fluye perfecto, al pasarlo a Claude se vuelve verboso, y al cambiar a Gemini empieza a desviarse del tema; ni hablar de dárselo a Midjourney: es como hablarle al aire. La forma más cómoda que uso en mis pruebas es escribir los prompts en una “versión universal entre modelos”, un solo set que sirva en todas partes.
Truco 1: escribe el objetivo como un entregable
No te limites a “ayúdame a escribir un copy”, cámbialo por “genera 3 versiones de copy para la imagen principal de un e-commerce; cada versión incluye: título (máx. 12 caracteres), subtítulo (máx. 20 caracteres), 3 puntos de venta”. Cuanto más claro sea el entregable, menos tenderán ChatGPT y Claude a improvisar, y Gemini también será más estable.
Truco 2: restringir el formato es más importante que restringir el tono
Si quieres contenido estructurado, especifica directamente el formato. Por ejemplo: “salida en JSON”, “explica los campos en una tabla”. Las diferencias de estilo entre modelos son grandes, pero en general obedecen bastante las instrucciones de formato.
Truco 3: divide el contexto en tres bloques
Suele funcionarme escribir una línea por bloque: escenario, audiencia, restricciones. Por ejemplo: “Escenario = recomendaciones en Xiaohongshu; Audiencia = principiantes; Restricción = no exagerar la eficacia”. Es menos probable que el modelo lo malinterprete que si lo escribes como un párrafo largo y suelto.


