Midjourney está probando un sistema V2 de moderación de IA más "consciente del contexto". No solo revisa el prompt, sino que también evalúa las imágenes que subes, las máscaras de edición y el resultado final generado. Esto reduce los espacios para eludir normas y hace que los límites del contenido permitido sean más claros.
¿Qué cambia realmente el sistema V2 de moderación de IA?
Muchos usuarios solían dividir contenido riesgoso en el prompt o confiar en el redibujo local para "sortear" la moderación. Sin embargo, el sistema V2 de Midjourney realiza una revisión integral. Según la descripción oficial, evalúa simultáneamente el prompt, la imagen de entrada, las máscaras de dibujo utilizadas durante la edición y la imagen de salida generada, antes de decidir si la aprueba o la bloquea.
Al ser una prueba temprana, Midjourney también aclara que las reglas aún se están optimizando, por lo que podrías encontrar que prompts similares a veces se aprueban y otras veces son rechazados.
Mayor impacto en los prompts y la "edición local"
Si sueles utilizar el flujo de edición de Midjourney (por ejemplo, borrar un área y rellenarla con nuevo contenido), el sistema V2 analizará de forma conjunta "lo que borraste, lo que intentas agregar y lo que finalmente se generó". En otras palabras, la intención detrás del área enmascarada es más fácil de entender para el sistema, y el riesgo de violar las normas no se pasará por alto solo porque "solo estás modificando una pequeña parte".
Para la creación de contenido normal, esto es positivo: las decisiones de moderación son más consistentes. Para quienes intentan crear contenido en el límite, Midjourney será menos tolerante.


