¿Te ha pasado que al generar varias imágenes con IA, el rostro o la ropa del mismo personaje no se mantienen igual? Las nuevas funciones de Midjourney, Referencia de personajes (-cref) y Omni-Referencia, resuelven este problema. Con solo una imagen de referencia puedes lograr que un personaje se vea coherente en múltiples escenas y hasta transferir objetos o criaturas a tus composiciones. En este artículo te explicamos cómo funcionan y compartimos parámetros prácticos para sacarles el máximo partido.
¿Qué es la función de Referencia de personajes (-cref)?
La Referencia de personajes es una de las actualizaciones más importantes desde Midjourney V6. Antes, al generar personas, incluso usando el mismo prompt, cada resultado podía cambiar el rostro, el cuerpo o hasta la ropa. Ahora, al añadir --cref <enlace de la imagen> al final del prompt, Midjourney extrae las características del personaje de la imagen de referencia, haciendo que las imágenes generadas en diferentes escenas mantengan el rostro, la forma del cuerpo y el estilo de vestimenta originales. Por ejemplo, si tienes un selfie y quieres convertirlo en ilustraciones de distintas situaciones, con -cref lo consigues fácilmente.
Controla la intensidad de la consistencia del personaje con el parámetro -cw
Los usuarios más atentos notarán que la Referencia de personajes no es una copia exacta al 100%. Puedes ajustar el peso de la referencia mediante el parámetro --cw, que va de 0 a 100 (valor predeterminado 0). Al ponerlo en 0, Midjourney solo toma el rostro; al subirlo a 100, conserva detalles como peinado, ropa y postura. Si quieres mantener la coherencia facial pero cambiar libremente la vestimenta o el escenario, te recomendamos fijar --cw entre 20 y 40. Así garantizas la identificabilidad del personaje sin atar demasiado la creatividad de la IA.


