Avec les nouvelles fonctionnalités de Midjourney, le changement le plus utile est le renforcement net de la « cohérence des personnages » et des « capacités de référence ». Auparavant, pour réaliser des affiches en série, des storyboards ou plusieurs images d’un même personnage, le plus pénible était la dérive du visage et des vêtements. Ci-dessous, j’explique clairement l’usage des nouvelles fonctions de Midjourney d’une manière directement applicable.
Utiliser --cref pour « clouer » un même personnage dans une série d’images
Le nouveau tag de référence de personnage ajouté par Midjourney est --cref (character reference). Son rôle principal est de te permettre de réutiliser, dans des scènes différentes, les traits du visage, la morphologie et la reconnaissabilité globale d’un même personnage. La méthode est simple : prépare d’abord une image du personnage que tu approuves, mets le lien de l’image à la fin du prompt, puis ajoute --cref URL_de_l’image. Si tu veux générer plusieurs images avec des cadrages différents, il suffit d’utiliser à chaque fois le même --cref pour que le personnage conserve plus facilement sa cohérence.
Exemple : cinematic portrait, rainy street, neon light --cref https://.../role.png. Il est conseillé de choisir une image du personnage « de face, avec une lumière propre, et peu d’obstructions » : les nouvelles fonctionnalités de Midjourney sont plus stables avec ce type d’image de référence.
Utiliser --cw pour contrôler « le degré de ressemblance » et éviter que le personnage ne devienne un simple autocollant
En complément de --cref, il y a aussi le tag --cw, qui sert à ajuster le poids de la référence du personnage (tu peux le comprendre comme « à quel point ça doit ressembler »). Quand tu constates que le personnage reste le même, mais que tu n’arrives pas à modifier l’expression, la coiffure ou les vêtements, tu peux baisser légèrement --cw afin que les nouvelles fonctionnalités de Midjourney trouvent un meilleur équilibre entre cohérence et malléabilité. À l’inverse, si tu vois que le personnage commence à dériver, augmente un peu --cw.
Exemple : full body, in a medieval market, warm sunlight --cref https://.../role.png --cw 70. Pour une série d’images, lance d’abord trois images de test avec la même valeur de --cw ; une fois la stabilité obtenue, étends ensuite en lot : c’est plus efficace.
Tout référencer : faire entrer « cet objet / ce personnage » dans ton image
Une autre nouvelle fonctionnalité de Midjourney qui mérite l’attention est « Omni-Reference (référencer tout) ». L’idée est d’étendre la référence au-delà des « personnages » vers des objets, des véhicules ou des créatures non humaines, etc. Concrètement, tu fournis une image de référence, puis tu utilises le prompt pour décrire la scène et le style souhaités ; le système aura davantage tendance à conserver les caractéristiques visuelles clés de l’objet de référence. C’est particulièrement adapté aux accessoires e-commerce, à la réutilisation de formes de produits, et aux séries autour de petits monstres d’IP.
Méthode recommandée : une image de référence aussi nette que possible, avec un sujet unique et un fond propre ; dans le prompt, sois précis sur « l’environnement, le cadrage, la lumière », et laisse la « contrainte sur le sujet » à l’image de référence : ainsi, les avantages des nouvelles fonctionnalités de Midjourney se déploient plus facilement.
Petits pièges au démarrage : pourquoi ça dérive encore
Même en utilisant les nouvelles fonctionnalités de Midjourney, une dérive peut encore se produire. Les causes fréquentes : une image de référence elle-même instable (filtre trop fort, obstructions, profil, maquillage exagéré) ou un prompt contenant des descriptions qui se contredisent (par exemple « cheveux courts » tout en demandant « longs cheveux bouclés »). Par ailleurs, si tu veux à la fois « le même visage + un gros changement de tenue », il est recommandé de procéder par étapes : verrouille d’abord le visage, puis modifie progressivement. Commence par produire une version stable avec --cref, puis itère avec des mots-clés de tenue plus explicites. Une fois ce workflow maîtrisé, tu verras que les nouvelles fonctionnalités de Midjourney améliorent très nettement la création en série.