你是否遇到过用AI生成多张图时,同一个角色的脸型和服装完全对不上?Midjourney最近推出的角色参照(-cref)和参照万物(Omni-Reference)功能,就是为了解决这个痛点。现在只需一张参考图,就能让角色在多场景中保持高度一致,还能把任意物体、生物“搬”进你的画面中。本文带你深入了解这两个新功能,并附上实用参数技巧。
什么是角色参照(-cref)功能
角色参照是Midjourney V6以来最重要的更新之一。以往生成人物时,即便使用相同的提示词,每次输出的五官、身材甚至服饰都可能“变脸”。现在你可以在提示词末尾加上--cref <图片链接>,Midjourney会提取参考图的角色特征,让后续生成的各场景图像都保留原角色的脸型、体型和服装样式。比如你有一张自拍照,想把它变成不同场景下的插画,用-cref就能轻松实现。
用-cw参数控制角色一致性强度
细心的用户可能会发现,角色参照并非100%复制,它允许你通过--cw参数调整参考权重。--cw的取值范围是0到100,默认值为0。设置为0时,Midjourney只会参考角色的面部特征;调高到100时,则会连发型、服装、姿态等细节一起保留。如果你希望在保持面部一致的同时,自由更换角色的服装或场景,建议将--cw设置在20-40之间,既能保证角色辨识度,又能给AI留下创作空间。


