Titikey
首页实用技巧ChatGPTMidjourney新功能解析:用-cref锁定同人物与参照万物

Midjourney新功能解析:用-cref锁定同人物与参照万物

2026/3/2
ChatGPT

Midjourney这次的新功能,最实用的变化是“角色一致性”和“参照能力”明显增强。以前做连载海报、分镜或多张同人物图,最头疼的就是脸和服装漂移。下面按可直接上手的方式,把Midjourney新功能的用法讲清楚。

用--cref把同一个角色“钉住”在系列图里

Midjourney新增的角色参考标签是--cref(character reference),核心作用是让你在不同场景里复用同一人物的脸部特征、体型与整体辨识度。做法很简单:先准备一张你认可的角色图,将图片链接放进提示词末尾,并加上--cref 图片URL。如果你要生成多张不同构图的图,只要每次都带同一个--cref,人物就更容易保持一致。

示例:cinematic portrait, rainy street, neon light --cref https://.../role.png。建议把角色图选“正脸、光线干净、遮挡少”的版本,Midjourney新功能在这种参考图上稳定性更高。

用--cw控制“像的程度”,别让角色僵成贴图

--cref搭配的还有--cw标签,用来调整角色参考的权重(你可以理解为“要多像”)。当你发现人物虽然同一个,但表情、发型或服装改不动时,可以适当降低--cw,让Midjourney新功能在一致性与可塑性之间更平衡。相反,如果你发现人物开始漂移,就把--cw往上调一点。

示例:full body, in a medieval market, warm sunlight --cref https://.../role.png --cw 70。做系列图时,先用同一组--cw跑三张试验图,稳定后再批量扩展,效率更高。

参照万物:把“这个物件/角色”放进你的画面

另一个值得关注的Midjourney新功能是“Omni-Reference(参照万物)”,思路是把参考从“人物”扩展到物体、车辆或非人类生物等。实际使用时,你提供参考图,再用提示词描述你想要的场景与风格,系统会更倾向保留参考对象的关键外观特征。对电商道具、产品外形复用、IP小怪物连载特别友好。

建议做法:参考图尽量清晰、主体单一、背景干净;提示词里把“环境、镜头、光线”说具体,把“主体”交给参考图去约束,这样Midjourney新功能的优势更容易发挥出来。

新功能上手的小坑:为什么还是会漂移

即便用了Midjourney新功能,漂移也可能出现,常见原因是参考图本身不稳定(强滤镜、遮挡、侧脸、夸张妆容)或提示词给了互相打架的描述(比如“短发”又要求“长卷发”)。另外,想同时做到“同脸+大改服装”,建议先锁脸再逐步改:先固定--cref出稳定版本,再用更明确的服装关键词迭代。把这套流程跑顺,你会发现Midjourney新功能对系列创作的提升非常明显。