Titikey
首页平台快讯OpenaiMidjourney新功能全面解析:角色参照与参照万物实战技巧

Midjourney新功能全面解析:角色参照与参照万物实战技巧

2026/4/26
Openai

你是否遇到过用AI生成多张图时,同一个角色的脸型和服装完全对不上?Midjourney最近推出的角色参照(-cref)和参照万物(Omni-Reference)功能,就是为了解决这个痛点。现在只需一张参考图,就能让角色在多场景中保持高度一致,还能把任意物体、生物“搬”进你的画面中。本文带你深入了解这两个新功能,并附上实用参数技巧。

什么是角色参照(-cref)功能

角色参照是Midjourney V6以来最重要的更新之一。以往生成人物时,即便使用相同的提示词,每次输出的五官、身材甚至服饰都可能“变脸”。现在你可以在提示词末尾加上--cref <图片链接>,Midjourney会提取参考图的角色特征,让后续生成的各场景图像都保留原角色的脸型、体型和服装样式。比如你有一张自拍照,想把它变成不同场景下的插画,用-cref就能轻松实现。

-cw参数控制角色一致性强度

细心的用户可能会发现,角色参照并非100%复制,它允许你通过--cw参数调整参考权重。--cw的取值范围是0到100,默认值为0。设置为0时,Midjourney只会参考角色的面部特征;调高到100时,则会连发型、服装、姿态等细节一起保留。如果你希望在保持面部一致的同时,自由更换角色的服装或场景,建议将--cw设置在20-40之间,既能保证角色辨识度,又能给AI留下创作空间。

参照万物(Omni-Reference)功能详解

除了人物角色,Midjourney还推出了更强大的参照万物系统。这个功能不再局限于人类,你可以上传任何物体、动物甚至车辆的图片,通过--sref或界面拖拽的方式,让AI把参考对象的形态、纹理或风格“移植”到新图像中。例如,把一张毛绒玩具的图片作为参考,让Midjourney生成一只同样质感的熊猫;或者参照一辆老爷车的造型,生成复古风格的飞船。参照万物大大拓宽了AI绘图的创作边界,特别适合角色设计、产品原型和概念艺术等场景。

实战应用与技巧

要充分发挥这两个新功能,有几个小技巧值得收藏。首先,参考图片的质量直接影响输出效果,尽量选择正面、光线均匀、背景干净的图片。其次,如果同时使用-cref-sref,注意合理安排参数位置,--cref用于角色,--sref用于风格或物体,两者可以叠加。最后,别忘了结合Midjourney的官方提示词模板,比如点击“给我灵感”中的“帮我画人像”,系统会自动嵌套角色参照参数,降低上手门槛。现在就去试试,让你的角色在多个故事场景中“活”起来吧。

首页商品订单