Titikey
首頁實用技巧ChatGPT 專區Midjourney新功能解析:用-cref鎖定同人物與參照萬物

Midjourney新功能解析:用-cref鎖定同人物與參照萬物

2026/3/2
ChatGPT

Midjourney這次的新功能,最實用的變化是「角色一致性」和「參照能力」明顯增強。以前做連載海報、分鏡或多張同人物圖,最頭痛的就是臉和服裝漂移。下面按可直接上手的方式,把Midjourney新功能的用法講清楚。

用--cref把同一個角色「釘住」在系列圖裡

Midjourney新增的角色參考標籤是--cref(character reference),核心作用是讓你在不同場景裡復用同一人物的臉部特徵、體型與整體辨識度。做法很簡單:先準備一張你認可的角色圖,將圖片連結放進提示詞末尾,並加上--cref 圖片URL。如果你要生成多張不同構圖的圖,只要每次都帶同一個--cref,人物就更容易保持一致。

示例:cinematic portrait, rainy street, neon light --cref https://.../role.png。建議把角色圖選「正臉、光線乾淨、遮擋少」的版本,Midjourney新功能在這種參考圖上穩定性更高。

用--cw控制「像的程度」,別讓角色僵成貼圖

--cref搭配的還有--cw標籤,用來調整角色參考的權重(你可以理解為「要多像」)。當你發現人物雖然同一個,但表情、髮型或服裝改不動時,可以適當降低--cw,讓Midjourney新功能在一致性與可塑性之間更平衡。相反,如果你發現人物開始漂移,就把--cw往上調一點。

示例:full body, in a medieval market, warm sunlight --cref https://.../role.png --cw 70。做系列圖時,先用同一組--cw跑三張試驗圖,穩定後再批量擴展,效率更高。

參照萬物:把「這個物件/角色」放進你的畫面

另一個值得關注的Midjourney新功能是「Omni-Reference(參照萬物)」,思路是把參考從「人物」擴展到物體、車輛或非人類生物等。實際使用時,你提供參考圖,再用提示詞描述你想要的場景與風格,系統會更傾向保留參考對象的關鍵外觀特徵。對電商道具、產品外形復用、IP小怪物連載特別友好。

建議做法:參考圖盡量清晰、主體單一、背景乾淨;提示詞裡把「環境、鏡頭、光線」說具體,把「主體」交給參考圖去約束,這樣Midjourney新功能的優勢更容易發揮出來。

新功能上手的小坑:為什麼還是會漂移

即便用了Midjourney新功能,漂移也可能出現,常見原因是參考圖本身不穩定(強濾鏡、遮擋、側臉、誇張妝容)或提示詞給了互相打架的描述(比如「短髮」又要求「長捲髮」)。另外,想同時做到「同臉+大改服裝」,建議先鎖臉再逐步改:先固定--cref出穩定版本,再用更明確的服裝關鍵詞迭代。把這套流程跑順,你會發現Midjourney新功能對系列創作的提升非常明顯。

首頁商品訂單