你是否遇過用 AI 生成多張圖時,同一個角色的臉型和服裝完全對不上?Midjourney 近期推出的角色參照(-cref)與參照萬物(Omni-Reference)功能,正是為了解決這個痛點。現在只需一張參考圖,就能讓角色在多場景中保持高度一致,還能把任意物體、生物「搬」進你的畫面中。本文帶你深入認識這兩個新功能,並附上實用參數技巧。
什麼是角色參照(-cref)功能
角色參照是 Midjourney V6 以來最重要的更新之一。以往生成人物時,即便使用相同的提示詞,每次輸出的五官、身材甚至服飾都可能「變臉」。現在你可以在提示詞末尾加上 --cref <圖片連結>,Midjourney 會提取參考圖的角色特徵,讓後續生成的各場景影像都保留原角色的臉型、體型和服裝樣式。比如你有一張自拍照,想把它變成不同場景下的插畫,用 -cref 就能輕鬆實現。
用 -cw 參數控制角色一致性強度
細心的用戶可能會發現,角色參照並非 100% 複製,它允許你透過 --cw 參數調整參考權重。--cw 的取值範圍是 0 到 100,預設值為 0。設定為 0 時,Midjourney 只會參考角色的臉部特徵;調高到 100 時,則會連髮型、服裝、姿態等細節一起保留。如果你希望在保持臉部一致的同時,自由更換角色的服裝或場景,建議將 --cw 設定在 20-40 之間,既能保證角色辨識度,又能給 AI 留下創作空間。


