Titikey
ホーム活用テクニックChatGPTMidjourney新機能解析:-crefで同一人物を固定し、あらゆるものを参照する

Midjourney新機能解析:-crefで同一人物を固定し、あらゆるものを参照する

2026/3/2
ChatGPT

今回のMidjourney新機能で最も実用的な変化は、「キャラクターの一貫性」と「参照能力」が明確に強化されたことだ。これまで連載ポスターや絵コンテ、同一人物の複数画像を作る際に一番厄介だったのは、顔や衣装がズレていくこと。以下では、すぐに使える形でMidjourney新機能の使い方を分かりやすく説明する。

--crefで同じキャラクターをシリーズ画像内に“固定”する

Midjourneyに新しく追加されたキャラクター参照タグは--cref(character reference)で、核となる役割は、異なるシーンでも同一人物の顔の特徴、体格、全体的な識別性を再利用できるようにすることだ。やり方は簡単で、まず納得できるキャラクター画像を1枚用意し、その画像リンクをプロンプト末尾に入れ、--cref 画像URLを付ける。異なる構図の画像を複数生成したい場合でも、毎回同じ--crefを付ければ、人物の一貫性が保たれやすくなる。

例:cinematic portrait, rainy street, neon light --cref https://.../role.png。キャラクター画像は「正面の顔・きれいなライティング・遮蔽物が少ない」ものを選ぶのがおすすめで、Midjourney新機能はこうした参照画像のほうが安定性が高い。

--cwで“似せる度合い”を制御し、キャラを貼り絵みたいに硬直させない

--crefと組み合わせて使うのが--cwタグで、キャラクター参照の重み(「どれくらい似せるか」)を調整する。人物は同じでも表情や髪型、衣装が変えられないと感じたら、--cwを適度に下げて、一貫性と可塑性のバランスを取るとよい。逆に人物がズレ始めたら、--cwを少し上げる。

例:full body, in a medieval market, warm sunlight --cref https://.../role.png --cw 70。シリーズ制作では、まず同じ--cwで3枚テスト生成し、安定してからまとめて拡張すると効率がよい。

あらゆるものを参照:その“物体/キャラ”を画面に入れる

もう一つ注目すべきMidjourney新機能が「Omni-Reference(参照万物)」で、参照対象を「人物」から、物体、乗り物、非人間の生物などへ広げる考え方だ。実際の使い方は、参照画像を提示し、プロンプトで欲しいシーンやスタイルを記述することで、システムが参照対象の重要な外観特徴をより保持しやすくなる。EC用小物、製品形状の再利用、IP系モンスターの連載に特に向いている。

おすすめは、参照画像をできるだけ鮮明に、主体は単一に、背景はクリーンにすること。プロンプトでは「環境・カメラ・光」を具体的に書き、「主体」は参照画像に制約させると、Midjourney新機能の強みが発揮されやすい。

新機能でつまずきやすい点:なぜまだズレるのか

Midjourney新機能を使っていてもズレが起きることはあり、よくある原因は、参照画像そのものが不安定(強いフィルター、遮蔽、横顔、誇張したメイク)だったり、プロンプトに矛盾する記述がある(例えば「短髪」と言いながら「長い巻き髪」も要求する)ことだ。また、「同じ顔+衣装を大きく変更」を同時に狙うなら、まず顔を固定してから段階的に変えるのがおすすめ:--crefで安定版を出し、次により明確な衣装キーワードで反復する。この手順を回せるようになると、Midjourney新機能がシリーズ制作を大きく底上げしてくれるのが分かるはずだ。

ホームショップ注文