Titikey
ホームニュースOpenaiMidjourney新機能完全解説:キャラクター参照と万物参照の実践テクニック

Midjourney新機能完全解説:キャラクター参照と万物参照の実践テクニック

2026/4/26
Openai

AIで複数の画像を生成する際、同じキャラクターの顔や服装が全く一致しない経験はありませんか?Midjourneyが最近リリースしたキャラクター参照(-cref)と万物参照(Omni-Reference)機能は、この課題を解決するために開発されました。わずか1枚の参照画像で、キャラクターを複数のシーンで高度に統一し、あらゆる物体や生物をあなたの画像に「移植」できます。本記事では、この2つの新機能を詳しく解説し、実用的なパラメータテクニックも紹介します。

キャラクター参照(-cref)機能とは

キャラクター参照は、Midjourney V6以降で最も重要なアップデートの1つです。これまでは人物を生成する際、同じプロンプトを使用しても、出力ごとに顔のパーツ、体型、さらには服装が変わってしまうことがありました。しかし、現在はプロンプトの末尾に--cref <画像リンク>を追加することで、Midjourneyが参照画像のキャラクター特徴を抽出し、その後の各シーンで元のキャラクターの顔、体型、服装スタイルを維持した画像を生成できます。例えば、自分の自撮り写真を異なるシーンのイラストに変換したい場合、-crefを使えば簡単に実現できます。

-cwパラメータでキャラクターの一貫性強度を制御

細かいユーザーは気づくかもしれませんが、キャラクター参照は100%複製するわけではありません。--cwパラメータで参照の重みを調整できます。--cwの値は0から100の範囲で、デフォルトは0です。0に設定すると、Midjourneyはキャラクターの顔の特徴のみを参照します。100に上げると、髪型、服装、姿勢などの詳細も保持します。顔の一貫性を保ちつつ、キャラクターの服装やシーンを自由に変更したい場合は、--cwを20〜40に設定することをおすすめします。これにより、キャラクターの識別性を確保しつつ、AIに創造の余地を残せます。

万物参照(Omni-Reference)機能の詳細

人物キャラクターだけでなく、Midjourneyはさらに強力な万物参照システムもリリースしました。この機能は人間に限定されず、あらゆる物体、動物、さらには車両の画像をアップロードし、--srefまたはインターフェースのドラッグ&ドロップを使用して、参照オブジェクトの形状、テクスチャ、スタイルを新しい画像に「移植」できます。例えば、ぬいぐるみの画像を参照として、同じ質感のパンダをMidjourneyに生成させることや、クラシックカーのデザインを参照して、レトロな雰囲気の宇宙船を生成することも可能です。万物参照はAIイラストの創作範囲を大幅に拡大し、キャラクターデザイン、プロダクトプロトタイプ、コンセプトアートなどのシーンに特に適しています。

実践応用とテクニック

これらの2つの新機能を最大限に活用するために、いくつかの便利なテクニックを覚えておきましょう。まず、参照画像の品質が出力結果に直接影響するため、正面を向いて照明が均一で背景がクリーンな画像を選んでください。次に、-cref-srefを同時に使用する場合は、パラメータの位置に注意してください。--crefはキャラクター用、--srefはスタイルや物体用であり、両方を重ねて使用できます。最後に、Midjourneyの公式プロンプトテンプレートを活用しましょう。例えば、「インスピレーションを得る」の中の「肖像画を描く」をクリックすると、システムが自動的にキャラクター参照パラメータをネストし、初心者でも簡単に使い始められます。さあ、今すぐ試して、あなたのキャラクターを複数のストーリーシーンで「生き生き」と動かしてみてください。

ホームショップ注文