Midjourneyの上級ユーザーにとって、プラットフォームの最近の一連の更新は驚きに満ちています。静止画を「生き生きと」させる動画生成から、精密なスタイル転送を実現する参照システムまで、新機能はAI絵画の境界を拡大し、クリエイターにこれまでにない表現ツールをもたらしています。この記事では、これらの興奮を呼ぶ変化をご紹介します。
動画生成機能:静止画を動かす
最も注目すべき更新は、動画生成機能の導入と改良です。現在、Midjourneyで生成した静止画をワンクリックでショート動画に変換でき、画像内の要素を実際に「動かす」ことが可能です。キャラクターの微妙な動作からシーンの雰囲気の流動まで、生き生きと表現されます。
この機能はスタンダード版以上のプラン利用者に開放されており、HD高画質モードも提供されています。ネイティブ720p解像度でレンダリングされ、映像の滑らかさと詳細の一貫性が向上しています。なお、動画生成はコストが高いため、リソースを効率的に使用するには、小さなバッチ(例:1回に1~2個)で生成することをお勧めします。
参照スタイル(Sref)と参照万物システム
もう一つの重要な更新は、V7参照スタイルシステムの全面導入です。この機能はスタイル制御の「神器」とも言え、参照画像をプロンプト欄の指定エリアにドラッグ&ドロップするか、キーワードの後に「--sref」を入力し画像リンクを添付するだけで、生成画像が参照画像の全体的なスタイル、色調、質感を継承できます。
さらに、より強力な「参照万物」機能がテスト中です。これはスタイルに限らず、参照画像内の特定のキャラクター、物体、非生物要素さえも、新たに作成する画像に精密に組み込むことができ、「これを私の画像に配置する」という真の意味での実現を可能にします。キャラクターの一貫性や複雑な構図の構築に強力な支援を提供します。


