アリババのTongyi Lab、新オープンソース画像編集モデル「Qwen-Image-Edit-2509」を公開──複数画像合成とControlNet標準対応で表現力を強化

出典:https://mp.weixin.qq.com/s/nnIXaj_mwIGqtAUyooTzgw

Qwen-Image-Edit-2509
概要ポイント
  • アリババのTongyi Labが新モデル「Qwen-Image-Edit-2509」をオープンソース公開。
  • 複数画像合成やControlNet標準対応によりポーズ変更・衣装差替えを実現。
  • 古い写真の修復やフォント編集など表現力を強化。
  • 全モダリティ対応の「Qwen3-omni」も同時発表、音声・映像・テキストを統合処理。
本文

アリババのTongyi Labは、画像編集モデル「Qwen-Image-Edit-2509」を公開した。複数画像を組み合わせた自然な合成を可能にし、「人物+人物」「人物+物体」「人物+場面」など多様な生成に対応。ControlNetを標準搭載することで、人物のポーズ変更や衣装差替えも容易になった。


さらに、古い写真の修復やカラー化、破損写真の補正にも対応し、フォント編集や文字の定点修正など文字表現の一貫性も強化された。表情や陰影を文脈に沿って自然に変化させる機能も搭載され、従来の画像合成を超える編集体験を提供する。


同時に発表された「Qwen3-omni」は全モダリティ対応の大規模モデルで、テキスト・音声・画像・動画を統合処理可能。119言語のテキスト、19言語の音声入力、10言語の音声出力をサポートし、音声応答遅延は211ms、映像応答は507msと低遅延を実現。Gemini-2.5-ProやGPT-4o-Transcribeを上回る性能を示した。


今回の発表は、オープンソースAI分野でアリババのTongyi Labが存在感を高め、画像編集とマルチモダリティ処理の両面で強いインパクトを与える動きとなった。