Adobe、AIコンテンツ制作エコシステムを拡大
Adobeはコンテンツ制作のための人工知能(AI)エコシステムを拡大しています。自社の生成AIモデルグループ「Firefly」に加え、他のAI企業が開発したモデルをソフトウェアで使用できるようにしました。
Adobeは28日(現地時間)、カリフォルニア州ロサンゼルスで開催された「Adobe Max 2025」会議でGoogleなどとの拡大パートナーシップを発表しました。
AdobeはFireflyに最新のモデルを継続的に統合するために取り組んできました。Fireflyは音声生成に優れたEleven Labs Multiringual v2と画像アップスケーリングのためのTopaz Bloomを新たに追加しました。また、Black Forest LabsのFlux 1.1、GoogleのBio 3.1およびGemini 2.5 Flash Images(Nano Banana)、Idogram 3.0、Luma AIのRay 3、Moon ValleyのMarie、OpenAIのGPT Images、Pika、RunwayのGen-4、Aleppなど、さまざまな業界のモデルを提供しています。
Adobeのデジタルメディア部門の社長であるDavid Wardwani氏は、AIモデルを使用したコンテンツ制作において最適なモデルを選択することの重要性を強調しました。AIの機能、出力品質、性能、コスト、商業的安全性を総合的に考慮する必要があると述べました。たとえば、ビデオ生成に最適なAIモデルは、ビデオ編集用のモデルとは異なる場合があり、ユーザーは特定のタスクに最適化されたモデルを自由に選択して使用できます。
Adobeはまた、クリエイターが自分のスタイルに合わせてモデルを変換できる新しいモデル「Firefly Custom Model」(プライベートベータ)を発表しました。このモデルは、参照画像、イラスト、スケッチをアップロードすることでクリエイターが自分のスタイルを反映したモデルを簡単に構築できるようにします。これらのカスタムモデルはプライベートに設定されており、プロデューサーの承認なしに他のユーザーが使用することはできません。この機能はまず「Firefly」アプリケーションと「Firefly Board」に適用され、来月から順次提供されます。
AdobeのCEOであるShantanu Narayen氏は、Adobe Fireflyのビジョンは、クリエイティブなワークフローのためのワンストップサービスを提供し、クリエイターがアイデアの計画から配信までを探求できるようにすることだと述べました。特に、イノベーション、想像力、技術と人間のバランスが重要であり、人間とAIのパートナーシップにおいて創造性がピークに達すると強調しました。