執筆:白米元気
Metaが「Segment Anything Model」第3世代、通称SAM 3を発表しました。このモデルは、言語と視覚の融合を目指し、ユーザーが簡単に特定の概念を抽出できる新しい機能を搭載しています。これにより、私たちの日常生活やビジネスシーンにおけるデータの扱い方が大きく変わることが期待されています。
Metaが提供する最先端技術SAM 3:新たなセグメンテーションの可能性
Metaは10月に「Segment Anything Model」第3世代(SAM 3)を発表しました。この新モデルは、従来の固定されたカテゴリに依存せず、オープンボキャブラリーを活用して画像や動画の理解を行います。具体的には、テキストプロンプトや例示画像を用いて特定の概念を抽出することができるようになりました。この革新的なアプローチによって、ユーザーはより自由な発想で情報を操作できるようになります。また、SAM 3は新しいトレーニング手法を採用し、人間とAIのアノテーターが共同で作業することで精度が向上しています。Metaによると、このモデルは内部ベンチマークにおいて従来のシステムのパフォーマンスを倍増させたとのことです。実際には、SAM 3はGLEEやOWLv2などの専門ツールや、多モーダルモデルであるGemini 2.5 Proとも比較されるほどの性能を発揮しています。
SAM 3がもたらすインパクト:実用化への道筋
SAM 3は、視覚要素とテキストの結びつきがコンピュータビジョンにおける大きな課題であることから開発されました。例えば、Facebook MarketplaceではSAM 3が「部屋で見る」機能に利用されており、ユーザーが家具を自宅に仮想的に配置することができます。この機能によって、ユーザーは商品の購入前に自宅でのイメージを具体的に確認できるため、非常に便利です。また、Instagramではクリエイター向けに特定の人や物に効果を適用できる機能も計画されています。これによって、新しい形でのクリエイティブな表現が可能になるでしょう。さらに、このモデルはNvidia H200 GPU上で100以上のオブジェクトを30ミリ秒で処理できるため、高速な応答が期待できます。ただし、一部の限界も指摘されており、高度な専門用語や論理的な記述には苦手意識があります。これらの問題には、多モーダル言語モデルとの組み合わせが有効とされています。加えて、MetaはSAM 3Dという2つのモデルも発表しており、1枚の2D画像から3D再構築を行うことができます。この技術はまだ初期段階ですが、多くの可能性を秘めています。
今後の展望:SAM 3による情報処理革命
Metaによる新しいセグメンテーションモデルSAM 3は、言語と視覚の融合を目指した革新的な技術です。この技術によって、ユーザーはより直感的に画像や動画から情報を抽出できるようになり、多様なアプリケーションへの展開が期待されます。今後、この技術がどのように進化していくか非常に楽しみです。そして、このモデルが私たちの日常生活やビジネスシーンでどれほど役立つか、その実力を実感する日も近いでしょう。

コメント