Segment Anything Model (SAM)

Meta AIが開発した画期的な画像分割モデル。高精度なマスク生成とゼロショット適応で、あらゆる画像を自在に切り分けます。

ウェブサイトを訪問

紹介

Segment Anything Model (SAM) は、Meta社のFAIR研究所が生み出した革新的な画像分割基盤モデルです。1100万枚を超える画像と11億以上のマスクデータで訓練されたこのモデルは、点指定や囲み枠、テキスト指示など多様な入力に応じて、学習なしで高精度なオブジェクトマスクを瞬時に生成します。

主な機能

・プロンプト対応セグメンテーション:点、バウンディングボックス、大まかなマスク、テキストなど、直感的な指示で対象を精密に分離

・基盤モデル構造:トランスフォーマー画像エンコーダーとプロンプトエンコーダー、高速マスクデコーダーを統合した先進アーキテクチャ

・大規模学習データ:業界最大級のSA-1Bデータセットで学習し、驚異的な汎用性とゼロショット転移能力を実現

・ゼロショット適応:追加学習なしで未知の画像やタスクにも即座に対応し、高い精度を発揮

・オープンソース化:Apache 2.0ライセンスで公開され、研究から商業利用まで幅広く活用可能

・高速処理:約50ミリ秒でのマスク生成により、インタラクティブな操作をリアルタイムで支援

応用分野

・AI支援画像注釈:自動マスク生成で画像ラベリング作業を効率化

・医療画像解析:病変や器官の精密な分割により診断と治療計画を支援

・環境・衛星画像分析:土地被覆の分類や災害監視に貢献

・AR・映像制作:拡張現実アプリや映像効果向けにリアルタイム物体分離を実現

・ロボティクス・自動運転:詳細なシーン理解を通じて自律システムの精度向上に寄与