English summary
Meta introduces TRIBE v2, a predictive foundation model that acts as a digital twin of human neural activity for visual and auditory stimuli. It delivers a 70× resolution improvement over comparable models, enabling neuroscientists and clinicians to test hypotheses without human subjects. Meta releases the model, codebase, paper, and an interactive demo.
Meta は人間脳の神経活動を予測する基盤モデル「TRIBE v2」を発表した。視覚 / 聴覚刺激への脳応答を予測するデジタルツインとして機能し、同種モデルと比較して 70 倍の解像度向上を実現する。神経科学者・臨床研究者は被験者を必要とせずに仮説検証できるようになる。モデル・コード・論文・対話デモを公開。
ポイント
- TRIBE v2 — 人間脳の神経活動を予測する基盤モデル
- 視覚・聴覚刺激への脳応答を予測するデジタルツイン
- 同種モデルから 70 倍の解像度向上
- モデル・コード・論文・対話デモを公開
ソース
Meta AI Blog