MIT研究者、AIで音楽を「生きる細胞」として可視化
2026年3月26日 (木)
- •MITのマリアーノ・サルセド(Mariano Salcedo)が、Neural Cellular Automataを活用したリアルタイムの音楽可視化システムを開発
- •オーディオエネルギーとAIの相関関係を微調整し、視覚的なパフォーマンスを自在に操作できるWebインターフェースを提供
- •AAAI 2026で発表された本研究は、音楽の枠を超え、生物学的モデリングを含む自己組織化システムの可能性を探索
マリアーノ・サルセド(Mariano Salcedo)は、MITの音楽テクノロジー・計算プログラムに所属する大学院生であり、音響と視覚芸術の境界を再定義しようとしている。彼はNeural Cellular Automata(ニューラル細胞オートマトン)を活用し、音楽が単に映像を補完するのではなく、映像そのものの進化を能動的に促すフレームワークを構築した。従来の静的なフィルターを用いる手法とは一線を画し、このシステムはピクセルの一つひとつを聴覚刺激に反応する「生きた細胞」として扱うのが特徴だ。
この技術の基盤には、個々の要素が局所的に相互作用し、複雑で創発的な挙動を生み出す自己組織化システムがある。これは鳥の群れや生物組織の形成プロセスにも似た原理である。また、サルセドが開発したWebインターフェースを通じて、ユーザーは信号処理とジェネレーティブ・アートの隙間を埋めることができる。内部パラメーターを微調整すれば、音楽ストリームのエネルギーを視覚的なオートマトンの成長パターンへとダイレクトに同期させられるのだ。
本研究はリスナーの体験を豊かにするだけでなく、複雑なシステムのモデリング全般において重要な意義を持つ。サルセドは2026年初頭、AAAIカンファレンスにて「Artificial Dancing Intelligence」と題した成果を報告した。彼の試みは、巨大な生成モデルへの依存から脱却し、自然現象をシミュレートしながらデジタル音楽における文化的バイアスを抑える、より小型で特化型のアーキテクチャへの転換を示唆している。