Google、AI製品に「適応型UI」を標準実装へ
- •Googleがアクセシビリティを設計の核に据える新フレームワーク「NAI」を発表した。
- •ユーザーの特性に合わせ、専門のサブエージェントがインターフェースを動的に再構築する。
- •ロチェスター工科大学との提携により、手話と英語を繋ぐ学習ツール「Grammar Lab」を開発した。
Googleは、支援技術を「後付けの機能」とする従来の考え方から、製品そのものに柔軟性を持たせる設計へとパラダイムシフトを図っている。新たに発表された「Natively Adaptive Interfaces(NAI)」フレームワークは、AIを活用してユーザーのニーズに応じたインターフェースの動的な変更を可能にするものだ。具体的には、テキストの拡大や音声解説の生成、レイアウトの簡素化などをリアルタイムで行う。この「デザインによるアクセシビリティ」というアプローチにより、包括的な機能がオプションではなく、製品の不可欠な要素として組み込まれることになった。
システムの裏側では、高度な階層構造を持つモデルが稼働している。メインとなるAIエージェントがユーザーの意図を分析し、より小規模なサブエージェントと連携して、ADHDや運動障害などの特性に合わせたUI調整などの技術的な処理を分担する仕組みだ。これは、音声操作のようなアクセシビリティ向上のための技術が、結果として一般ユーザーの利便性も高める「カーブカット効果」を体現している。特殊なニーズへの対応が、最終的には普遍的な使いやすさへと繋がるのである。
この研究の象徴的な事例が、ロチェスター工科大学(RIT/NTID)との共同開発による学習ツール「Grammar Lab」である。Googleの基盤モデルをベースに構築されたこのツールは、アメリカ手話(ASL)を使用する学生向けに、手話と英語の文法の隔たりを埋める個別学習パスを提供する。「当事者抜きに、私たちのことを決めない(Nothing about us, without us)」という原則を重視し、Google.orgは複数の非営利団体に資金を提供。これらの適応型ツールが障害者コミュニティにおける真の摩擦を解消できるよう、開発が進められている。