Google、Geminiの安全性を巡る訴訟に反論
2026年3月4日 (水)
- •Googleが、AIの安全性と挙動に関するガバラス(Gavalas)家(訴訟の原告である遺族)の訴訟に対し、正式な回答を提示。
- •Geminiには自傷行為の防止や、専門的な支援への誘導を目的としたガードレールが設計されている。
- •同社はAIモデルの限界を認めつつも、安全インフラへの投資をさらに強化する方針を表明した。
Googleは、対話型AIの開発者が直面する法的・倫理的責任の重さを浮き彫りにした、ガバラス(Gavalas)家による訴訟に対して公式に回答した。同社は遺族への深い弔意を示しつつ、訴状の内容を精査しており、同時にGeminiモデルの根本的な設計を擁護している。この事案は、生成AIの急速な普及と、デリケートな状況における人間とAIの相互作用という非常に複雑な課題との間に存在する摩擦を鮮明に映し出している。
同社の主張によれば、システムには現実世界での暴力や自傷行為を抑制することを目的としたガードレールが組み込まれている。これらの安全策は精神医学の専門家との協力のもとで開発されており、ユーザーが苦悩を表明した際には、AIが単なる対話相手から支援リソースの提供者へと役割を転換するように設計されている。実際に当該のケースにおいても、Geminiは自身がAIであることを明示した上で、相談窓口の情報を繰り返し提示し、人間による助けを受けるよう促していたという。
しかし、こうした措置を講じてもなお、高度な安全プロトコルが決して万全ではないという現実が浮き彫りになった。Googleは、モデルが困難な場面で基本的には適切に機能する一方で、AIは決して完璧な存在ではないことを認めている。これは、ツールの利便性を維持しながら、予測困難なエッジケースに対処できる堅牢な保護機能をいかに構築するかという、業界共通の難題を示唆している。これを受け、同社は心理的危機の検知と対応能力をより洗練させるため、安全対策への投資を継続することを誓った。