チャットボット時代の大学試験:ベルギーでの試行
2026年1月25日 (日)
- •ルーヴァン・カトリック大学が「オープンソース戦略」の試験で、AIの使用を許可する形式を試験的に導入。
- •AI利用者は事前申告、プロンプトの共有、そしてAIの誤りに対する「全責任」を負うことが求められた。
- •実際に利用したのは学生60人中わずか3名。時間的コストと誤答のリスクが主な敬遠理由となった。
生成AIが普及する中、現代の労働環境に不可欠なツールを禁止するのではなく、いかに学生の知識を評価するかが学術界の大きな課題となっている。ルーヴァン・カトリック大学のプルム教授は、自身の「オープンソース戦略」の試験において、厳格な透明性を条件にチャットボットの使用を許可するという興味深い実験を行った。
導入されたプロトコルでは、学生は事前にAI使用の意図を宣言し、使用した具体的なプロンプトを記録しなければならない。さらに最も重要な点として、システムが生成したハルシネーションや事実誤認に対しては、学生が全責任を負うことが義務付けられた。この試みは、単なる「カンニング」の防止から、人間による検証が不可欠な環境で大規模言語モデル (LLM) を責任を持って活用する能力の育成へと、評価の軸を移すものである。
しかし、これほど強力なツールが利用可能であったにもかかわらず、実際に利用を選択したのは60人中わずか3人にとどまった。試験後の調査によれば、多くの学生がプロンプト・エンジニアリングに費やす時間的コストや、限られた試験時間内にAIが生成した誤ったロジックを修正せねばならないリスクを懸念したという。
この実験は、高等教育における「オープンブック、オープンAI」形式への移行という新たな潮流を象徴している。AIを「高度だが間違いを犯す助手」として扱うことで、教育者は単純な暗記ではなく、高次の思考能力や技術的な出力を検証する能力を評価できる。これこそが、学生を実社会のシナリオに備えさせるための現実的なアプローチと言えるだろう。