AIによる教員評価の自動化が学校現場で拡大
- •学校管理職が大規模言語モデル(LLM)を活用し、授業の記録を評価基準に基づいたパフォーマンス評価へと変換している。
- •専門家は、AIが人間的な文脈を理解できないため、画一的あるいは不正確な評価が下されるリスクがあると警告している。
- •自動化されたワークフローにおける透明性の欠如やデータプライバシーの遵守を巡り、倫理的な懸念が浮上している。
初等・中等教育(K-12)や高等教育の現場では、教員評価に伴う膨大な業務を管理するために生成AIを導入する動きが加速している。管理職は、教室での出来事を客観的に記録した「低推論(low-inference)」のメモをChatGPTなどのツールに入力することで、ダニエルソン・フレームワークのような複雑な評価基準に沿ったフィードバックを生成している。この手法によって評価書の作成時間が半分に短縮されたとの報告もあるが、多くの学区ではAI支援による評価に関する正式なガイドラインが整備されておらず、政策的な空白地帯で運用されているのが実情である。
一方で、人事評価という重要な決定にこの技術を適用するのは時期尚早だとの批判も根強い。主な懸念は、AIが教室内の社会的な機微や対人関係のダイナミクスを把握できない点にある。人間的な文脈を深く理解することなく自動化されたシステムは、画一的あるいは不正確なフィードバックを生成する恐れがあり、教員のキャリアに不当な影響を及ぼしかねない。これは、管理業務の効率化と、教育現場のリーダーシップに求められる繊細で定性的な判断との間にある、高まる緊張感を浮き彫りにしている。
また、透明性の確保も大きな課題となっており、一部の管理職は評価対象となる教職員に知らせることなく、独自の判断でAIツールを利用している。こうしたリスクに対処するため、教育技術の専門家は「Human-in-the-loop」アプローチを提唱している。これは、AIが文書作成を補助しつつ、最終的な評価権限は人間が保持するという仕組みだ。さらに、学校へのAI導入には、FERPAやCOPPAといった連邦プライバシー法を遵守し、クローズドなシステム内で生徒や教員の機密情報を保護する厳格なデータガバナンスの構築が不可欠である。