The Impact of AI on Educational Assessment: A Framework for Constructive Alignment

📄 arXiv: 2506.23815v2 📥 PDF

作者: Patrick Stokkink

分类: cs.HC, cs.AI

发布日期: 2025-06-30 (更新: 2025-07-01)


💡 一句话要点

提出基于建设性对齐理论的AI教育评估框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 人工智能 教育评估 建设性对齐 布鲁姆分类法 教师培训 学习目标

📋 核心要点

  1. 现有评估方法未能有效应对AI的影响,导致学生表现与理解的评估有效性受到质疑。
  2. 提出基于建设性对齐理论的框架,强调评估方式需根据AI的使用情况进行调整。
  3. 研究表明,讲师对AI的熟悉程度影响其对评估中AI使用的态度,需制定指导方针以减少偏差。

📝 摘要(中文)

人工智能(AI)及大型语言模型(LLM)在教育中的影响日益增加,学生们频繁使用这些模型,这引发了对当前评估形式有效性的质疑。本文基于建设性对齐(CA)理论和布鲁姆分类法构建了理论框架,认为AI对不同布鲁姆层次的学习目标影响不同,评估方式需相应调整。此外,形成性和总结性评估应与AI使用的允许性保持一致。尽管讲师普遍同意教育和评估需适应AI的存在,但对AI在评估中允许程度的看法存在偏差。为此,本文提出在大学或院系层面制定结构化指导方针,以促进教职员工之间的对齐,并建议对教学人员进行AI工具的能力与局限性培训,以便更好地调整评估方法。

🔬 方法详解

问题定义:本文旨在解决AI对教育评估方式的影响,现有评估方法未能有效考虑AI的使用,导致评估结果的有效性受到挑战。

核心思路:基于建设性对齐理论,提出评估方法需根据AI的使用情况进行调整,确保形成性和总结性评估的一致性。

技术框架:整体框架包括对布鲁姆分类法的应用,评估目标的重新定义,以及针对AI使用的指导方针制定,主要模块包括学习目标设定、评估设计和教师培训。

关键创新:提出了一个系统的框架,强调AI对不同学习目标的影响,创新性地将AI的使用与评估方法的调整结合起来,区别于传统评估方法。

关键设计:在评估设计中,需明确AI使用的允许性,并对评估标准进行调整,确保评估能够真实反映学生的学习情况。

📊 实验亮点

研究表明,教师对AI的熟悉程度直接影响其对AI在评估中使用的态度。通过实施结构化指导方针,能够有效减少教师之间的偏差,提升评估的一致性和有效性。

🎯 应用场景

该研究的潜在应用领域包括高等教育课程设计、评估方法改革及教师培训。通过建立结构化的指导方针,教育机构能够更好地适应AI技术的快速发展,提高评估的有效性与公正性,进而提升教育质量。

📄 摘要(原文)

The influence of Artificial Intelligence (AI), and specifically Large Language Models (LLM), on education is continuously increasing. These models are frequently used by students, giving rise to the question whether current forms of assessment are still a valid way to evaluate student performance and comprehension. The theoretical framework developed in this paper is grounded in Constructive Alignment (CA) theory and Bloom's taxonomy for defining learning objectives. We argue that AI influences learning objectives of different Bloom levels in a different way, and assessment has to be adopted accordingly. Furthermore, in line with Bloom's vision, formative and summative assessment should be aligned on whether the use of AI is permitted or not. Although lecturers tend to agree that education and assessment need to be adapted to the presence of AI, a strong bias exists on the extent to which lecturers want to allow for AI in assessment. This bias is caused by a lecturer's familiarity with AI and specifically whether they use it themselves. To avoid this bias, we propose structured guidelines on a university or faculty level, to foster alignment among the staff. Besides that, we argue that teaching staff should be trained on the capabilities and limitations of AI tools. In this way, they are better able to adapt their assessment methods.