随着人工智能技术的发展,融合专家与人工智能的人机协同评价正成为新趋势。然而,实践中,简单的“人+机”组合并不能确保高质量评价。三个瓶颈亟待突破:一是评价内容“失焦”,智能评价高效,但STEM教学设计跨学科整合度、真实问题解决等核心特征常被忽略;二是协同过程“失序”,人机分工边界不清,“各评各的”难以互补;三是评价结果“失效”,评价常止步于分数,缺乏改进指导。基于STEM核心特征,并体现STEM教育本质,笔者认为需要从定量规、定分工、定反馈三方面推动STEM教学人机协同评价。
定量规:构建人机共享的STEM教学设计评价标准
人机协同评价的首要任务,是打造一把人和AI都能理解和使用的“标尺”。这需要将专家知识和经验转化为结构化、可计算的评价量规。第一步是建立评价框架。通过梳理国内外STEM教育研究成果,“大概念统整、真实性学习、素养导向”等为STEM教学的核心特征,需围绕以上要素形成包含评价指标、评分等级和评价示例的结构化量表。第二步是让AI“读懂”量规。就目前技术条件,可采取两条路径:一是构建评价知识库,将优秀案例和评价标准进行结构化存储,通过检索增强生成技术,让AI能够快速检索相关规则和示例进行比对;二是运用自然语言处理技术,将文字描述的评价规则转化为机器可执行的判断逻辑。经过这样的“翻译”过程,AI在审阅STEM教学设计时,就能像专家一样调用规则,对照示例,输出结构化的评价结果。
定分工:聚焦STEM教学设计特性制定人机协作策略
有了共享的评价量规,接下来要解决的是如何让人和AI高效协作。研究表明,对于STEM教学设计这类既需要结构分析又需要价值判断的高复杂性任务,最佳策略是让AI处理规则性工作,让专家聚焦价值判断。因此,可构建“AI初评—专家复评—系统优化”的协作策略。在初评阶段,AI运用自然语言处理技术快速扫描教学设计,检查结构完整性、逻辑连贯性、知识点覆盖等可量化维度,生成诊断报告供专家参考。在复评阶段,专家重点评估需要教育洞察的维度:选题的教育价值、情境的真实程度、进阶设计的合理性等,并对AI的初评结果进行校准。专家的修正数据需定期用于优化系统的评价规则和判断策略。通过这种动态协作,AI的效率优势与专家的专业判断形成互补,既避免了重复劳动,又确保了评价质量。
定反馈:生成促进STEM教师专业发展的行动指南
传统教学设计评价常止步于“多学科整合不足”等笼统评语,教师看后仍不知从何改进。为此,STEM教学设计人机协同评价智能体,生成的反馈报告需包含3个要素:具体问题诊断、改进资源推送和个性化指导建议。比如,某初中教师提交的“桥梁设计”教学设计被诊断为“工程实践环节薄弱”,学生只是按照固定步骤完成制作,缺少测试、改进、再设计的循环过程。系统随即推送了“纸桥承重挑战”优秀案例,该案例展示了学生如何通过多轮测试不断优化桥梁结构。最后建议该教师增加工程迭代环节,让学生真正体验工程师的工作过程。这种反馈机制让教师打开报告即可看到“问题在哪儿、为何出现、怎样改”。这样,评价就可以从终结性判断转变为发展性支持,真正成为教师STEM教学专业发展的助推器。
(作者系杭州师范大学中国教育现代化研究院副教授、教育技术学系副主任)
《中国教育报》2025年09月16日 第04版
工信部备案号:京ICP备05071141号
互联网新闻信息服务许可证 10120170024
中国教育报刊社主办 中国教育新闻网版权所有,未经书面授权禁止下载使用
Copyright@2000-2022 www.jyb.cn All Rights Reserved.