来源:国际与比较教育研究所 作者: IFRGE 已有0人评论 2024/8/16 10:50:32 加入收藏
2024年7月8日,美国教育部教育技术办公室发布《利用人工智能设计教育:开发人员必备指南》(Designing for Education with Artificial Intelligence: An Essential Guide for Developers)。
该指南指出,现在和将来,越来越多的AI模型和功能将被纳入专门服务于教育环境的产品中。美国教育部致力于鼓励教育技术的创新进步,改善全国教育系统的教学和学习,并支持开发人员使用AI为教育市场创建产品和服务。
该指南以美国教育部之前的报告《人工智能与教学的未来:见解和建议》为基础,旨在为产品负责人及其创新团队、设计师、开发人员、面向客户的员工和法律团队提供信息,帮助他们在创建用于教育的AI产品和服务时,努力实现安全性、可靠性和信任。这个领域比构建大型语言模型或部署聊天机器人的范围更广泛,它包括现有和新兴的AI功能,可以用来进一步实现共同的教育目标。
具体而言,该指南提出了5个建议:
建议一:为教学和学习而设计。
这一建议要求开发人员应该从理解特定于教育的价值开始。在许多例子中,教育部看到教育工作者正在加紧阐明价值观,例如以人为中心,并关注阅读、科学、数学和计算机科学教育等优先教育挑战。此外,教育工作者和学生的反馈应纳入产品开发、测试和改进的各个方面,以确保学生的需求得到充分满足。
为此,开发人员应:
熟悉表达教育愿景和策略的相关资源,包括在国家、州、地方以及国际层面上可用的资源;
加深对不同学生群体在学习机会和学习成果方面的历史差异的理解,以及他们的产品如何为所有学生的公平做出贡献;
有意识地在整个产品生命周期中加强他们与教育用户社区的反馈循环,从定义产品的用途到改进其操作方式;
聘请道德专家来指导他们的工作,并在开发、部署和持续改进产品的日常工作中,建立团队对道德问题的理解;
让教育工作者和年轻人参与整个产品开发过程,不仅要包括那些有权势的人,还要包括那些最受产品或服务设计选择影响的人;
探索人类判断的障碍(例如,倾向于听从来自技术的建议),误解基于人工智能推理的局限性,或者低估一旦人工智能部署在教育环境中可能出现的更多风险,并扩大他们对人为因素的理解,以涵盖人工智能系统可能支持或阻碍健全的教学和教育决策的所有方式。
建议二:提供理由和影响的证据。
提供理由和影响的证据对于决定采用或购买哪种教育科技产品非常重要,特别是当产品的目标是提高学生的成绩时。《1965年中小学教育法》和教育决策者都呼吁开发人员提供证据,证明产品或服务能改善学生的学习成绩。例如,在采购方面,教育机构明确要求提供所需的证据。
为此,开发人员应:
询问潜在客户他们在决策过程中如何使用特定类型的证据,以及“成功是什么样子”,这将超越要求潜在客户列出相关的地方、州或其他采购需求;
在设计工作的早期就寻求与研究人员建立伙伴关系,以便最大限度地利用现代学习原则;
寻求与教育工作者和用户建立伙伴关系,以便在其产品的整个生命周期中进行现场测试;
让那些受产品影响最大的人参与收集和解释证据;
不仅应该收集有效性的证据,还应该收集与安全、保障、信任和其他问题相关的证据;
将上述工作流程整理成有说服力的、生动的文档,并定期更新和公开地放在网上,以提高透明度。
建议三:促进公平和保护公民权利。
促进公平和保护公民权利是教育部和行政部门的一项重要承诺,也是开发人员和教育工作者在公众听证会上关注的核心问题。例如,开发人员应警惕数据集中的代表性和偏见问题、系统中的算法歧视问题以及确保残疾人士的可访问性。
为此,开发人员应:
从用于训练算法的底层数据集到UI/UX选择将公平和民权优先事项融入其组织文化中;
建立或改进新平台、增强和/或扩展审查流程/清单,以确保解决方案具有广泛的代表性;
与组织建立反馈循环机制,并与专家实践者建立关系,以实现公平的学习体验设计。
努力与主流和教育技术标准机构以及他们正在进行的工作保持同步,以解决人工智能产品和服务中的种族主义和其他形式的算法歧视问题;
参与定期的第三方审查过程,以消除来自底层数据库、算法甚至UI/UX设计元素的偏见,这些元素可能会导致某些群体无法获得公平的使用体验。
建议四:确保安全。
确保安全在人工智能行政命令和相关的行政指导中得到了强调。在人工智能时代,教育决策者正在清晰地阐明他们的数据隐私和安全要求,并详细阐述诸如公民自由之类的额外要求。为了负责任地参与生态系统,开发人员需要详细说明他们将采取的行动,以确保人工智能用户的安全。
为此,开发人员应:
起草清晰易懂的语言,说明组织如何保护学生数据安全和隐私;
通过审计或其他检查和测试保护的程序来加强问责工作,并从最终用户那里获得风险反馈,特别关注脆弱和服务不足的人群。
跨产品线或与其他公司合作,阐明共享的标准或方法,以解决包含人工智能的教育产品和服务中的风险,创建不仅在组织内而且在上游供应商和下游消费者中解决风险问题的方法;
培养公众、用户和监管机构如何看待与人工智能教育产品和服务相关的风险水平的意识,并在产品中出现值得注意的风险时做出反应;
优先考虑在联邦政府、州和地方政府中与AI相关的快速发展的立法和其他治理活动;
考虑解决州和联邦政策之间的相互作用。
建议五:促进透明度和赢得信任。
促进透明度和赢得信任是一个重要的总体目标。赢得信任需要关注上述所有价值观,此外,它还具有超越产出的重要沟通维度。例如,信任需要透明度和其他公共承诺,以在技术供应者和用户之间建立相互信任。开发人员、教育工作者和其他人员协作定义和行动可以建立信任。
为此,开发人员应:
努力提高透明度。可以通过强调责任和创新的双重作用来证明其在营销中可以得到解决的承诺;
更公开地分享书面承诺和披露,但也应该强调在产品开发和改进过程中与教育工作者的双向沟通和合作;
支持在生态系统中培养人工智能素养的努力;
考虑如何公开描述在其产品和服务中实现的可信系统架构的特征。一些特征,如可解释性,可能很难在短期内实现,但相关的概念,如解释能力,现在可能是可能的,而研究和开发仍在继续。
该指南还包括每一个建议需要思考的问题和相应的资源。最后并且指出,开发人员应该采取预防措施,设计基于人工智能的安全教育系统,并赢得公众的信任,就像骑手期望电动自行车开发人员确保他们的骑手的安全和保障,并赢得公众的信任一样。
资料来源:
U.S. Department of Education, Office of Educational Technology, Designing for Education with Artificial Intelligence: An Essential Guide for Developers, https://tech.ed.gov/files/2024/07/Designing-for-Education-with-Artificial-Intelligence-An-Essential-Guide-for-Developers.pdf
中国创新教育网 版权所有:站内信息除转载外均为中国创新教育网版权所有,转载或摘录须获得本网站许可。
地 址:潍坊市奎文区东风大街8081号 鲁ICP备19030718号 鲁公网安备 37070502000299号