首页
产品
资讯中心首页 教育新闻 装备前沿 市场行情 协会公告 企业动态 教育评论 政策文件 行业规范 技术文章
首页 > 技术中心 > 技术动态 > 正文
教育人工智能伦理风险如何消解
http://www.ceiea.com 2021年04月08日 10:25 教育装备网
分享到:


  人工智能正在成为国际竞争的新焦点,同时也为人类社会带来了新的发展机遇。机器学习、自然语言处理、情感计算、虚拟现实等技术的迅猛发展,不仅为学生获取更高质量的教育体验提供了有力支撑,也有助于进一步扩展教师自由发展的空间。但与此同时,智能导师系统、智能数据挖掘等人工智能技术在教育应用中面临众多伦理问题,例如数据泄露、公共安全、恶意竞争等。

  人工智能(Artificial Intelligence,简称AI)是计算机科学的一部分,包括研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统等方面。教育人工智能伦理则是用以规范教育人工智能开发及应用过程中关系、行为的道理及准则。

  教育人工智能虽具备强大的数据整合与分析能力,但同时也会引发一系列新的伦理风险,系统来看,其主要体现在以下四个方面。

  其一,信息安全。人工智能助力教育教学的同时,不仅为师生发展创造机遇,也产生了海量教育数据如个人身份信息、行为轨迹、学习偏好等。若此类数据并未得以有效保护或者被非法使用,则会引发一系列信息安全问题,例如个人隐私资料被恶意泄露及不正当使用、电子邮件的恶意推送、非法电子监控、网络诈骗、数据侵权等,师生的隐私权利在人工智能透视镜下将变得十分脆弱。

  其二,目标冲突。教育人工智能的目标冲突风险主要由人工智能开发商、用户的基本目标不一致所产生的。对私营部门来说,由于商业利益至上的理念根深蒂固,可能会依托人工智能技术工具过度追逐私利。而且,不少教育人工智能设计者与开发者缺乏致力于“教育公共服务”的责任意识,欠缺对教育成长的价值关怀。若人工智能开发商、学校管理团队未在人工智能的教育应用方面达成目标共识,则师生自身利益难以得到长期的有效保障。

  其三,缺乏制度约束。当前,用于约束教育人工智能开发与应用的制度体系尚未健全,教育用户的合法权益难以得到有效保障。而且,专业制度约束体系的缺位、失位及错位成为导致教育人工智能不道德行为出现的重要因素。若缺乏有效的技术标准与“强制性”法律手段加以规约,教育人工智能的设计开发与实践应用可能会逐渐偏离教育价值与人文立场。应对违反教育人工智能伦理规范的行为与举措实施问责与制裁,以便合理规约人工智能开发人员、教育用户等人的行为。

  其四,过度资源依赖。当前,机器学习和算法推荐虽然可实现教学资源的个性化推送,但这种看似公平合理的人工智能应用,隐含着不为人知的算法歧视与技术偏向,可能导致学生所获取的教学资源高度同质化,学生逐渐形成资源依赖,不愿跳脱僵化思维,进而影响了学生视野的开阔及创新发展。而且,教师也可能为节省自身时间及工作成本,过度依赖人工智能推送的教学资源,丧失自身对于教育教学的独特理解及思考。

  理清相关伦理风险的消解路径,有利于促使教育能够合乎道德地利用人工智能机遇,并实现公平和道德的教育决策。

  第一,注重智能时代师生信息素养培育。首先,需注重师生信息分辨力培育。学校应引导师生对于信息资源获取及筛选、信息伦理风险等问题的理解与思考,增强师生信息分辨能力。其次,关注师生信息反馈力培育。学校应引导师生合理反馈人工智能的信息安全、伦理、舒适感问题,并构建畅通的信息反馈渠道,以便持续改善人工智能的教育应用成效。

  第二,完善教育人工智能算法审查及决议机制。首先,应注重构建人工智能算法的审查机制。人工智能算法的运行偏差有可能持续存在,甚至会被放大。应制定有关人工智能算法培训和测试的基本规范与安全协议,对人工智能算法模型的前提假设进行教育本质层面的剖析,尤其应审查教育人工智能算法系统是否包含算法歧视与滥用问题,以便能最大限度保障用户数据及信息的精确性、隐私安全以及伦理规范。其次,需明确人工智能教育应用方案的决议机制。政府、学校、企业等均需秉承集思广益的决策原则,鼓励不同意见的提出与开放讨论,思考通过某种形式的投票与评价来决定教育人工智能应用的最优决定,致力于实现教育公共利益诉求的合理满足。

  第三,加强人工智能及数据的法规监管。当前教育人工智能发展暴露出众多技术及数据失范问题,因此,要完善智能技术及教育数据风险问责机制,实现智能技术及数据的规范监管。首先,可