人工智能教育中的伦理教育有两个侧面:一个是人工智能系统设计目标、技术路线、功能实现的伦理,价值取向是推动科技进步、促进社会发展、改善人民生活,一定不能违背社会大众福祉。

  主持人: 本报记者 黄蔚

  对话专家: 北京航空航天大学计算机学院教授 熊璋 副教授 王静远

  对话背景: 系统设计目标、技术路线、功能实现的伦理,价值取向是推动科技进步、促进社会发展、改善人民生活,一定不能违背社会大众福祉;另一个是使用人工智能系统时的伦理,简单说就是扬善避恶,做造福人类的事,而不能利用人工智能技术做危害社会、危害他人的行径。记者日前就人工智能和伦理教育的话题与北京航空航天大学计算机学院的熊璋、王静远两位教授进行了对话。

  要保证健康的人工智能教育,必须关注其中的伦理教育

  主持人: 使用机器代替人类的脑力劳动,是人类自计算机发明伊始就有的一个梦想。经过了几十年的努力,人工智能技术经历了几起几落,日渐成熟,已经开始辅助或代替人类一些脑力劳动,在一些具有确定目标的任务当中(如围棋、人脸识别等)人工智能甚至能够超越人类,表现出了更加优秀的性能。在人工智能教育中,我们要关注其中的科学道理、发展规律、对社会发展的影响,那人工智能教育中的伦理教育,我们应当放在什么样的位置呢?

  熊璋: 镰刀斧头、蒸汽机、电力、电话延伸和增强了人类四肢和五官,只有人工智能,是第一次延伸和增强了人类的脑力。人工智能技术相较于之前所有科技进步的最大不同之处,就是它能够将人类从部分脑力劳动中解放出来。随着人工智能技术的不断成熟和广泛应用,未来会有越来越多的判断和决策交由人工智能去完成,如身份确认、评判作业、阅读病案、筛选简历、投资决策等,这就意味着人工智能将深度参与人类社会的许多重要活动。

  我们不得不承认,人类在做判断和决策时,其依据一定包括社会公认准则和决策人的情感、态度、价值观,社会对人类决策者存在许多伦理道德规范和约束。在机器参与人类的判断和决策,扮演人工智能的角色时,让系统依据一套客观指标去判断是容易的,让系统从事决策性事务时,能够服从社会公认的准则和人类的价值观则是人工智能的一大挑战。

  王静远: 例如,一款合理的人工智能简历筛选软件,不应该因为性别、种族、肤色等因素作歧视性的简历甄别;一款用于智能医疗的软件,不能够为了获取不当利益而夸大或掩盖病情,甚至贻误治疗。公平、公正、无歧视、无欺骗等这些用来要求人类决策者行为的伦理与道德标准,也都需要在人工智能的自动决策当中切实体现。教育工作的一项重要任务就是帮助人们树立善良、正直、公平、公正等正确的价值道德标准。现在的人工智能技术水平,我们还不可能对人工智能程序进行道德教育,但是在我们开展人工智能教育时,绝不能忽视人工智能教育中的伦理教育。

  人工智能教育中的几个基本伦理教育要点

  主持人: 教育开发者在设计和开发人工智能工具时要充分考虑社会伦理的基本要求,除了要符合信息技术不危害伦理的基本原则,例如不制造计算机病毒、不开发基于人工智能的有害程序、不进行数据盗窃等,还有其他方面的考虑吗?

  熊璋: 我们还要充分考虑人工智能在社会活动中所扮演的新角色,考虑到这些角色的不当行为可能带来的伦理风险,不主动利用角色的特殊地位为个人牟利或是危害他人利益。

  例如,当开发人员为一个公司开发人力资源管理系统,在使用传统数据库、信息系统等技术时,道德规范的开发人员需要做到的是不能利用自己的技术优势在程序中预留后门、不能窜改和拷贝公司的内部数据、在程序设计时充分考虑信息安全因素等。在开发一个基于人工智能的人力资源管理系统时,开发人员则还需要考虑机器代替人去作恶的伦理道德风险。例如应该主动避免将种族、肤色、性别等因素作为特征输入到自动决策算法当中,不开发对员工个人隐私具有窥探性的算法功能等。

  进一步,人工智能伦理教育还要教使用者学会在合理的场景正确使用技术。技术通常是中性的,善恶只体现在技术的使用场景当中。例如基于人工智能的视频“换脸”技术,其发明的初衷是为了用于电影特效、艺术创作等,但也可能会被应用在不良宣传、伪造证据等不当场景当中。

  此外,还要避免人工智能被动伦理风险,这是指在人工智能担负重要工作职能时,可能会遭到环境变化、外来攻击等不确定因素的干扰,如果在重要岗位上所使用的人工智能技术不够可靠和稳健,在遭到外界攻击时就有可能产生一些不可预料的后果。如自动驾驶过程中,特殊的光照等场景可能导致算法对于明显的障碍物视而不见,对于“刷脸”支付应用中的图像识别算法,一些对抗样本可以完全混淆人工智能模型的输出,将账户开放给不应被授权的访客。这些都是关键岗位上人工智能可靠性不足所带来的风险问题。

  王静远: 要教育学生将来在使用一项人工智能技术代替人类工作时,主动了解技术的局限性、不确定性及风险后果。

  对于整个社会而言,无论是人工智能技术的开发者还是使用者,都需要进行必要的责任意识教育。人工智能工具的重要特性是辅助和代理人类去完成一定的脑力劳动。在机器代理人类去完成一定任务时,“代理风险”就会不可避免地产生。

  例如,在传统战争中,武器操作者需要亲临战场进行厮杀,因此对于杀戮的残酷性会有直观的认识。到了无人武器时代,武器操作者只需要在办公室里点击按钮就能够杀敌于千里之外,战争残酷性对操作者就降低到了电子游戏的水平。

  而到了人工智能时代,武器杀人有可能完全由算法来决定,人的生死就完全控制在了算法手中。在这个过程中如果再出现由于人工智能不可靠所带来的意外影响,所造成的后果甚至会给整个人类带来的巨大灾难。要想避免这样的悲剧发生,必要的技术管控手段固然必不可少,加强对于人工智能工具研发与使用者的责任意识教育也同样非常重要。

  管理部门在促进人工智能教育健康发展上的作为

  主持人: 人工智能是一个发展的科学、发展的技术,在它的发展过程中,除了对科学技术的推动,对社会发展的促进,人工智能与教育的融合还催生了伴随式评价、个性化指导、团队式作业,创新了教学环境、氛围和文化,会出现新的改变和新的冲击,我们的学校和管理部门应当有何作为呢?

  熊璋: 人工智能教育中的伦理教育有一个不断发展、不断完善的过程,维护这个过程的科学性、维护人工智能教育的健康发展任重道远。人工智能教育应该纳入义务教育、普通高中和大学的课程体系,保证学校作为人工智能教育的主渠道。教育管理部门要在普通高中和义务教育阶段的课程方案中明确人工智能课程是信息技术课程、信息科学课程的重要组成部分,明确培养目标、课程内容和学业质量标准,并不断适时更新,要严格保证学校用教材的科学性、严谨性和规范性,要及时培训学校的一线教师,让他们成为主力军。同时也要引导社会舆论和社会力量共同维护人工智能教育的健康发展。

中国教育信息订阅号二维码
中国教育信息微信服务号