您当前的位置:首页> 科技 > 正文

“数据透镜”下的伦理反思

人工智能领域出现的各种颠覆性创新,使人们体验到了前所未有的便利与新鲜,同时也极大地加剧了人们对未来智能化世界的忧思。

人工智能(AI)近年来渐成科技创新领域的一个风口,一方面给人们的生活带来了越来越多的便利和新鲜体验,另一方面大数据杀熟、数据泄露、不良内容推荐等事件和现象层出不穷,使人们不得不反思智能算法的价值预设、伦理导向,追问AI在不当使用时的潜在风险,并探寻如何对其进行更具针对性的价值引导、伦理调节与风险规制。

机器人三定律

人们对AI价值、伦理等问题的关切始于对“机器人与人类关系”的想象。自雪莱夫人1818年发表的《弗兰肯斯坦》到恰佩克1921年出版的《罗素姆万能机器人》,前者呈现了科学怪人的恶劣形象,后者展现了机器人群体叛乱、灭绝人类的恐怖结果,这两部影响深远的科幻小说都体现了人们在畅想制造类人生命和智能时不无矛盾的心态:对其“创造物”可能出现的不健全与失控的担忧乃至惧怕,被称为“弗兰肯斯坦情结”。

1942年,阿西莫夫发表了短篇科幻小说《转圈圈》,其中借《机器人学手册》之名提出了著名的“机器人三大定律”,为摆脱“弗兰肯斯坦情结”提供了某种解决方案。

第一定律,机器人不得伤害人类或坐视人类受到伤害;第二定律,在与第一定律不相冲突的情况下,机器人必须服从人类的命令;第三定律,在不违背第一与第二定律的前提下,机器人有自我保护的义务。此后,他还提出了比第一定律更优先的第零定律,即机器人不得危害人类整体(人性)或坐视人类整体(人性)受到危害。如今,这些定律已成为人们思考与机器人、AI相关的社会、伦理和法律问题的思想原点。

值得一提的是,阿西莫夫提出的“机器人三大定律”并非纸面上的机器人行为法则和道德戒律,而是直接嵌入到机器人的控制软件或智能编码中的指令,可通过技术操作强制执行。在小说《转圈圈》中,三大定律是根深蒂固地嵌入到机器人大脑中的运行规则:执行每个定律时,都会在机器人大脑中自动产生相应的电位,执行第一定律所触发的电位最高;若不同定律之间发生冲突,根据不同电位相互消长的结果执行指令。概言之,可以通过内置的“机器伦理调节器”使机器人成为有道德的机器人。

今天看来,“机器人三大定律”的真正价值可能更多地在于理念上的突破,其颠覆了“人造人”、机器人此前一贯的负面形象,通过工程上的伦理设计调节机器人的行为,使其成为可堪教化的有道德的机器人。阿西莫夫的构想对于当前AI技术的重要启迪在于,为了使人所创造的智能机器人和人工智能有益人类和免于失控,应致力于从人类价值、利益、安全以及未来发展的角度对它们进行价值校准、伦理调节与风险规制,以此消除人们对其终极创造物的疑虑,并指明其未来发展可能与必要的突破方向。

“数据透镜”

从科幻回到现实,虽然人类至今尚未制造出阿西莫夫机器人小说中的智能机器人,但人工智能在几起几落之后找到了数据智能这一新的突破口。近年来,数据分析与认知计算等数据智能取得了出乎人们意料的迅猛发展,人们恍然大悟:数据就是存在,数据就是人,数据就是世界。当关于世界和人类活动的数据积累到一定程度后,巨量的和多维度的数据就逐渐积淀为反映人和世界真实面貌和过程的原始素材,进而成为认识与改变人和世界关系时可资利用的资源和线索。

从人类文明嬗变的维度看,数据智能远不止是科学方法上的创新,更意味着解析社会这一全新的文明形态的涌现。不论是内容推荐还是人脸识别,数据智能的社会应用实质上是对人的行为的解析,我们可以形象地将数据智能称为“数据透镜”。透镜在人类科学史乃至人类历史上是尤为关键的发明,借助透镜和三棱镜制作的望远镜、显微镜和各种分析仪器,自然界得以透视、分析和量化研究。现在,人们正在运用数据智能这一“数据透镜”透视人性,对人自身进行量化分析。随着数据智能的发展,用数据解析人将影响到人类社会生活的方方面面,从政府、企业、机构、社会、家庭到个人的认知和行为方式都必然受到相应的挑战和冲击,都必须对此作出回应和调整。

数据智能建立在数据的搜集、分析和认知的自动化之上,而这些过程实现自动化的关键是各种智能算法的运用,它们决定了各种广告和推荐系统给每个人所推荐的内容,也影响到每个人在各种人工智能平台上的数据画像和信用评分。数据智能使每个人不再只是作为群体中的个体而是作为单个的个体得到分析,商业貌似变得更加“智能”和便捷,营销似乎更为“精准”和更具“说服力”。

伦理设计

但不得不指出,如果整个社会逐渐被纳入到基于数据和算法的精细管理和智能监控之下,各种决策与举措越来越多地建立在智能算法之上,就必须关注和防范由算法的滥用所导致的决策失误和社会不公。由于智能算法在决策运用层面的影响具有突发性和高度不确定性等固有风险,不能想当然地迷信算法的科学性和客观性,而应对其展开必要的算法审计。

所谓算法审计,一方面要对算法的理论预设、内在机制与实践语境等进行全流程追问与核查,另一方面,从智能认知和算法决策的结果和影响中的不公正入手,反向核查其机制与过程有无故意或不自觉的曲解与误导,揭示其中存在的不准确、不包容和不公正,并促使其修正和改进。

借助算法审计,将提升算法决策过程中的透明度和公正性,使得智能系统的运行机制变得更好理解,更容易追究责任。

在当前的数据智能平台的发展实践中,对价值取向的追问与审度是算法审计的要点,其应对要点是引入伦理设计。伦理设计的主要功能是价值与伦理层面的矫正,涉及一系列有针对性与对抗性的设计,故可称之为争胜性伦理设计。

争胜性的伦理设计主要包括四个方面:

一是价值揭示,即通过对数据智能应用中所涉及的相关主体或群体的分析,揭示他们的价值诉求与利害关系。例如,在当前流行的网约车服务中,通过对司机、乘客和平台的利益分析和价值分析,可以揭示出在共享交通平台软件上附加社交媒体功能对各方的利害得失与价值冲突。

二是价值纠偏,即用更合理的价值观纠正和取代导致不合理、不公正后果的价值观。比如,在网约车服务中,应该纠正平台利用某些司机的人性弱点所设计的评分机制及其背后的不正当价值观,使平台回归安全及时送达乘客的应有价值取向。

三是伦理引导,即通过智能化的助推和劝导使人的行为更合乎伦理规范。例如,在保护个人隐私的情况下,可以运用交通大数据协助司机规范自己的出行行为。

四是伦理增强,即进一步通过借助数据智能提升自己的道德水准。例如,个人可运用可穿戴设备提供的个人数据改进自己在某些方面的行为。

面对人工智能当前发展态势下的伦理冲突和风险挑战,有两个方面的问题值得进一步反思。其一是数据权利与算法权力的再平衡,其二是走向人机共生时代的人机关系再平衡。

数据所有权关系再平衡

谈到数据权利,有必要提及欧盟最近颁布的《通用数据保护条例》(GDPR)。该条例明确指出其保护的主体是个人数据,而个人数据是指与一个已被识别或者可被识别的自然人相关的任何信息。

该条例对数据的获取权、修改权、被遗忘权、数据可携带权、异议权等数据主体的权利作出了明确界定。这些数据权利可以视为在价值和伦理层面对相关侵权行为的反制。但同时也要看到,这些权利并非无条件的绝对权利,都存在一定的限制。以对数据画像异议权为例,只有当对用户进行画像等决策对用户产生法律或其他重大影响时,用户才有权反对。

在数据智能得到普遍应用的解析社会,个人数据权利的重要性不言而喻。在解析社会中,不论我们主动与否,我们都是数据的贡献者,一切数据都被记录,一切行为都被分析。数据智能不断追踪着每个人的数据,实际上就是在追踪每个人的价值观,也可以说是通过分析数据定义人。不论我们喜欢与否,我们被追踪的行为数据都会以我们从未体验过的方式,传送到他人和机构那里;掌握我们数据的人和机构可能比我们自己更了解自己,甚至会巧妙地劝说和引导我们的言行。

由此,数据智能和解析社会的未来发展必将面临着数据所有权关系的再平衡:是延续当下流行的数据监控模式还是创造一个以信任为基本氛围的新的数据共享模式?如果延续监控模式而不对个人数据权利加以必要的保护,恐将导致信任的稀缺,最终不利于经济、社会等多领域的发展繁荣。如果致力于寻求以信任为基本氛围的新模式,将促使数据交易各方对自己的行为负责,让每个人知道自己的数据如何被处理,特别是用于其他用途的情形,让数据权利的主体原则上有权决定对其数据的处理与洞察,以此减少数据的滥用,杜绝对数据主体的严重伤害。同时,数据主体的数据权利意识的提升,也可以促使其通过追踪自己的数据反省自己的价值观,借助数据分析不断改进自我。然而“知易行难”,如何“创造”这一模式一时难有定论。

人机关系再平衡

另一方面,即便未必出现如未来学家库兹韦尔等人宣称的超级人工智能大爆发的奇点,人与机器的关系依然存在两种值得深思的未来情境。

第一种就是由机器人来掌控世界。它并非智能机器造反的结果,而是因为人们对机器产生了高度的依赖。随着时代的发展,人们需要面对的问题越来越复杂,由于知识的专业化和复杂化,人越来越多地依靠智能机器,以至于最终不得不把大多数决策权让渡给机器。其实,这一过程已经在进行之中,飞机在很多情况下都是由机器决定怎么开,自动驾驶也在向这个方向发展。但问题是,一旦等到机器本身真正出问题的时候,也不可能关闭这些机器,因为关闭机器就意味着自杀,就像现在,如果把网络关了,就意味着这个社会可能会瘫痪。

第二种未来情境,就是人类继续保持对机器的控制。但是在这种情况下,可能出现的一个问题是只有少数精英能够掌握智能机器的技术,普通人不仅不了解其中的奥秘,而且对整个系统来说会变得不是那么必要,甚至成为累赘,这就是所谓“无用阶层”的出现。

要克服这两种情境可能给人类文明带来的风险,须对人类在自动智能系统中的地位和作用加以认真审视,可考虑引入若干促进人机相互理解与协同的策略。

其一,将人与机器之间的相互理解作为自动智能系统的基础和前提,其中既包括理性层面的认知方式与知识表达层面的人机相互理解,还包括人与机器之间的共情关系和同理心的构建。

其二,一些重大决策和执行系统如果采用自动智能系统,应有多个备份和功能类似的替代性系统,以防范系统风险。

其三,构建人工智能应用特区,在有条件的科技创新中心的部分地区广泛、深入、充分地展开人机互动试验,探索面向未来人机共生社会的创新文化。

(作者:段伟文,系中国社科院哲学研究所、科学技术和社会研究中心研究员)

2018年6月27日出版的《环球》杂志 第13期

 来源:《环球》杂志  编辑:滚动新闻编辑组

  • 微笑
  • 流汗
  • 难过
  • 羡慕
  • 愤怒
  • 流泪
相关新闻
关键词: 透镜 伦理 数据
广告
广告
广告