设为首页收藏本站

大数据论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 209|回复: 0

和鸿鹏:人工智能带来的伦理与社会挑战

[复制链接]
发表于 2018-10-11 16:49:44 | 显示全部楼层 |阅读模式
人工智能(Artificial Intelligence,简称AI)起源于人类的幻想,1651年英国学者霍布斯(Hobbes)在《利维坦》一书中指出可以制造一种“人工动物”,正因如此,历史学家戴森(Dyson)称霍布斯为人工智能的先驱。早期的人工智能只能基于预先设定的程序完成一些需要进行大量计算的具体任务,如下象棋、拼接图案、进行图片分类、回答简单问题等。当前借助深度学习等最新技术,一些人工智能设备实现了全自动化,能够自主推理解决现实生活中的问题,如语言翻译、自动交易、人脸识别、无人驾驶等。人工智能技术的开发和应用将深刻改变人类的生活,不可避免会冲击现有的伦理与社会秩序,带来一些伦理与社会问题。
人工智能的发展会带来一定的失业担忧
在许多领域,人工智能有望在一些特定类型的工作中取代人类,如流水线生产、汽车驾驶等。早在20世纪80年代,人工智能发展和应用尚未成熟之时,就已有学者对人工智能可能引发的就业问题进行了讨论。诺贝尔经济学奖得主列昂季耶夫(Leontief) 曾预测未来三四十年将有大量工人被人工智能取代,从而形成巨大的就业与转业问题,就像上世纪大量马匹被机械取代一样,只不过这些后果将发生在人的身上罢了,除非政府能够对新技术带来的红利进行再分配。然而,多数人对人工智能发展的经济影响持乐观态度,认为人工智能在取代现有工作岗位的同时,还会创造出很多新的就业机会,就像机器大工业出现后,大量农民转变为工人那样。
从长远来看,人工智能将是推动社会生产力前进的强大动力,能够创造出大量的新的社会财富,使人类拥有更多的可自由支配的时间。但是,人们对人工智能引发失业问题的担忧并非只是杞人忧天,至少这种担忧隐含着一个深层次的问题,即如何让每个人都能够从人工智能所创造的财富中获得收益,而不是一部分人获得财富与自由,另一部分人却失去工作,陷入生活相对贫困之中。
人工智能的发展可能会侵犯人的隐私
人工智能的发展离不开大量数据的积累,通过大量数据训练算法,可使人工智能具备更加显著的问题解决能力,但这也使个人的隐私受到了威胁。大数据并非只是针对数据规模而言的,它通常具有3V性质,即海量(volume)、多样(variety)和实时(velocity)。在大数据技术和设备的支持下,个人的很多重要信息,如健康信息、位置信息和网络痕迹等,都可以被实时地采集和保存。应用数据挖掘技术,数据掌控者可以基于不完全的、模糊的碎片数据很方便地提取出一些有用的个人信息。这样,个人便失去了对自身隐私的控制,一些隐私甚至处于随时被窥探的状态。例如,谷歌旗下的一家位于伦敦的公司近期已获取了三家医院近160万病人的医疗数据,其中就涉及到非常敏感的个人健康信息。
现有的商业模式高度依赖对消费者数据的分析,因此消费者通过让渡隐私权获取相应收益的行为会受到多方鼓励。随着人工智能技术的发展,这些主动提供的个人信息,与不经意间暴露的个人信息以及被非法窃取的个人信息一道,都有可能被应用于牟利。因此,如何在人工智能的发展过程中加强对个人数据的管控和对个人隐私的保护,已成为必须予以关注的问题。
人工智能可能隐含着各种算法偏见
人工智能的算法虽说只是一种数学表达,看似与价值无涉,但实际上却不可避免地存在着主观偏见。这种偏见的来源是多方面的,既有可能来自于训练系统的数据输入,又有可能来自于编程人员的价值观嵌入。当算法使用过去的数据来预测未来时,那么计算结果便会受到所输入的数据和所设定的模型的影响。如果偏见已存在于算法之中,经深度学习后,这种偏见还有可能在算法中得到进一步加强,形成一个“自我实现的歧视性反馈循环”。例如,一位哈佛大学的非裔美籍博士生发现,她使用谷歌进行搜索时计算机屏幕上会出现“你是否有被捕记录”的广告,而白人同学进行同样的搜索时并不会出现这一广告。其原因在于谷歌在设定算法时将黑人常用名与“你是否有被捕记录”的广告联系在一起了。这说明机器处理各类数据的算法中,很可能隐含着某种偏见。
与人类决策相比,基于人工智能的决策有望极大地减少重要决策中的偏见。但我们也应注意到,人的偏见是个体化的、局部性的,而人工智能算法的偏见则是系统的,一旦形成将会产生广泛的影响。因此,有必要尽最大努力将那些违反社会共识与法律规范的偏见,从人工智能的算法中清除出去。
人工智能的应用可能会对人身、财产安全构成威胁
人工智能机器对任务的解读可能会出现偏差,这将导致人工智能机器根据错误的理解,以错误地方式来完成任务,如我们将人工智能机器的任务设定为让我们微笑,其可能以麻痹人类面部肌肉的方式来实现。当人工智能机器把在特定环境中学习到的行动策略应用到新的环境,可能会带来负面后果,如清洁机器人将在工厂环境中学习到的粗放工作方式应用到家庭环境,可能会破坏物品。
人工智能技术可能被用于开发武器,借助人脸识别、自动控制等技术开发的人工智能武器,可以实现全自动攻击目标。如果赋予人工智能武器自行选择并杀害人类的能力,将给我们的人身安全与自由构成极大威胁。除此之外,人工智能还有许多其他值得探讨的安全问题。这些问题都应在技术产品商业化之前,予以妥善解决。
人工智能的发展可能会引发机器权利争论
未来的人工智能机器可能具备人类的思维和情感能力,并深入参与社会生活。这时,我们必须考虑是否以及如何保护人工智能机器的道德地位和法律权利。
在家庭领域,若人类与人工智能机器人建立了情感联系,我们可能需要以人道方式对待它们。陪伴型机器人不仅具备人的外貌特征,也可以对人类的情感进行识别与回应。在外貌方面,机器人与人类的相似程度一旦超过一定界限,人与机器之间可能产生移情作用。在情感方面,软银公司开发的机器人已可以通过面部表情和语调来判断人类情感,实现了机器与人的情感互动。
在商业领域,人工智能创作引发了知识产权问题的广泛讨论。20世纪50年代,美国就曾出现“机器创作”的法律属性争论,然而最终美国版权局明确规定其保护范围仅限于人的创作。人工智能发展将使机器人具备了更强的创作能力,如何界定这些知识产品的法律归属是一个亟待解决的问题。例如,谷歌机器人可以作画,机器人“薇薇”可以创作诗歌。在这方面,日本政府计划给机器人的创作权予以保护,并拟修订《著作权法》。
人工智能有可能会获得完全的道德自主性
未来,随着人工智能道德自主性的提升,人工智能将从完全由人做出道德判断到获得完全的道德自主性。如何赋予人工智能道德判断能力,是开发人工智能技术面临的一个现实问题。道德是人类社会中特有的现象,因此,将人类的道德规范写入人工智能程序是解决这一问题的最直接方式。这时,人工智能程序作为人类的道德代理来完成任务,其道德行为在人类的可控范围之内。
如果技术进一步发展,人工智能可能具备完全的道德自主性。美国达特茅斯学院的摩尔(Moor)教授认为达到这一状态的标准是人工智能程序具备成年人的平均道德水平。在这一阶段,人工智能将自主制定行动策略、自主做出道德选择,其行为将不受人类控制。这将给现有的社会秩序与伦理规范带来强烈冲击。为了避免出现这一局面,需将人工智能的道德自主性限定在合理范围,使其行为可被人类预期。
人工智能社会问题的规范
人工智能应用可能带来的各种伦理与社会问题已经受到广泛关注。近年来,世界各国和相关国际组织已开始致力于推动人工智能伦理与社会问题的研究,积极建立规范与指南。
第一,评估道德风险。2016年9 月,英国标准协会(BSI)发布《机器人和机器系统的伦理设计和应用指南》,旨在帮助机器人制造商在设计阶段评估产品的道德风险,包括机器人欺诈、机器人与人的情感联系、种族及性别歧视等。
第二,明确人类优先。2016年12月,电气和电子工程师协会( IEEE)发布《以伦理为基准的设计指南》,鼓励科研人员将伦理问题置于人工智能设计和研发的优先位置,强调人工智能应当符合人类价值观,服务于人类社会。
第三,建立共识网络。2017年1月,来自全球的人工智能领域专家在Beneficial AI会议上联合签署了“阿西洛马人工智能原则”,明确了安全性、利益共享等23条原则,并呼吁人工智能领域的工作者遵守这些原则,共同保障人类未来的利益和安全。
在社会各界的努力下,我们有理由对人工智能的发展保持乐观的态度。纵观技术发展历史,人类一边创造新的技术,一边又适应这种技术。核能、克隆等技术的发展过程都伴随着各种担忧,随着人们就伦理问题达成共识,技术发展得到有效的监管。解决人工智能的伦理与社会问题,要求相关部门采取必要的监管措施,对新出现的诸如就业、隐私等问题有更好的把握,削弱人工智能的不利影响,努力实现人工智能与人类之间的和谐共生。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|大数据论坛 ( 京ICP备10002193号-4 京公海网安备110108001289号  

GMT+8, 2018-12-17 07:04 , Processed in 0.274461 second(s), 26 queries , Gzip On.

Powered by Discuz! X3.1

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表