苏云鹏:人工智能产品应用中的社会风险挑战思考-亚洲精品一区二区精华液,亚洲精品国产一区二区精华液,一区二区三区国产精华液区别
微信
En/登录|注册
En/登录|注册
没有账号?去注册>>
姓名:
账号:
密码:
公司:
职务:
已有账号?去注册>>


热点文章推荐

强国研究院推出企业高管和合伙人高级管理培训沙龙

8月23日下午,北京强国知识产权研究院在中关村知识产权大厦,举办了别开生面的“强国知识产权...[详细]

以评估认证助推知识产权保护

知识有价值,产权有边界。此前,电视剧《锦绣未央》疑似抄袭等事件,将IP剧的知识产权保护纠葛...[详细]

苏云鹏:人工智能产品应用中的社会风险挑战思考

作者:admin    时间:2018-12-21

 

篇者:人工智能已经进入了人们的工作和生活,对现有规则甚至逻辑都将产生巨大影响,苏云鹏先生以一个亲历者的身份提出了人工智能产品安全问题、数据问题、算法偏见,人工智能带来大量失业,带来的伦理问题,带来的法律主体及责任问题,并为如何管理、推广和规范人工智能的发展提出了建议。特推荐如下。

社会风险治理高层论坛专家观点


苏云鹏∣人工智能产品应用中的社会风险挑战思考


微信图片_20181221105606.jpg

苏云鹏,清华同方股份有限公司总裁助理兼法务部总经理。

一、人工智能产品应用中的社会风险挑战

(一)人工智能产品应用中的社会安全挑战

1. 人工智能的发展会带来一定的失业担忧

        在许多领域,人工智能有望在一些特定类型的工作中取代人类,如流水线生产、汽车驾驶等。早在20世纪80年代,人工智能发展和应用尚未成熟之时,就已有学者对人工智能可能引发的就业问题进行了讨论。诺贝尔经济学奖得主列昂季耶夫(Leontief) 曾预测未来三四十年将有大量工人被人工智能取代,从而形成巨大的就业与转业问题,就像上世纪大量马匹被机械取代一样,只不过这些后果将发生在人的身上罢了,除非政府能够对新技术带来的红利进行再分配。然而,多数人对人工智能发展的经济影响持乐观态度,认为人工智能在取代现有工作岗位的同时,还会创造出很多新的就业机会,就像机器大工业出现后,大量农民转变为工人那样。

        人工智能时代毫无疑问将会有很多的职业和岗位被机器人所取代。数据显示,人类60%的职业,30%的工作将会被人工智能取代。据牛津大学的统计,未来人工智能的发展会取代1000万人的工作岗位。我们所熟悉的秘书、客服、助理、翻译、律师、医生、会计,乃至于证券所的交易员、信贷员的工作都可能被取代。

         一般来说,被取代的工作和岗位具备以下四个特征:工作是可重复的,可以描述的,有固定规则和标准答案的。

        从长远来看,人工智能将是推动社会生产力前进的强大动力,能够创造出大量的新的社会财富,使人类拥有更多的可自由支配的时间。但是,人们对人工智能引发失业问题的担忧并非只是杞人忧天,至少这种担忧隐含着一个深层次的问题,即如何让每个人都能够从人工智能所创造的财富中获得收益,而不是一部分人获得财富与自由,另一部分人却失去工作,陷入生活相对贫困之中。

 

2. 人工智能技术或管理缺陷导致的安全问题

        作为一项发展中的新兴技术,人工智能系统当前还不够成熟。某些技术缺陷导致工作异常,会使人工智能系统出现安全隐患,比如深度学习采用的黑箱模式会使模型可解释性不强,机器人、无人智能系统的设计、生产不当会导致运行异常等。另外,如果安全防护技术或措施不完善,无人驾驶汽车、机器人和其他人工智能装置可能受到非法入侵和控制,这些人工智能系统就有可能按照犯罪分子的指令,做出对人类有害的事情。

        高技术同样也存在高风险,今年初联合国举行了关于特殊武器的研讨会,可以见到工业机器人、扫地机器人等等,科技专家还向我们展示了杀手机器人。这种机器人安装了微形的广角摄像镜头,同时有一个高灵敏度的传感器和高容量的炸药,可以飞行在我们这样的会场,准确地瞄准目标,成功实施杀伤性攻击。这种发明不仅不能授予专利,还要给予禁止。

 

3. 未来的超级智能引发的安全担忧

        远期的人工智能安全风险是指,假设人工智能发展到超级智能阶段,这时机器人或其他人工智能系统能够自我演化,并可能发展出类人的自我意识,从而对人类的主导性甚至存续造成威胁。比尔•盖茨、斯蒂芬•霍金、埃隆•马斯克、雷•库兹韦尔等人都在担忧,对人工智能技术不加约束的开发,会让机器获得超越人类智力水平的智能,并引发一些难以控制的安全隐患。一些研究团队正在研究高层次的认知智能,如机器情感和机器意识等。尽管人们还不清楚超级智能或“奇点”是否会到来,但如果在还没有完全做好应对措施之前出现技术突破,安全威胁就有可能爆发,人们应提前考虑到可能的风险。

 

(二)人工智能产品应用中的数据问题

1. 人工智能的发展可能会侵犯人的隐私

        人工智能的发展离不开大量数据的积累,通过大量数据训练算法,可使人工智能具备更加显著的问题解决能力,但这也使个人的隐私受到了威胁。大数据并非只是针对数据规模而言的,它通常具有3V性质,即海量(volume)、多样(variety)和实时(velocity)。在大数据技术和设备的支持下,个人的很多重要信息,如健康信息、位置信息和网络痕迹等,都可以被实时地采集和保存。应用数据挖掘技术,数据掌控者可以基于不完全的、模糊的碎片数据很方便地提取出一些有用的个人信息。这样,个人便失去了对自身隐私的控制,一些隐私甚至处于随时被窥探的状态。例如,谷歌旗下的一家位于伦敦的公司近期已获取了三家医院近160万病人的医疗数据,其中就涉及到非常敏感的个人健康信息。

        现有的商业模式高度依赖对消费者数据的分析,因此消费者通过让渡隐私权获取相应收益的行为会受到多方鼓励。随着人工智能技术的发展,这些主动提供的个人信息,与不经意间暴露的个人信息以及被非法窃取的个人信息一道,都有可能被应用于牟利。

        未来的人工智能时代是三者叠加:移动互联网+大数据+机器智能。在人工智能普及之后,人类社会将步入一个透明的、没有隐私的时代。一般而言,除国家公务人员按照特别法律的规定给予必要的公示之外,我们的生命与健康、财产与身份、行踪轨迹都应成为个人的隐私,受到法律的保护。

        在传统社会中,个人隐私被泄露,是一种个体的裸露。但是,在今天已成为集体的裸露,整个社会的裸露。今天的参会人从何处来?在这个会上做了什么?会后再干什么?在大数据背景下都会一览无遗。

        人类如何保护自身隐私?国际上的谷歌、苹果、脸书、阿里巴巴、腾讯、百度等等互联网巨头,拥有海量的用户信息,这些信息是否都被合法的收集和处理?我们这些信息的提供者是不是无动于衷?这都是需要我们考虑的问题。

        因此,如何在人工智能的发展过程中加强对个人数据的管控和对个人隐私的保护,已成为必须予以关注的问题。

 

2. 人工智能可能隐含着各种算法偏见

        人工智能的算法虽说只是一种数学表达,看似与价值无涉,但实际上却不可避免地存在着主观偏见。这种偏见的来源是多方面的,既有可能来自于训练系统的数据输入,又有可能来自于编程人员的价值观嵌入。当算法使用过去的数据来预测未来时,那么计算结果便会受到所输入的数据和所设定的模型的影响。如果偏见已存在于算法之中,经深度学习后,这种偏见还有可能在算法中得到进一步加强,形成一个“自我实现的歧视性反馈循环”。例如,一位哈佛大学的非裔美籍博士生发现,她使用谷歌进行搜索时计算机屏幕上会出现“你是否有被捕记录”的广告,而白人同学进行同样的搜索时并不会出现这一广告。其原因在于谷歌在设定算法时将黑人常用名与“你是否有被捕记录”的广告联系在一起了。这说明机器处理各类数据的算法中,很可能隐含着某种偏见。

        与人类决策相比,基于人工智能的决策有望极大地减少重要决策中的偏见。但我们也应注意到,人的偏见是个体化的、局部性的,而人工智能算法的偏见则是系统的,一旦形成将会产生广泛的影响。因此,有必要尽最大努力将那些违反社会共识与法律规范的偏见,从人工智能的算法中清除出去。

 

(三)人工智能产品应用中的伦理道德挑战

1. 人工智能的发展可能会引发对机器人的行为规制

        人工智能正在替代人的很多决策行为,智能机器人在做出决策时,同样需要遵从人类社会的各项规则。比如,假设无人驾驶汽车前方人行道上出现3个行人而无法及时刹车,智能系统是应该选择撞向这3个行人,还是转而撞向路边的1个行人?人工智能技术的应用,正在将一些生活中的伦理性问题在系统中规则化。如果在系统的研发设计中未与社会伦理约束相结合,就有可能在决策中遵循与人类不同的逻辑,从而导致严重后果。


2. 人工智能机器的权利争论

        未来的人工智能机器可能具备人类的思维和情感能力,并深入参与社会生活。这时,我们必须考虑是否以及如何保护人工智能机器的道德地位和法律权利。

        在家庭领域,若人类与人工智能机器人建立了情感联系,我们可能需要以人道方式对待它们。陪伴型机器人不仅具备人的外貌特征,也可以对人类的情感进行识别与回应。在外貌方面,机器人与人类的相似程度一旦超过一定界限,人与机器之间可能产生移情作用。在情感方面,软银公司开发的机器人已可以通过面部表情和语调来判断人类情感,实现了机器与人的情感互动。

        在商业领域,人工智能创作引发了知识产权问题的广泛讨论。20世纪50年代,美国就曾出现“机器创作”的法律属性争论,然而最终美国版权局明确规定其保护范围仅限于人的创作。人工智能发展将使机器人具备了更强的创作能力,如何界定这些知识产品的法律归属是一个亟待解决的问题。例如,谷歌机器人可以作画,机器人“薇薇”可以创作诗歌。在这方面,日本政府计划给机器人的创作权予以保护,并拟修订《著作权法》。

 

(四)人工智能产品应用中的法律挑战

1. 法律主体责任问题

        今年通过的《民法总则》有两项基本的制度,即主体制度——人与客体制度——物。在已有的法律认知当中,主体和客体有不可逾越的界限。现在所面临的问题是:机器人是机器还是人?

        机器人不是自然人的本身,但是为自然人所创造和设计,所以它能不能成为民事主体?现实已经作出了回答。2016年欧盟委员会的法律委员会提出建议,授予高水平的智能机器人以电子人的主体资格,进行身份登记,注册财产帐号,可以像人一样缴费、纳税、领取养老金。这就跟我们自然人拥有了同等的主体地位。

        今年,美国汉森研究的机器人索菲娅被沙特授予公民资格。一个拥有公民资格的索菲娅可以享有民事权利和义务,但是,它能不能拥有财产?能不能在沙特王国充当公务人员?这是现存理论所难以回答的问题。但是,赋予这种智能机器人以某种特别的民事主体资格在未来应该有可能成为现实。

 

2. 责任承担问题

        在人工智者能时代,有两种侵权行为值得我们关注:侵权人采取黑客攻击、病毒传输或其他的非法手段控制机器人对人类社会造成的危害所产生的侵权责任是归这个侵权人所承担的,这个应该不难理解。问题在于,人工智能直接对人实施侵害,这是值得我们考量的问题。在日本,曾经发生过工业机器人在生产过程中直接将工人放入冲压机碾死这样惨痛的事例;本世纪在美国手术机器人在治疗病人的过程当中造成创伤,死亡的病例高达87例。

        这种情况下,我们就要分清责任事故从何而起,是设计人设计的漏洞,还是操作人的不当使用,还是智能机器人违反了操作规程?这种事故的原因和追责都是值得考虑的新问题。

        不亚于法律问题,伦理问题是摆在我们面前的又一难题。科幻作家阿西莫夫提出了著名的“机器人三定律”,其中最重要是第零定律,即最具前提性的定律,内容如下:

机器人必须保护人类的整体利益不受伤害,在这样的大前提下第一、第二、第三定律得以适用。国家机关惩治严重社会犯罪而消灭自然人的行为,机器人不能采取任何救助行为,这是因为死刑犯的犯罪行为侵害了整个人类社会的安全秩序。这就体现了第零定律在四大定律当中的支配和领导地位。目前,该定律对处理人工智能有关问题还是具有指导意义的。

        在这里想分享的还有算法偏差和机器歧视问题。现在,我们在精准化、计算化的环境当中生活和生产、工作,虽然机器的工作速度、工作精度、工作态度都高于自然人,但机器也会出错,从而产生机器算法偏差的问题。比如谷歌推出的机器人误将黑人标注为“大猩猩”,再比如微软公司推出的一款聊天机器人,在上网16个小时就学会了说粗口、讲脏话和性别歧视,后来被匆匆下线。这些情况对于人类提出了新的要求:如何为机器人设置一个最低的道德标准和道德框架,这一点至关重要。

 

二、针对AI产品在应用中面临挑战的思考

1. 加强立法研究,深化人工智能法律法规,从立法层面对人工智能进行合理规制

        欧盟、日本等人工智能技术起步较早的地区和国家,已经意识到机器人和人工智能进入生活将给人类社会带来的安全与伦理问题,并已着手开展立法探索,如2016年5月,欧盟法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议》的报告草案,探讨如何从立法角度避免机器人对人类的伤害。有效应对未来风险挑战需强化立法研究,明确重点领域人工智能应用中的法律主体以及相关权利、义务和责任,建立和完善适应智能时代的法律法规体系。


2. 强化有关部门对人工智能技术及产品的监管,建全监管体系

        由于智能系统在使用过程中会不断进行自行学习和探索,很多潜在风险难以在研发阶段或认证环节完全排除,因此加强监管对于应对人工智能的安全、隐私和伦理等问题至关重要。建议在国家层面建立一套公开透明的人工智能监管体系,实现对人工智能算法设计、产品开发、数据采集和产品应用的全流程监管,加强对违规行为的惩戒,督促人工智能行业和企业自律。


3. 充分发挥行业自律的作用,提供行业安全标准

        可靠的人工智能系统应具有强健的安全性能,能够适应不同的工况条件,并能有效应对各类蓄意攻击,避免因异常操作和恶意而导致安全事故。这一方面需要提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性,比如完善芯片设计的安全标准等;另一方面要推行智能系统安全认证,对人工智能技术和产品进行严格测试,增强社会公众信任,保障人工智能产业健康发展。


4. 国际组织及协会评估道德风险,制定伦理准则

        2016年9月,英国标准协议(BSI)发布《机器人和机器系统的伦理设计和应用指南》,旨在帮助机器人制造商在设计阶段评估产品的道德风险,包括机器人欺诈、机器人与人的情感联系、种族及性别歧视等。

        2016年12月,电气和电子工程师协会(IEEE)发布《以伦理为基准的设计指南》,鼓励科研人员将伦理问题至于人工智能设计和研发的优先位置,强调人工智能应当符合人类价值观,服务于人类社会。


文章来源:强国院;
转载此文章须经权利人同意,并附上完整出处与作者信息;本站首发文章,文章不代表QGIP.NET立场,如若转载,请注明出处。
分享到
收藏
相关文章

电话:+8610-62531820

微信公众号:powernation 微博:IP强国

汇款信息:北京强国知识产权研究院,开户行:建设银行北京农大南路支行,账号:11001175800053001149

地址:北京市海淀区海淀南路甲21号A座103 邮编:100080