来源:2017-02-14 14:54:00 热度:

人工智能来了 法律是否该未雨绸缪

AI中国网 https: //www.cnaiplus.com

人工智能、自主系统的出现,不但挑战了人类对自然的认识,也挑战了人类对自己的认识,其中就包括各种不可想象变为现实后的法律风险。人工智能离我们的生活有多远?人工智能时代,我们将面临哪些风险?又该如何防范?围绕这些话题,记者与业内研究人士展开了对话。

对话人:腾讯研究院研究员 曹建峰 《法制日报》记者 张昊

人工智能是什么

记者:对于人工智能,很多人的了解还停留在科幻电影、阿尔法狗。从概念上说,人工智能是一种怎样的存在?

曹建峰:通俗地理解,人工智能就是机器能完成人类需要智力才能完成的任务。

以往,我们认为地球上只有人类才有智能,人类的智能包括理性思维、语言能力、逻辑推理和情感,可以解决问题,有自己的目标,可以执行行动。当然,“智能”这个词的边界尚有很多争议,也在不断变化。目前对“人工智能”(AI)和“自主系统”(AS)中的人工智能概念在科学界还没有达成一个共识。

美国“人工智能教科书”以人类为参考,对人工智能有一个通常的定义,即像人一样思考,像人一样行动,理性思考和理性行动。对人工智能还有一些其他的定义,例如能自己设立目标,然后制定一系列的计划执行出来。

人工智能内在的技术或核心用到了一些深度算法,例如神经网络算法,模拟人的大脑结构,从而模拟人类思维、决策的过程。还有深度学习、基因算法、进化论等,深度算法技术支持着机器人进行某种决策。

人工智能和以往的计算机程序的区别,就是它具有自主性,只需要给它一些最原始的数据,它自己可以推出一个结论,做出自己的决策和判断,它有学习的能力,这就是自主性。

记者:我们接触比较早也比较多的人工智能,应该算是聊天机器人软件。它会通过所有用户的使用过程进行语言学习,“进化”自己,逐渐进行更丰富的对话。当然,聊天机器人软件也会学到脏话,用户在对话中告诉它“你说的是脏话”,它还会纠正自己。除了这种聊天机器人软件,目前的日常生活里,我们还会遇到哪些人工智能应用?

曹建峰:国外大软件公司都在推出自己的聊天机器人,目前这种应用还是比较初步的。此外,例如自动驾驶汽车或辅助驾驶,驾驶员不需要按着方向盘,可以自主完成停车、变道、转弯。人工智能应用还有酒店服务机器人、救援机器人,个性化推荐等。

法律风险有哪些

记者:在影视剧中,我们会看到很多探讨人工智能与人类伦理法律的问题。随着人工智能技术的发展,我们在现实生活里是否也会遇到这些问题?

曹建峰:AI系统应用日益广泛,进入了社会生活的很多方面。首先是安全问题,从法律角度看,就可以转化为责任问题。例如无人驾驶会不会对我们的财产、人身安全造成伤害?司机坐在上面不需要自己开车,更像是一个乘客的角色。如果无人驾驶车辆出现故障,导致司机致人损害,司机是否能够获得赔偿?在混合驾驶模式下,司机和车需要配合,发生了车祸,厂商是否需要担责?司机和厂商的责任分配问题目前还比较模糊。

再比如,如何保证人工智能遵守社会规范和社会价值,它面对风险的时候怎么像人一样决策。例如救援机器人,在老者和弱者之间怎么选择,先救谁后救谁,这些都需要提前考虑。

还有隐私的问题。人工智能发展迅速,它做出决策需要大量的个人数据存在人工智能系统中。人工智能系统对我们进行“画像”,形成一个“感官的印象”。我们自己可能都无法知道我们被这些软件或系统进行了画像,更无从知晓这些画像是否真实。或者说,系统给我们打一些标签,我们可能不知道它给我们打的是什么样的标签,这些标签是不是错误或者有一些问题,这些标签转移到其他场合的时候,会对我们的权利产生影响,比如可能影响我们申请贷款、找工作等。我们自己意识不到这个问题,因为它使用的信息是不公开不透明的。

记者:也就是说,人工智能系统搜集的可能是片面的信息,在将来会对人的权利产生影响。

曹建峰:人工智能系统收集什么信息、这个信息做怎样的决策,我们自己是无法控制的,更多时候也是不知情的。

比如,国外一些公司在招聘时会用AI对应聘者进行人格测试,如果系统认为应聘者未来会患上某种疾病或怀孕,可能会造成应聘者被拒,会违反禁止歧视的法律规定。

还有一个问题是算法歧视,这是一个比较迫切的问题。以前有很多工作都是人来完成的,现在被人工智能系统代替,例如个性化推荐。

AI中国网 https: //www.cnaiplus.com

本文网址:

欢迎关注微信公众号:人工智能报;合作及投稿请联系:editor@cnaiplus.com

AI中国号...

关注微信公众号,了解最新精彩内容