AI中国网 https: //www.cnaiplus.com
[据《信号》杂志2019年3月4日报道] 人工智能的自主武器仍然是一个需要长期关注的问题。美国国防先期研究计划局(DARPA)官员将在3月6~7日在弗吉尼亚州亚历山大市举办的人工智能(AI)学术论坛上针对伦理与法律问题开展小组讨论,主要涉及伦理、偏见、隐私等问题。
据DARPA信息创新办公室副主任John Everett透露,“我们正在研究人工智能技术的伦理、法律和社会影响,特别是当它们在某种程度上变得强大和民主化时”。
关于人工智能的伦理和法律影响的问题比比皆是,例如,自动驾驶汽车越过行人时应由谁负责,或者。军用武器系统是否应该有“人在回路”来控制无人系统以防战场错误。随着人工智能变得更加普遍,这些问题变得更加尖锐。“20世纪的许多技术并没有被人们广泛使用,以后不会这样了,现在可以让高中生就可以编辑基因”Everett指出,“人们可以通过笔记本电脑、互联网连接亦或是云计算来接触人工智能。因此,我们需要考虑这些技术的广泛影响。“
他补充说,对军队来说,自主武器是“持续关注的问题”。“实际上还有其他问题可能会变得越来越重要。如果看到一个自主坦克在平原上开向营地,在某种意义上,它由人还是计算机驱动的重要吗?它的确是自主的,要么由一台计算机运行、要么由一台生物计算机——人来运行。”
国防部的政策要求在任何致命行动中必须有人在回路中,但俄罗斯等对手正在探索完全自主的武器系统,这种系统可能比人类操作系统更快、更致命。“这就导致了一个伦理问题,即兵力保护。我们如何确保我们保护我们的兵力,特别是如果对手可能不关心附带损害?他们对自主系统的态度更为激进,因此我们需要了解是否有可能提供足够的兵力保护”埃弗雷特说。
另一个问题是由人类构建和编程的系统将表现出人类的偏见。“在他们由许多不同的机器学习系统组成的系统中会出现更微妙的伦理问题,结果虽然并不是灾难性的错误,但它们是有偏见的,而且它们地在系统性地偏见,”埃弗雷特提出,“他们的偏见使他们对一群人产生了微妙的影响。”如果我们不了解测试偏见的方法,检测、证明它的存在,并予以纠正,可能会产生巨大的社会影响。
DARPA国防科学办公室主任Valerie Browning说,隐私也是一个需要考虑的问题。“随着人工智能变得越来越流行,人工智能工具被用于诊断或以任何特定的方式提出建议。它可能都是完全善意的,但有一个问题是你把某些关于你自己的信息放到了[其他人]非常容易访问的地方”她指出。
此外,恶意黑客可以使用支持人工智能的假体和植入式医疗设备。前副总统Dick Cheney在2013年透露,他的心脏植入物的无线功能必须被禁用,因为恐惧恐怖分子可能会入侵它。“我们有大脑控制的假体。人工智能将在培训这些系统方面发挥越来越大的作用,“布朗宁解释道,“人工智能中可能存在漏洞、攻击面。我们必须关心网络安全问题。”
在人工智能学术论坛期间,DARPA研究人员和项目经理将讨论推进人工智能基础知识的工作,以及那些正在探索该技术应用于国防相关挑战的计划,从网络防御和软件工程到航空和频谱管理。此次活动还将介绍DARPA人工智能探索计划的最新情况,该计划涉及一系列高风险、高回报的项目,旨在确定合同授出后18个月内新的人工智能概念的可行性,以及为与会者提供参与DARPA人工智能项目交流机会。 (工业和信息化部电子第一研究所 李婕敏)
AI中国网 https: //www.cnaiplus.com
本文网址: