来源:腾讯研究院2020-09-25 18:00:00 热度:

“深度合成”技术应用呼唤包容审慎、分类监管

AI中国网 https://www.cnaiplus.com

原标题:“深度合成”技术应用呼唤包容审慎、分类监管

作者

张钦坤腾讯研究院秘书长

2017年11月,“深度合成”(deep synthesis)首次走进大众视野。在过去两年多的争议中,该技术逐渐趋于成熟,并在2020年迎来了商业化应用元年。

就目前而言, “深度合成”主要包括人脸替换、人脸再现、语音合成、人脸合成等形式,并朝着“数字人”方向发展。“数字人”综合运用计算机视觉、视频合成、语音合成、自然语言处理等各种AI技术和分发, 目前已成为AI领域的新风口

能造福社会也潜藏风险

经过几年的发展, “深度合成”已经发展出了更多元化的应用,驶入商业化发展的快车道。在影视、娱乐、社交、艺术、医疗、科研、教育、电商、虚拟现实等越来越多的领域都有“深度合成”的应用。例如,已故演员的数字化“复活”、电影自动配音、虚拟模特、数字试穿、AI虚拟歌手等。

此外, “深度合成”在医疗等领域的应用也能发挥出“科技向善”的力量。例如,让失声患者“重获自己的声音”、为训练AI医疗系统合成不存在隐私保护问题的逼真数据。未来,随着“深度合成”的发展,行业可以更好地结合现有的商业模式和服务模式,利用“深度合成”来提升服务体验。

虽然“深度合成”不仅可以降低创作门槛,激发新形式的创造,而且能以多种方式造福社会,但其可能带来的新的风险挑战——诸如色情报复、商业诋毁、假冒身份、个人信息非法获取等——也需要重视。对此, 许多国家都在积极探索相关立法,且普遍采取了较为包容审慎的立法,没有“一刀切”地禁止该技术的应用,从而避免阻碍“深度合成”技术的正向应用与创新。

相关规定体现包容审慎原则

在行业层面,腾讯研究院发布的报告《AI生成内容发展报告2020——“深度合成”商业化元年》梳理了美国等西方国家规范行业发展的五点措施:

第一,要求深度合成和人工智能技术的使用不得误导大众。例如,当AI机器人以商业或政治目的与人交流或互动时,必须披露其人工智能身份。

第二,为深度合成的应用划定红线。不能将深度合成技术应用于政治干扰、淫秽色情、假冒身份等非法行为和活动。

第三,要求深度合成的内容制作者承担披露的义务。采取嵌入数字水印、文字、语音标识等方式披露、标记合成信息后,才可将深度合成内容放置于网络上传播。

第五,从隐私和个人信息保护的角度规范深度合成技术,要求遵守相关要求。例如,欧盟的通用数据保护条例(GDPR)将可以适用于那些可能被用于制作深度合成内容的公民图片和声音,或是网络平台发布的换脸软件产品中潜在的个人隐私泄露问题。

就我国而言,在过去一两年中,也在积极回应深度合成技术带来的问题。2019年11月,由网信办、文旅部、广电总局出台的《网络音视频信息服务管理规定》明确要求开展安全评估,对于非真实的音视频信息进行标识,禁止基于深度学习的虚假新闻信息,同时要求平台部署鉴别技术,建立辟谣机制。同年12月,网信办发布的《网络信息内容生态治理规定》也明确规定,禁止利用深度学习技术从事法律、行政法规禁止的活动。特别值得一提的是, 5月通过的民法典在人格权编也规定,禁止利用信息技术手段伪造等方式侵害他人的肖像权和声音。这也意味着 未来在“数字人”、语音合成等相关应用上,使用明星的肖像和声音需要先获得授权。

资料图

这些规定能够有效防范深度合成技术的滥用风险,并给受害人提供必要的救济。应该说体现了包容审慎的原则,与今年政府工作报告提出的思路相吻合,有助于引导和促进新兴技术和产业健康发展。

需构建多层次的治理体系

在全球化的今天,我们面临人工智能、区块链等新技术所带来的通用型问题,需要构建一个良好的治理框架,为新技术全球治理贡献中国智慧。而深度合成是一种能够给个人和社会带来多方面福祉的人工智能应用,为了促进其妥善应用和向上向善发展,我们需要构建多层次的治理体系。笔者认为,可以从四个维度着眼:

第一个维度——法律方面,立法和监管应该是鼓励创新、包容审慎的,避免“一刀切”的管理模式,应该采取细分场景、细分类型来进行分类监管,避免矫枉过正,挫伤技术发展应用,扼杀技术的潜在社会福祉。在这方面,“完善对新业态的包容审慎监管”已被上升到优化营商环境的高度,应当在对人工智能等新技术的治理上得到坚持。

第三个维度——行业自律方面,可以通过行业公约的制定,标准的制定,以及伦理指南的制定来营造比较好的行业发展氛围。同时,科技公司也可以探索一种自发的伦理审查机制。比如,成立伦理审查委员会,对深度合成以及其他人工智能技术应用所可能带来的新的社会伦理风险进行把控。

第四个维度——公众教育方面,就新技术治理而言,公众教育是必不可少的一环,需要加强社会公众的数字素养和媒体素养教育,提高网络用户的信息分辨能力和警惕防范意识。当然,对于人工智能技术人员和从业者,也需要加强科技伦理教育,使其更加注重人工智能产品的社会伦理影响并采取防范措施,能够更加主动、自觉防范深度合成等人工智能技术可能带来的负面问题发生。

AI中国网 https://www.cnaiplus.com

本文网址:

欢迎关注微信公众号:人工智能报;合作及投稿请联系:editor@cnaiplus.com

AI中国号...

关注微信公众号,了解最新精彩内容