AI中国网 https://www.cnaiplus.com
6月21日-24日,第二届北京智源大会正在以公开直播的方式进行。21日下午,在“AI科技女性专题论坛”上,多位专家讲述了人工智能界中存在的性别偏见问题,无论是在现实还是算法中。
在会上,美国伊利诺伊大学厄巴纳-香槟分校教授季姮的报告标题就体现了她的观点:“叫我带头人,而不是女性带头人”。她援引了一份以谷歌学术H-index指标(被引次数高于或等于h的论文的数量)为评判标准的报告,称人工智能界的女性带头人越来越少,尤其是年轻的女性带头人。此外,季姮发现,在一些人工智能大会中,很少有女性会担任大会主席。
季姮认为,女性在工作时要淡化自身的性别意识,不害怕这是否属于男性的工作,同时要更加的自信,避免出现“冒名顶替症候群”(Imposter Syndrome)的心理问题,即认为自己的成功仅仅是因为幸运而不是自身的努力和天分。
现实中的性别偏见情况也反映到了人工智能算法中。复旦大学计算机学院教授黄萱菁就讲述了自然语言算法中的性别刻板印象。2016年,波士顿大学的托尔加·博卢巴斯(Tolga Bolukbasi)和微软研究员发现,谷歌在2013年推出的可用于机器翻译和智能搜索的工具包word2vec出现了性别歧视问题,当在数据库中输入:“父亲:医生:: 母亲:X”时,该工具会告诉你X等于护士。当输入:“男人:程序员:: 女人:X”时,它会说X等于家庭主妇。
“(这)表现出了非常强烈的令人不安的性别刻板印象,”黄萱菁说,在上述语料库中,男性和女性的差异就相当于程序员和家庭主妇的差异。此外,诸如“美丽”“舞蹈”等词汇也偏向于与女性相关,“杰出的”“天才”等词汇则更多和男性相关。黄萱菁认为,这些词语的属性本应该是性别中立的。
为什么会出现这种情况?黄萱菁解释道,从社会学角度看,目前在人工智能相关的从业人员中,男性的占比要远远大于女性。这意味着,女性在人工智能系统的研究设计和开发过程中拥有较少的话语权;从算法角度看,如果算法设计者自身就有性别刻板印象,那么也将作出有性别倾向性的判断,比如以性别为判断依据,将某些特性、功能与性别联系在一起。
此外,自然语言处理中的性别刻板印象还出现在文本生成、人机对话、推荐系统等应用中。黄萱菁举例说,应用在人机对话的客服机器人绝大多数是女性形象,推荐系统会更多地向女性推荐美容产品、向男性推荐汽车,等等。
不过,人工智能界也在采取行动改善性别歧视现象。此前,全球人工智能领域学术盛会神经信息处理系统大会(Neural Information Processing Systems, NIPS)就因其名称缩写“NIPS”引发不当的性意味联想和性别歧视,激起广泛争议并被众多的学术圈和科技圈人士要求改名。最终,该大会将其名称缩写换成了“NeurIPS”。
还有不少专家正在尝试多种技术手段,解决算法中的性别偏见问题。比如,托尔加等人研究出了一套可以消除语料库性别偏见问题的算法,该算法能先确立词汇的性别方向,再通过算法修正词汇的性别偏向,使得词汇属性中立化、均衡化。
采写:南都记者陈志芳
AI中国网 https://www.cnaiplus.com
本文网址: