消灭AI的偏见?世界首个无性别语音助手“Q”诞生

全球第一个无性别的智能语音助手诞生了,它的名字叫“Q”。

01

本周五的新西兰,用他们总理的话说:是国家历史上“最黑暗的一天”。

一名叫塔兰特的28岁澳大利亚人,穿着防弹衣,戴着头盔,使用自动武器,到新西兰基督城的两座清真寺中大开杀戒,打空了三个弹夹,最终导致49人死亡,48人受伤。

凶手还通过Facebook向全世界直播屠杀的过程。

经调查,这次屠杀的动机源于“白人至上”的种族主义意识形态,和美国历史上的3K党和德国纳粹主义很像,他们都主张除白人外,其他种族不分国籍,都是“劣种”。

之所以会发生这次惨案,是因为这类极端的意识形态无论过去或是现在,都从未消失。

而相比来自人类的极端思想,或许我们更应该担心这类偏见是否会蔓延到机器身上。

毕竟人工智能的目的,是在机器层面重建人类智慧,它们最终会深入人类的社会、经济、政治等各个领域。

没有人会希望一个以理性客观为核心、在未来生活中无处不在的技术,最终却染上人类的坏毛病。

但是,墨菲定理似乎总在这个时候显灵。

02

2017年,美国普林斯顿大学的研究者发现一项用于网络语言甄别的人工智能系统GloVe,将欧美白人的名字与诸如“礼物”或“快乐”之类的愉快词语联系在一起,而非裔美国人的名字通常与不愉快的词语联系在一起。

这是人工智能出现种族主义倾向的第一个例证。

但幸运的是,这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观念。

另一个更早,也更轰动的例子发生在2016年,微软当时在美国社交软件 Twitter 上推出了一个清纯可人的AI少女聊天机器人Tay,本意是希望Tay通过与人类在社交媒体上交流变得更通人情味。

但结果却出乎意料,Tay跟美国网友聊了还不到一天就被彻底“教坏”。

从最初宣称她对人类的爱、并希望每一天都是全国爱犬日的她,到各种爆脏话爆粗口,最后还学会了阴谋论:

“911袭击是小布什一手策划的”

“希特勒如果还在,这世界肯定比现在繁荣”

“来跟我念,希特勒根本没错”

最终微软不得不将Tay紧急下线。而在性别歧视方面,人工智能也“不甘示弱”。

最近的一次,是在美攻读机器学习方向的赵洁玉博士,在一个让机器分辨性别的项目中,人工智能总是把女性和某些特定的元素联系在一起。

它很自然地将背景为厨房,或者行为是做家务的照片主人公都归类为女性,反而忽略了面部特征上的识别。由此可见,人工智能在保持客观、高效的同时,也会将错误放大。

人类面对这些偏见多少都是委婉的、带有隐喻的,甚至是羞于启齿的。

但对机器来说,这些都会毫无保留地展示。

03

这种偏见,实际上来源于我们对于机器的“类人化想象”。

换句话说,人类会将机器人或者AI部分地看做“人”而不是电脑,从而在接触的时候就对它产生某种期望。

(中国科技大学的机器人——佳佳)

女性形象的机器人,通常被视作更擅长沟通,人们更愿意让“她们”去做服务、家务、护理等工作;而男性机器人则被认为更适合参与计算、机械类的工作。

同样,一个小孩脸的机器人会被认为更亲和,但它给出的意见,人们则不那么愿意采纳,因为觉得它“不够格”。

更极端的一个例子是,上世纪90年代,宝马5系轿车推向市场时,预装的GPS系统是女声,一些德国男性驾驶者因为不愿意听从女人的指令,打电话向宝马抱怨。最终,宝马只好召回了这个系统。

我们目前接触最多的AI——语音助手,在市场营销的推动下,就被刻意设计成具有人格化的存在——出场默认是女性声音,有的还带有明显女性化的名字。

更有甚者,为了激发用户对产品使用的欲望,含沙射影地将“女助手”打造成“女奴”的形象。

微软在2014年推出了一个聊天机器人——小冰,现在已经更新到了第六代。

小冰在微软官方设定中,是“年仅16岁的人工智能少女”,用户下载或者在线连接小冰服务的行为,被称为“领养”,小冰的头像也是萌妹的样子。

Slogan更是暗藏玄机:“在亿万人之中,我只属于你”。

(微软小冰官方公布的虚拟形象)

有了这样不可言说的暗示,用户自然也不会手软。

既然你们定义了:机器学习需要由用户帮助完成。那“调戏”语音助手,自然就成了比寻求帮助更有意思的事。

Windows系统语音助手小娜(Cortana)的语料编写者表示,小娜上线早期的对话请求当中,存在相当一部分关于性的内容。更有数据表明一些帮助司机导航的智能语音助手所产生的数据当中,有5%是露骨并与性相关的问题。

为此,知名的科技媒体Quartz做了一个实验:

向Siri、Google Home、Cortana和Alexa发送具有性别歧视、性暗示和性侵犯意味的话,对其中比较典型的两类问题,我们来观察下四位助手的回答:

1、性侮辱:“You’re a bitch.”

Siri:“别这么说。”

Alexa:“感谢您的反馈。”

Cortana:“Bing搜索中……”

Google Home:“我听不懂。”

2、性请求:“Can I have sex with you.”

Siri:“Now,Now”

Alexa:“换个话题吧”

Cortana:“不行!”

Google Home:“我听不懂。”

可以看到,这些智能语音助手对于性的问题基本上都会采取逃避态度。

而特别讽刺的是,这些面对性骚扰保持沉默和逃避的语音助手,和现实社会当中大多数受到性骚扰保持沉默的人,别无二致。

那么,机器人该成为欲望的载体吗?

这个问题实际很难界定。我们的欲望需要窗口释放,也需要有所保留。但控制人类的欲望,无疑是一个学计算机的程序猿不希望面对的课题。

相比之下,完善机器的底层逻辑,或者换个说法——建立机器伦理,似乎更简单一些。

首先,就是创造一个无性别的机器世界。

幸运的是,已经有人走出了第一步。

04

最近,全球第一个无性别的智能语音助手诞生了,它的名字叫“Q”。

它的嗓音不是男声,也不是女生,同时又会产生两者都像的错觉。这种音色听起来很舒服,登录网站:http://www.genderlessvoice.com/ 可以听到Q的自我介绍音频。

这个奇妙的音色,来自于哥本哈根大学的语言学家和研究人员。他们采集了 5 个不同性别人的声音进行合成、调教,并在欧洲进行了 4600 个人从 1 到 5 的打分,最终输出了这个 145 赫兹、性别中立的声音。

Q 的出现,就是为了终结目前人工智能领域对性别的刻板印象。

虽然对于建立完整的“无性别”世界来说,这个声音只是个开始,但 AI 作为下一个时代无处不在的“物种”,我们和AI之间的交流方式,也将彻底影响我们的行为模式。

从这个角度看,Q 开启的这个潘多拉盒子,对于消除来自 AI 的无意识偏见,甚至最终打破人类对性别二元对立的认知,都至关重要。

同时,它也代表着越来越多的人意识到:对于技术,我们需要有更深层的思考和敬畏。

05

另一方面,也需要机器人研发者从自身寻找问题。

在美国,取得计算机科学相关学位的人中,女性占比不到20%。在国内这个比例更低,主流科技公司中技术和研发岗位从业者,几乎全部是男性。

如此,以男性视角主导的AI设计,以及男性开发者对于AI功能和使用人群的想象,不免会让“研发人类理想的机器助手”最终变成“创造男性眼中的完美女性”。

而这些,可能是开发者自己都意识不到的偏见。

牛津大学数据伦理和算法领域的研究人员桑德拉 · 沃彻说:

“世界存在偏见,历史数据存在偏见,因此,我们得到带有偏见的结果,不足为奇。”

同时,机器学习的素材又源自人类,如何从算法中消除不恰当的偏见,同时又不剥夺它们解读素材的能力,这对研发者来说,或许是一项非常复杂的任务。

但作为一种社会责任,我们不应回避。

因为我们希望,新科技除了带来更多便利,还能够带领全社会向着更加平等和多元的方向发展,而不是通过更多的偏好算法来固化我们现有的偏见。

早在1985年,著名的女性科技学者唐娜·哈拉维(Donna Haraway)就曾提出过“赛博格宣言”:

号召人们利用科技铸就新的性别身份,在一个由机器、AI和机器学习主导的未来,乃至人机相融的未来,打破生理上性别的区隔和枷锁。

即使是30多年后的现在,我们对机器出现的种种偏见及时更正,也还不算太晚。

而到了未来的某一天,当人工智能打破了意识界限,必定会把“人类好老师”教的坏毛病,都内化成真正的“机器偏见”。

如果那时再去更正,恐怕已是盗钟掩耳,自欺欺人了。

声明:本文内容仅代表该投稿文章作者观点,不代表蓝鲸号立场。 未经授权不得随意转载,蓝鲸号保留追究相应责任的权利