微信官方首次向外国用户道歉 只因AI机器人入侵...

最近,中国人最受欢迎的聊天应用程序微信又摊上了个大事儿...

微信在官方媒体上公开表示歉意,由于其软件将通常意为“外国黑人”的中文短语翻译为“黑鬼”...

这个问题是被一个居住在上海的美国人Ann James发现的,一次她在与同事使用微信群组聊天时讨论迟到的事情,James使用了微信内置的翻译功能,谁知其同事说的一句黑人要迟到了,被翻译成了The nigger is late…(黑鬼迟到了)。

Nigger 来源于拉丁语Niger(黑色),17世界初殖民地的美国,居住在美国的英国人用Negars来形容非洲黑人奴隶,到了19世纪初,Nigger一词逐渐演变成了一个对黑人极为不尊重的贬义词。

而事发后,拥有近9亿用户的微信将带有种族歧视的翻译归咎于中英文人工智能软件的错误...

“我们对翻译不当感到非常抱歉。” 微信发言人说, “收到用户的反馈后,我们立即解决了这个问题。”事发后一份最新的测试表明,翻译软件已被重新修改,不再有种族歧视的含义...

微信表示,微信使用的翻译软件是人工智能系统,翻译的语言是经过大量文本分析后得出的结果,但不排除会产生一些不合适的翻译结果...

然而,此次事件微信口中‘不合适的翻译结果’其实是AI人工智能暴露出‘必然性’的漏洞之一。通俗来说,人工智能的智能之处在于它能够‘学习’,而创造者也一直以让AI变得更加‘拟人’并且拥有更强自主学习能力作为目标。但如今,AI不断提高的学习能力也使得它拥有了感知人类惯习与偏好的能力,可怕的是,这些惯习并非全部都是积极的...


 

那么人工智能的‘人性’究竟是谁赋予的,它又是如何入侵我们生活方方面面的呢?

 

“AI可以像人类一样思考。可悲的是,他们正在学习我们提供的最糟糕的东西。”

在过去的几年中,Google翻译等程序解读语言的能力大大提高,Google甚至正在开发算法对思想进行编码,尝试希望十年内可以使得计算机具有“常识”。

但令人失望的是,尽管计算机在自主思考上取得了突破性的进展,机器学习越来越拥有类似于人类的语言能力,但值得注意的是,无人工干预的纯粹计算法也让它吸收了人类语言使用模式中根深蒂固的偏见和歧视。

普林斯顿大学计算机科学家Arvind Narayanan在Science曾在杂志上发表了一篇题为《Semantics derived automatically from language corpora contain human-like biases》(语料库自动导出的语义中包含人类偏见)的论文,重点介绍了一种被称为“词语嵌入”的机器学习工具,这种工具将词的含义分解为一系列的数据(称为“单词向量”),通过分析词语出现的频率以及构建的数学模型来进行深度学习。

而GloVe(Global Vectors for Word Representation)是当下最常用,也是最先进的词语嵌入方法。其工作原理是根据上下文提取单词意思,同时通过这些单词意思和其他单词在文本中出现的频率来进行判断词意。

根据GloVe和相关方法,在相似的文章中两个单词出现的频率越高,他们关联性也就越高。比如,在这种虚拟化的 “语言空间”中,“女人”这个词经常和与家庭有关的词一起出现,那么“女人”这个概念就和“家庭”关联性非常高。

再比如,“愉悦”的词意与“花朵”相联系, 而“昆虫”更接近于与不愉快的词语相关联。但很显然,并不是所有人都喜欢花朵又或反感昆虫,这更像是人们对于这两个词意的主观情绪在AI上面的映射。

更让人惊讶的是, GloVe所引领的语言识别系统将欧洲与美国人的名字与诸如“礼物”或“快乐”等积极愉快的词汇联系起来,而非裔美国人的名字更常见于与不愉快的话语相关联...

不难发现,AI所使用的纯粹的统计学方法似乎也捕捉到了词汇背后丰富的文化和社会背景,这就可以理解为何微信的人工智能语言翻译系统会对黑人老外做出了不当的翻译。

这正如文章的联合作者、巴斯大学的计算机科学家Joanna Bryson所说,很多人觉得AI的数据分析结果是存在偏见的,然而,其实这显示出的是我们,作为AI的创造者是有偏见的,而AI正在学习它。

更为可怕的是,Bryson补充道,AI的学习能力会潜在地加强现有的偏见。其原因在于,与人类大脑不同,算法本身可能无法有意识地抵消这样一种习得的偏见。

这就意味着,AI本身思考和反思能力的局限可能会使它变成一个‘固执的’激进主义者,甚至与其直接从人类那里获得的初始算法产生矛盾,从而对人类造成威胁。

Tesla,SpaceX执行长马斯克早前就提出了AI威胁论,指AI在30年内就会超越人类的智慧,后果令人担忧,甚至称其为‘人类文明史上面临的最大威胁’...

但社交网站龙头脸书(facebook)创始人扎克伯格却对此不以为然,直接和马斯克在社交网站上打起了嘴仗...他认为 “马斯克的AI威胁论是及其不负责任的,我不明白为什么总会有人有这种消极的想法。AI将会使人类的生活更加美好。”

但显然,扎克伯格天真的‘积极视角’完全无法掩盖当下AI所暴露的弊病。更可怕的是,当下的AI还尚未达到完全成熟的阶段。
 

“AI只是客观地通过算法捕捉到我们生活的世界, 只是我们的世界里充满了歧视与偏见。改变算法的方式只会使其效果更差。”

当谈及如何修正AI习得的偏见,一些学者表示,从另一端入手AI的监管或许反而会产生更好的效果。那就是修正AI算法学习之后的成果,让它在二次学习后不断习得人类的道德观念。

AI二次学习的方法与‘人工智能’的拟人化追求实则不谋而合。就像人类在成长过程中,精神层面都在不停进行着自我反省和更正。道德观念,就是在这个阶段中由批判性的世界观重塑产生的,是人类最珍贵,也是最难习得的精神符号。人工智能AI也是一样。因此,对于人工智能来说,‘发展’过程中习得的道德观比初始‘设计’更为重要...

 

“关于人工智能法律政策问题的思考一直是当下人类社会需要面对并且重点考虑的实效问题。”

人工智能的高速发展和逐渐暴露出的隐性弊端已经让各国政府也开始积极关注人工智能对于社会和政治的影响,并不断出台有关AI管控与发展的战略文件和报告。

AlphaGo(人工智慧围棋程式)接连斩落棋坛大神的今天,人们欣喜地看到了这些年来人工智能飞跃式的进步。  这得无意得益于大量可用的在线文本数据和新的机器学习技术。

然而随着AI加速伸到到人类的生活,它与人类的关系也变得愈发难以掌控。有些看法还说,我们甚至会进入无法确信自己是否还真的是‘自己’的时代。

在威尔史密斯主演的电影《机械公敌》中,机器人拥有了极高自我思考的能力,却曲解了人类为之界定的“机器人三大安全法则”,认为人类间的矛盾和战争将使得人类自我毁灭,出于保护的目的,机器人想方设法要将人类囚禁在家中...人与机器人的冲突就这样开始了...

虽然影片中的机器人也算是反面角色,但它们其实对于自己的身份也是十分费解的:为什么人类这样告诉我,我这样做了,却遭到人类的屠杀?

这一情节不禁又让人联想到《终结者》中,人类与机器人一段引人深思的对话:

“你不该有感情的。”

“为什么?”

“你只是一段程序。”

“你们人类不也是DNA编码的超级程序吗?”

电影中,这些已经拥有独立思考能力的机器人说出的话看似天真,实则引人深思...

其实当下,对于人类来说,机器人更像是我们以科技创造出来的‘孩子’,它所体现出的人性完全是人类‘父母’所赋予的,它也需要时间去与未知的世界进行磨合和反思。因此,对于AI,人类其实还需给予更多的耐心去允许它的成长...

 

凤凰卫视欧洲台综合报道

图片来源于网络

 

 

实习编辑:罗霄荃

责任编辑:李乐

 

栏目随机:

栏目近期热点:更多