农业信息

脸书将黑人标注为灵长类动物!为什么会这样?难道黑人不是人类?

9月4日,半岛电视台报道,“脸书”(Facebook) 在社交网络上的一段视频中将黑人误认为“灵长类动物”后,宣布禁用其主题推荐功能。据《纽约时报》报道,最近几天,“脸书” 用户在观看英国小报上一段黑人视频时,会看到一个自动生成的提示,询问他们是否愿意“继续观看有关灵长类动物的视频”。那么脸书将黑人标注为灵长类动物,为什么会这样?难道黑人不是人类?下面我们来看看。

“脸书”发言人称其为“明显不可接受的错误”,并表示涉及的推荐软件已下线。“我们向任何可能看到这些冒犯性建议的人道歉。”“脸书”在回应法新社的调查时表示。“我们在意识到发生这种情况后立即禁用了整个主题推荐功能,以便我们调查原因并防止这种情况再次发生。”

脸书将黑人标注为灵长类动物

民权倡导者抨击面部识别软件,他们指出软件的准确性存在问题,尤其是对非白人的问题。

虽然人类是灵长类动物家族的众多物种之一,但该视频与猴子、黑猩猩或大猩猩无关。前“脸书”内容设计经理达西·格罗夫斯(Darci Groves )在社交软件上分享了推荐的屏幕截图。“这种‘继续看’的提示是不可接受的。”格罗夫斯说,“这太离谱了。”

报道提到,格罗夫在一个面向脸书现任和前任员工的产品反馈论坛上发布了这张有问题的截图。一名产品经理随后称此事“不可接受”,并承诺将对该事件进行调查。

RT称,脸书的这一推荐也令不少观众感到震惊。脸书公司9月3日就此事致歉,在一份面向媒体的声明中,脸书公司表示,“我们向任何可能看到这些具有冒犯性的推荐的人道歉。”声明还称,整个话题推荐功能已被停用。

“正如我们已经说过的,虽然我们已经对我们的人工智能进行了改进,但我们知道它并不完美,我们还有更多的路要走。”声明如此说道。

科技巨头使用算法技术导致出现尴尬错误的情况并不只出现在脸书平台上。RT介绍称,2015年,谷歌的照片应用程序曾给一张黑人照片贴上“大猩猩”标签,随后谷歌也为此事道歉。

一方面我们都是灵长类吧,这里ai说的是这个黑人吗?另一方面如果说语言里ai是学习真实人类在网络的观念的大数据统计,所以会产生歧视用语。那么图片视频也是吗?ai是否是自行判断图片与其他图片比较类似的?ai本质上又不懂啥叫歧视。

本来就是啊!几十亿人的认为,黑色灵长类去了印度,低种姓都可以欺负的那种。

黑*确实是灵长类动物啊,它们怎么好意思说自己是人的?同样是灵长类,还不如猴子可爱。

这是干嘛呀?别欺负动物好不好?给一根香蕉不行吗?

谷歌很早之前也是将黑人分类为灵长动物, 为了解决这个问题, 直接将灵长动物标签去掉了。

灵长类动物是动物的标签,不是人的标签。评论区别杠这个话题,谁杠谁自己去当动物去,然后找个主人当监护人,被人弄死算“被毁坏财产”。

不论是什么肤色的人种,都有着共同的祖先,这是全世界所有人的共识。然而直到今天,种族歧视的问题在某些国家依然得不到解决,甚至还出现了变本加厉的情况。

最近曝出的一条新闻,更是让人感慨种族歧视无下限。在著名的社交平台脸谱网(Facebook)上,有一位用户在观看一段有黑人出镜的视频时,发现了一条推荐。这种推荐我们都知道,它是根据你目前和最近观看的视频内容,筛选出类似的视频推荐给你,也就是所谓的“猜你喜欢”。通过这样的方法,就可以让用户在软件内停留更长的时间。

然而,在这段视频中出现的“猜你喜欢”,竟然和黑人甚至和人类都没有半毛钱关系,而是推荐了一条“继续观看有关灵长类动物的视频”的消息,令人惊愕!

我们都知道,人类的确属于灵长类动物,但是从生物学分类的级别(界,门,纲,目,科,属,种)中,灵长类的级别是“目”,是完全不足以限制一个物种的种类的。我们今天所说的人类,指的是灵长目,人科,人属,智人种动物,尽管黑猩猩、大猩猩等也属于人科动物,但却是和人类完全不同的动物。想要定义人类,至少也要精确到属,包括已经灭绝的人属下其他生物如尼安德特人、丹尼索瓦人也能算是人类,毕竟和我们没有生殖隔离。但是,将一个现代人类直接联系到灵长类动物,实在是有点过分了。

那么,Facebook后台为何会进行这样的推荐呢?

一般来说,视频的制作者在上传的时候会添加标签,这可以成为后台进行推荐的一个参考。如果是这种情况,那么视频的制作者本身就居心叵测。另外,平台也应该会有内容识别等检测视频的机制,自主判断某段视频属于什么类别。如果是这样的,那么这个平台的检测机制实在令人无语。

目前,Facebook方面已经公开道歉,承认这是一个“明显不可接受的错误”,同时也下架了涉及的推荐软件。但不管怎么说,种族歧视的问题短时间内似乎仍然不太可能得到彻底的解决,全世界人民仍然需要为此共同努力。马丁·路德·金在1963年向全世界宣布的梦想,至今仍然没有实现。

这起事件再次通过人工智能工具表现了美国日常生活中存在的种族偏见。早前,从人像识别系统中可看出,白人的识别率较高,而黑人较低。此番,脸书正在接受反垄断调查,如果再次陷入到种族歧视的讨伐中,将会在劫难逃。

由于美国的人工智能算法和资源库存在一些缺陷,如果不修改算法和重新标注一些数据库,难免以后再次发生类似的事件。

声明:内容来自百度,本文仅让热点观察内容更加丰富,不代表达达搜观点。如有误或侵犯您的利益,可联系我们修改或删除,感谢合作。

猜你喜欢

大家都在看