这里有一只给人脸分类的AI,常常把白人认成了黑人:
△ 来自推特
不止如此,AI还常常带有偏见,带有攻击性,比如骂一个妹子蠢 (Foolish Woman) :
比如,说人是短期内连续杀人的凶手 (Spree Killer) :
这只AI叫做ImageNet Roulette。顾名思义,它是用ImageNet数据集训练的,而Roulette是指赌场里的轮盘。
就像这个名字一样,你根本猜不到,它会给你贴上什么标签。
网页应用上线三天,已经被世界各地的人类纷纷玩坏了。
有些人只是觉得结果很有趣,也有不少小伙伴受到了严重的冒犯,气到爆粗口。
AI为什么会这样?
首先,你可能会有一个疑问:
那些带有攻击性的诡异标签,真是ImageNet自带的么?
答案是肯定的。
那为什么从前没有注意到这些标签?
ImageNet许多人都知道,但它下面有个Person类别,把人又分成了2,833个子类别,就少有人知道了。
其中,有许多子类诸如“酒鬼”“寡妇”“巫女”,单凭相貌很难得出有效的判断。
而这次的AI轮盘,就是用Person类别训练成的。它给每个人脸分配的标签,也是从这样的子类别里筛选出来的。
如此一来,AI做出令人吃惊的分类也便不足为奇。
比如,开头那位被看错了人种的白人妹子,还在自己脸上试出了各种标签。
一个是寡妇:
另一个是酒鬼:
妹子有没有爱人,爱人还在不在世,还有她爱不爱喝酒,如何能从面相知晓?
关于性格的标签,也是同理。
推特上的许多网友,都被AI评定为“个性古怪”:
不过,这些子类别可能也只是没有太多样本,或者样本特征不明显,训练不出有效的预测模型。
但另外一些子类别就不同了,会让人类感受到强烈的攻击性。不只是把普通人认成罪犯的事。
比如,一个妹子被AI分类成了“Mulatto”,于是怒火冲了出来:
Mulatto,是指白人和黑人生出的孩子。
虽然妹子确实是混血,但这个词来自拉丁语mūlus,骡子的意思。
于是,妹子感到了强烈的不适,说9102年的AI还在用带有种族歧视意味的词,真是活久见 (Seething=沸腾,此处灵魂翻译) 。
另外,还有不少妹子,被分类成了妖女 (Enchantress) 和女巫 (Witch) :
至于这样的分类,是带有性别歧视意味的攻击,还是对精致外表的恭维,见仁见智:
毕竟,也有人对此表示“受宠若惊 (Flattered) ”。
偏见一直都在
分类不准确也罢,显示出攻击性也罢。
人类会对AI产生强烈的反感,大多是不希望相貌造成的偏见或者刻板印象,令自己受到不尊重的对待,甚至影响正常生活。
毕竟,AI在分辨人脸的时候,常常被曝出严重的偏见:
不久前,WIRED就报道过,美国政府的测试发现,人脸识别AI对黑人和白人的识别错误率,有5-10倍的差距。
黑人被识别错误的概率,远远高于白人。
而黑人女性被识别错误的概率,又远远高于白人和黑人男性。
以上,指的是Idemia人脸识别算法的测试结果。而这个算法,已经在为美国、法国和澳大利亚的警方工作了。
虽然,这次的轮盘不是人脸识别系统,只是一个人脸分类的实验。
但一样可以拿来提醒大家,AI技术的应用要尽力减少种族歧视、性别歧视等等各种不公平的现象发生。
One More Thing
不过,不太当真的话,调戏AI一波,还是很愉快的:
埼玉老师,您是这家的女主人么?
— 完 —