大数据文摘出品
作者:刘俊寰、牛婉杨
美国当地时间5月25日,明尼阿波利斯市警方逮捕美国黑人男子乔治·弗洛伊德时,警察肖万将膝盖压在弗洛伊德颈部长达5分钟,弗洛伊德被送往医院后因抢救无效最终死亡。
但是根据检察官的说法,官方尸检的初步结果显示,弗洛伊德体内的潜在毒品和潜在健康问题,包括心脏病,很有可能是导致他死亡的原因。
刑事起诉书上,尸检结果显示,“没有在身体上发现任何伤口支持外伤性窒息或扼杀的诊断”。
6月1日事件迎来反转,根据美国媒体报道,弗洛伊德的家属律师表示,独立尸检发现,弗洛伊德是由于“颈部和背部受压,引起的脑部血液不流通,进而导致的窒息性死亡”。
该事件迅速从明尼阿波利斯市蔓延到了美国全国,不少地区开始举行大规模抗议游行,局势混乱不堪,众多城市沦陷。这也是近两年发酵最大的一次事关种族主义的事件。从历史角度上看,现在的美国正在经历一个非同寻常的时期,美国国内的种族主义的弊端正得到充分展现。
虽然技术一直标榜着客观公正,但是在相面识别等涉及到肤色、外貌等众多领域,技术往往在煽动种族主义中发挥了一定的作用。
如何在研究中消除种族偏见也是不少学者投身一生的研究课题。
以本次事件为由,我们特意收集整理了一些种族主义和技术偏见相结合的资源,特别是在AI领域,包括一些研究、文章和书籍等,包括从主流语音识别到面部识别的种族性探究,希望这些资源能够成为培养负责任公民、尤其是技术从业者的起点。
Gender Shades(性别阴影)
这是MIT媒体实验室的一个重要作品:Joy Buolamwini,Timnit Gebru博士,Helen Raynham博士和Deborah Raji共同完成。
在这个项目中,研究者们探究了IBM、微软和旷视的面部识别系统如何在不同性别和种族下的表现。
作品链接:
http://gendershades.org/
Voicing Erasure(语音清除)
由艾莉森·科内克(Allison Koenecke)领导,这项研究展示了语音识别中的种族歧视问题,并研究了对非裔美国白话英语使用者的影响最大的五种流行的语音识别系统,。
研究链接:
https://www.pnas.org/content/117/14/7684
AI Now:政策算法如何制定?有无偏见?
这是一份来自AI Now研究所的报告,研究者在报告中探索了政府使用的算法系统,包括移民、医疗、司法、人力等主要政府部门,主要探索算法规则和是否存在偏见。
报告链接:
https://ainowinstitute.org/aap-toolkit.pdf
NIST:种族、年龄、性别对面部识别软件的影响
这是美国国家商会标准与技术研究所(NIST)的一份报告。NIST的一项新研究研究了面部识别软件工具如何准确识别性别,年龄和种族背景不同的人。报告旨在为政策制定者提供信息,并帮助软件开发人员更好地了解其算法的性能。
研究链接:
https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software
StereoSet:语言模型中关于偏见的一种度量
StereoSet是一个数据集,用于测量语言模型中的原型偏见。StereoSet包含17,000个句子,用于衡量跨性别,种族,宗教和职业的模型偏好。
MIT的一项研究表示,“度量模型中的种族主义,性别歧视和其他歧视性行为,同时还要确保基础语言模型的性能保持强劲。为了在StereoSet中表现出色,研究人员必须创建一个公平,公正的语言模型,同时还要对自然语言有深刻的理解。”
研究链接:
https://stereoset.mit.edu/
DISCRIMINATING SYSTEMS Gender, Race, and Power in AI(区分系统:人工智能中的性别,种族和权力)
这是一项来自AI Now Institute的研究,研究人员指出,AI存在跨性别和跨种族危机,如今的AI系统亟需改变当前在处理人种和性别多样性上的方法。
研究链接:
https://ainowinstitute.org/discriminatingsystems.pdf
The future of work in black America(黑人美国工作的未来)
这是McKinsey公司做的一份报告,该报告着眼于自动化技术在扩大美国黑人家庭与白人家庭的贫富差距上起到了怎样的作用。在报告中他们指出,非裔美国人在所有人种中受到自动化影响最大,他们预测到,直到2030年,受到自动化技术的影响,非裔美国人流离失所的概率为23.1%也就是说,这个趋势甚至到2030年都将保持不变。
报告链接:
https://www.mckinsey.com/featured-insights/future-of-work/the-future-of-work-in-black-america
What is Racial Literacy(种族素养是什么?)
Jessie Daniels、Mutale Nkonde和Darakshan Mir在数据与社会项目中的一项工作,解释了为什么“道德,招聘多样性和隐性偏见培训还不足以建立科技界真正的种族素养。
他们将种族素养定义为一种解决技术上种族差异的新方法。
他们认为这是一种可以发展的技能,可以扩展的能力。要提高技术中的种族素养,需要三个基础:
- 对结构种族主义如何在算法,社交媒体平台和尚未开发的技术中起作用的理性认识;
- 有关如何解决组织内部种族紧张局势的情绪智力;和
- 致力于采取行动减少对有色人种的伤害。
研究链接:
https://racialliteracy.tech/
机器偏见(Machine Bias)
Pro Publica上的一篇超长特写报道,揭示了刑事司法系统中的预测算法如何针对黑人。
文章链接:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
一些书籍推荐
首先是Safiya Noble和Sarah Roberts合著的Technological Elites, the Meritocracy, and Postracial Myths in Silicon Valley,在这本书中,两人探索了“硅谷技术官僚的话语,以及在后种族主义时代下的投资权利,以此作为资本整合的借口,这也是反对终结歧视性劳工做法的公共政策承诺的某些方式”。
资源链接:
https://escholarship.org/uc/item/7z3629nh
除此之外,还有一些书籍在探讨种族和技术方面取得了不错的反响:
Algorithms of Oppression,作者Safiya Noble
资源链接:
https://nyupress.org/9781479837243/algorithms-of-oppression/
Race After Technology,作者Ruha Benjamin
资源链接:
https://www.ruhabenjamin.com/race-after-technology
Technicolor: Race, Technology, and Everyday Life,作者Alondra Nelson
资源链接:
http://www.alondranelson.com/books/technicolor-race-technology-and-everyday-life
Artificial Unintelligence,作者:Meredith Broussard
资源链接:
https://mitpress.mit.edu/books/artificial-unintelligence
相关报道:
https://venturebeat.com/2020/06/02/some-essential-reading-and-research-on-race-and-technology/