作者:Melissa Heikkilä翻译:陈之炎校对:潘玏妤 本文约3100字,建议阅读7分钟本篇报道最初发表在人工智能每周时事通讯《算法》上。
AI语言模型最近成为了美国文化战争的前沿主题,右翼评论员指责ChatGPT带有“觉醒的偏见”,保守派团体已经开始开发自有版本的AI聊天机器人。与此同时,埃隆·马斯克(Elon Musk)表示,他正在研发名为“TruthGPT”的一种“能最大限度地寻求真相”的语言模型,而它将与OpenAI和谷歌研发的“政治正确”聊天机器人形成对比。
诚然,研发出一款公正的(无偏见的)、纯粹基于事实的AI聊天机器人是一种美好的想法,但它在技术上却是不可能实现的。(马斯克还没有透露TruthGPT的相关细节,可能是因为他忙于思考X和与马克·扎克伯格的争斗。)为了理解背后的原因,推荐大家读一读我近期发表的一篇关于政治偏见是如何渗透到人工智能语言系统的研究的文章。
(Blog链接:https://www.technologyreview.com/2023/08/07/1077324/ai-language-models-are-rife-with-political-biases/?truid=&utm_source=the_algorithm&utm_medium=email&utm_campaign=the_algorithm.unpaid.engagement&utm_content=08-07-2023 原论文链接:https://aclanthology.org/2023.acl-long.656.pdf)
研究人员对14种大型语言模型进行了测试,发现OpenAI的ChatGPT和GPT-4是最左翼的自由意志主义者,而Meta的LlaMA是最右翼的威权主义者。
“我们相信没有任何一种语言模型可以完全摆脱政治偏见”,卡内基梅隆大学的博士研究员Park Chan Young告诉我,他是本项研究的参与者之一。
关于AI最普遍的神话之一是: 这项技术是中立和公正的。然而,这种说法是危险的,它只会加剧人类对计算机的信任问题。事实上,AI语言模型不仅反映了训练数据中的偏见,而且还直接反映出了创造和训练数据的人的偏见。
“众所周知,用于AI模型训练的数据是这些偏见的主要来源,而我的研究表明了偏见是如何出现在模型开发的几乎每个阶段的。”达特茅斯学院(Dartmouth College)计算机科学助理教授Soroush Vosoughi如是说(他没有参加上述研究)。
AI语言模型中存在偏见是一个棘手的问题,因为我们无法真正理解它们产生的原因,消除偏见的过程也无法做到完美。部分原因在于偏见作为一个复杂的社会问题,从技术的角度没有简单可行的解决方案。
这就是我坚信“诚信是最好的策略”的主要原因。诸如这类的研究可以鼓励公司追踪和记录他们的AI模型中的政治偏见,并对客户更为坦诚。例如,他们可以明确说明已知的偏见,从而用户就可以对模型的输出持保留态度。
今年早些时候,OpenAI告诉我,公司正在开发定制的聊天机器人,能够代表不同的政见和世界观。一种可能的方法是允许人们个性化他们的AI聊天机器人,这也是Vosoughi的研究重点。
正如在一篇同行评议的论文中所描述的那样,Vosoughi和他的同事们创建了一种类似于YouTube推荐算法的方法,并将它应用于生成式模型。他们采用强化学习来引导AI语言模型的输出,从而生成特定政治意识形态或去仇恨化的言论。
OpenAI使用强化学习,通过用户反馈,在发布AI模型之前对其进行微调。Vosoughi的方法也采用了强化学习来改进模型发布后生成的内容。
在当今多极化的世界里,这种定制可以带来好的和坏的结果。一方面,它可以用来剔除AI模型中不愉快或错误的信息,但另一方面,它也可能生成更多的错误信息。
“这的确是一把双刃剑,”Vosoughi承认。
更深度的学习
为什么世界币公司刚刚正式成立便已陷入了调查门?
OpenAI首席执行官山姆·阿尔特曼(Sam Altman)的新项目“世界币” (Worldcoin),旨在创建一个名为“世界身份”(World ID)的全球身份系统,该系统依赖个人独特的生物特征识别数据来证明他们是人类。虽然它于上周才在20多个国家正式推出,但其中几个国家已经开始对此进行调查了。
隐私噩梦:要理解这里的原因,可以阅读“麻省理工学院技术评论”去年的调查报告,该调查发现世界币从弱势群体那里收集敏感的生物特征识别数据,以换取金钱。更重要的是,该公司在用户不知情的情况下,使用测试用户的敏感数据(尽管是匿名的形式)来训练AI模型。
在本周MIT Technology Review发布的技术政策每周通讯《The Technocrat》中,Tate Ryan-Mosley和记者Eileen Guo说明了自去年的调查开始以来发生了哪些变化,以及我们应该如何理解与此相关的最新新闻。
(链接:https://www.technologyreview.com/2023/08/07/1077250/worldcoin-officially-launched-why-its-being-investigated/?truid=&utm_source=the_algorithm&utm_medium=email&utm_campaign=the_algorithm.unpaid.engagement&utm_content=08-07-2023)
位元和字节
这是已知的第一例女性因面部识别匹配被错误逮捕的案件。
去年2月,怀孕8个月的Porcha Woodruff因涉嫌抢劫和劫车被捕,并被拘留了11个小时,但她的案件在一个月后被驳回。她是第六位因面部识别匹配而被诬告犯罪的人。这六个人都是黑人,而Woodruff是第一位被报告卷入这类案件的女性。 《纽约时报》
AI系统撒谎,我们该如何应对?
去年夏天,我写了一篇关于个人数据是如何被收集到数据集中以训练AI语言模型的文章。这不仅是一场隐私噩梦,它还可能导致名誉受损。在撰写这篇文章时,我和一名研究人员发现:Meta的实验性聊天机器人BlenderBot曾称一位荷兰政治家Marietje Schaake是恐怖分子。而且,正如本文所述,当AI聊天机器人散布关于你的谣言时,目前几乎无法得到保护或进行求助。 《纽约时报》
相关文章:What does GPT-3 “know” about me?
文章链接:https://www.technologyreview.com/2022/08/31/1058800/what-does-gpt-3-know-about-me/?truid=&utm_source=the_algorithm&utm_medium=email&utm_campaign=the_algorithm.unpaid.engagement&utm_content=08-07-2023)
当前,每家初创公司都是一家AI公司,我们陷入AI泡沫之中了吗?
随着ChatGPT的发布,今年人工智能一直非常火爆。似乎每个科技从业者都创立了一家新的人工智能公司。在ChatGPT推出9个月后,人们仍不清楚这些初创公司和人工智能技术将如何赚钱。而且有报道称,消费者对此开始失去兴趣。 《华盛顿邮报》
Meta正在创建具有个性的聊天机器人,试图留住用户
老实说,这消息听起来比较烦人。据报道,Meta公司最早将于下个月推出具有不同个性的AI聊天机器人以提高用户参与度,并收集平台上的更多用户数据。用户将能与亚伯拉罕·林肯(Abraham Lincoln)聊天,或者向像信息冲浪者一样的AI聊天机器人寻求旅行建议。但这涉及了棘手的伦理问题——Meta将如何防止聊天机器人操纵人们的行为和编造出有害的内容?它又将如何处理收集到的用户数据呢? 《金融时报》
原文标题:
Why it’s impossible to build an unbiased AI language model
另:为什么世界币公司刚刚正式成立便已陷入了调查门?
原文链接:
https://www.technologyreview.com/2023/08/08/1077403/why-its-impossible-to-build-an-unbiased-ai-language-model/
编辑:黄继彦
校对:林亦霖
译者简介
陈之炎,北京交通大学通信与控制工程专业毕业,获得工学硕士学位,历任长城计算机软件与系统公司工程师,大唐微电子公司工程师,现任北京吾译超群科技有限公司技术支持。目前从事智能化翻译教学系统的运营和维护,在人工智能深度学习和自然语言处理(NLP)方面积累有一定的经验。业余时间喜爱翻译创作,翻译作品主要有:IEC-ISO 7816、伊拉克石油工程项目、新财税主义宣言等等,其中中译英作品“新财税主义宣言”在GLOBAL TIMES正式发表。能够利用业余时间加入到THU 数据派平台的翻译志愿者小组,希望能和大家一起交流分享,共同进步