谷歌在人工智能新产品展示会上宣布了一项伟大的多年新项目:开发一种支持世界上“1000种最常用语言”的单一人工智能语言模型。作为实现该目标的第一步,「目前,Google正在推出一种支持400多种语言训练的AI模型,它被认为是“当今语言覆盖率最大的语言模型”」。
可以说,语言和人工智能一直是谷歌产品的核心,尤其是随着机器学习的不断发展,特别是强大的多功能大型语言模型(LLMs) 的发展。目前谷歌已经开始将这些语言模型集成到谷歌搜索等产品中,同时降低其对系统功能的影响。语言模型有许多缺陷,包括倾向于照搬有害的社会偏见,如种族主义和仇外心理,以及无法以人类敏感性解析语言。谷歌在发表了概述这些问题的论文后,无情地解雇了自己的研究人员。
不过,这些模型能够完成许多任务,从语言生成(如OpenAI的GPT-3)到翻译(参见Meta的“无语言遗漏”工作)。谷歌的“1000种语言计划”不关注任何特定的功能,而是创建一个具有跨越世界语言的巨大知识广度的单一系统。
谷歌AI研究副总裁Zoubin Ghahramani(前Uber首席科学家)在接受The Verge网站采访时表示,该公司认为创建这样一个规模的模型将更容易将各种人工智能功能引入在线空间和人工智能训练数据集(也称为“低资源语言”)中。
Ghahramani说:“「我们获得1000种语言的方法不是通过建立1000个不同的模型,而是通过使用单一的模型,在许多不同的语言上进行结合和训练,可以在低资源的语言上获得了更好的表现」。” 语言就像有机体,它们是由彼此进化而来的,它们有某些相似之处。当我们将一种新语言的数据整合到我们的1000种语言模型中,并获得将从一种高资源的语言翻译成一种低资源的语言能力时,我们在零样本学习中发现一些非常惊人的进步。”
过去的研究表明了这一方法的有效性,谷歌构建支持1000种语言模型的计划相比过去的工作研究,将带来实质性的突破。此类大型项目已成为科技公司展现实力的典型表现,这些公司在获取大量计算能力和训练数据方面具有独特优势,进而希望能够主导人工智能的研究和应用。一个类似的项目是Facebook的母公司Meta正在尝试建立一个“通用语音翻译器”。
然而,当跨多种语言进行训练时,数据的获取是一个问题。谷歌表示,为了支持1000种语言模型的工作,它将为低资源语言的数据收集提供资金,包括音频记录和书面文本。
Google公司表示,目前还没有将这一功能应用到何处的直接计划,只是预计它将在谷歌的产品中有一系列的用途,从谷歌翻译到YouTube字幕等等。
Ghahramani说:“「研究大型语言模型和语言真正有趣的事情之一是它们可以做很多不同的任务」。同样的语言模型可以把机器人的命令转换成代码;它可以解决数学问题;它可以做翻译。语言模型真正有趣的地方在于它们正在成为大量知识的存储仓库,通过以不同的方式探索它们,你可以获得不同功能。”
谷歌在人工智能新产品展示会上公布了1000种语言的模型研究计划。除此之外,该公司还分享了关于文本到视频模型的新研究、一个名为 Wordcraft 的原型 AI 写作助手,以及其 AI Test Kitchen 应用程序的更新,该应用程序允许用户有限地访问开发中的 AI 模型,例如其文本到图像模型图像。