人工智能研究公司 OpenAI 发布了 ChatGPT。这是一个基于对话的人工智能聊天机器人模型,可以理解和回应自然语言。在不到一周的时间里,它已经被超过一百万人使用。大多数用户都对机器人的智能化如此之好感到惊讶。有人甚至说它可以取代谷歌,因为它可以直接为复杂的问题提供解决方案。
ChatGPT 的早期采用者正在展示该技术除了生成软件代码外,还能够通过多个查询进行对话。这表明自然语言处理正在进入一个新的阶段。
ChatGPT 如何运作?
ChatGPT 以一种感觉像对话的方式进行交互。这种对话形式让 ChatGPT 可以回答后续问题、承认错误、质疑不正确的陈述并拒绝不适当的请求。ChatGPT 类似于 InstructGPT,它经过训练可以按照提示中的说明进行操作并提供详细的响应。
ChatGPT 基于 GPT-3.5,这是一种使用深度学习来产生类似人类文本的语言模型。然而,ChatGPT 比旧的 GPT-3 模型更具吸引力,因为它在生成详细文本方面做得更好。例如,ChatGPT 甚至可以生成诗歌。ChatGPT 的另一个独特之处是它的内存。机器人会记住对话中的早期评论并将它们重新讲述给用户。ChatGPT 在 Azure AI 超级计算基础设施上接受过训练。
该模型使用一种称为人类反馈强化学习 (RLHF) 的技术。OpenAI 首先使用一种称为监督微调的方法来训练模型。人类 AI 培训师提供对话,他们在其中扮演用户和 AI 助手的角色。培训师还可以获得模型编写的建议,以帮助他们撰写回复。
为了创建强化学习的奖励模型,收集了比较数据,其中有两个或更多模型响应按质量排序。
ChatGPT 的局限性
ChatGPT 有时会给出听起来可能但错误或毫无意义的答案。这很难修复,因为: 在训练期间无法知道答案是否正确;如果它被训练得更加谨慎,它就会避免回答它知道的问题;监督训练让模型错误地认为什么是正确的,因为理想的答案取决于模型知道什么,而不是人类训练师知道什么。
ChatGPT 可能会受到提问方式变化或同一个问题被多次提问的影响。例如,如果问题以某种方式表述,模型可能无法正确回答问题,但如果表述不同,它可能能够正确回答同一个问题。
该模型经常使用过多的词并自我重复。发生这种情况是因为有偏见的训练数据和过度优化问题。
当前的模型通常不会在提供模棱两可的查询时询问澄清问题,而是猜测用户的意图。
Open AI 首席执行官 Sam Altman最近在推特上写道:“ChatGPT 的局限性令人难以置信,但在某些方面却足够出色,足以给人一种伟大的误导印象。现在依赖它来做任何重要的事情都是错误的。我们在稳健性和真实性方面还有很多工作要做。”
ChatGPT 能否取代谷歌?
几年前,Facebook、谷歌和微软等大型科技公司表示,数字助理将成为人机交互的下一步。他们讨论了聊天机器人如何以一种看起来像真人的方式做一些事情,比如叫优步、买机票和回答问题。尽管过去了很多年,但并没有取得太大进展。大多数聊天机器人只能回答简单的问题或帮助客户解决小问题。
不过,ChatGPT 已经开放,得到了用户的好评。人们正在寻找使用聊天机器人的新方法。尽管它有一些局限性,但许多用户发现它对日常事务很有帮助。例如,它可以帮助不懂编码的人生成代码,从头开始构建应用程序或网站。另一方面,编码人员正在使用 ChatGPT 来调试他们编写的代码。有些人甚至认为可以嵌入 ChatGPT 并用于帮助回复普通电子邮件或消息。
谷歌开发了与 OpenAI 的 ChatGPT 一样出色的大型 AI 语言模型 (LLM)。其中包括 BERT、MUM 和 LaMDA。谷歌利用这些来改进其搜索引擎。这些改进有助于谷歌了解用户在使用搜索引擎时想要什么。谷歌开发了 AI Test Kitchen 等应用,向人们展示其聊天机器人技术的能力。但它限制了用户与聊天机器人互动的方式。
OpenAI 一开始也很谨慎地开发其 LLM 技术。但随后它推出了 ChatGPT 并允许任何人使用它。这导致了 OpenAI 的大量宣传和炒作,尽管该公司花费了大量资金来保持系统免费。
有些人认为人工智能聊天机器人可能很快就会接管常规搜索引擎。但在谷歌工作的人表示,这项技术还没有准备好。仍然存在一些问题,例如聊天机器人的偏见、毒性以及它们编造信息的倾向。