什么是ChatGPT

2023-10-12 17:09:39 浏览数 (1)

ChatGPT(Chat Generative Pre-trained Transformer)是人工智能研究实验室OpenAI(OpenAI:马斯克等人创建的人工智能公司)新推出的人工智能技术驱动的自然语言处理工具。主要使用了TransFormer神经网络架构,使得ChatGPT具有聊天互动的能力,可以根据特定聊天场景进行交流,还具备撰写邮件、脚本、文案、翻译、代码等不同类型文字的功能。

据了解,微软也将全线接入ChatGPT,计划将包括ChatGPT、DALL-E等人工智能工具整合进微软旗下的所有产品中,并将其作为平台供其他企业使用。这些产品包括且不限于Bing搜索引擎、包含Word、PPT、Excel的Office全家桶、Azure云服务、Teams聊天程序等等。根据媒体Semafor的一份新报告,微软计划在未来几周内将ChatGPT的下一代版本GPT-4整合到旗下搜索引擎必应(Bing)中。谷歌正着手测试新聊天机器人,该聊天机器人名为“学徒巴德(Apprentice Bard)”,员工可以提出问题并收到类似ChatGPT的详细答案。另一个产品部门一直在测试新的搜索桌面设计,以便用问答的形式来使用。百度也已投入开发类ChatGPT的相关技术,项目名字:文心一言(ERNIE Bot),预计三月完成内测,面向公众开放,目前,文心一言在进行上线前的调试。

ChatGPT的功能可以带来科技便利,并具有在许多领域产生有益影响的潜力,但也伴随着很多风险。

上线像ChatGPT这样的工具,使得一些技术工作人员面临失去工作的风险。例如,聊天机器人可以被开发来培训组织中的员工,从而导致人类培训师冗员。会计师、法律文员、软件开发人员,甚至X射线分析师,这些工作将被全世界的ChatGPT抢走。ChatGPT的迅速普及有可能颠覆包括教育、金融、新闻媒体、法律等许多行业。

Generative Pre-trained Transformer (GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。它用于问答、文本摘要生成、机器翻译、分类、代码生成和对话 AI。

2018年,GPT-1诞生,这一年也是NLP(自然语言处理)的预训练模型元年。性能方面,GPT-1有着一定的泛化能力,能够用于和监督任务无关的NLP任务中。其常用任务包括:

  • 自然语言推理:判断两个句子的关系(包含、矛盾、中立)
  • 问答与常识推理:输入文章及若干答案,输出答案的准确率
  • 语义相似度识别:判断两个句子语义是否相关
  • 分类:判断输入文本是指定的哪个类别

虽然GPT-1在未经调试的任务上有一些效果,但其泛化能力远低于经过微调的有监督任务,因此GPT-1只能算得上一个还算不错的语言理解工具而非对话式AI。

GPT-2也于2019年如期而至,不过,GPT-2并没有对原有的网络进行过多的结构创新与设计,只使用了更多的网络参数与更大的数据集:最大模型共计48层,参数量达15亿,学习目标则使用无监督预训练模型做有监督任务。在性能方面,除了理解能力外,GPT-2在生成方面第一次表现出了强大的天赋:阅读摘要、聊天、续写、编故事,甚至生成假新闻、钓鱼邮件或在网上进行角色扮演通通不在话下。在“变得更大”之后,GPT-2的确展现出了普适而强大的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。

之后,GPT-3出现了,作为一个无监督模型(现在经常被称为自监督模型),几乎可以完成自然语言处理的绝大部分任务,例如面向问题的搜索、阅读理解、语义推断、机器翻译、文章生成和自动问答等等。而且,该模型在诸多任务上表现卓越,例如在法语-英语和德语-英语机器翻译任务上达到当前最佳水平,自动产生的文章几乎让人无法辨别出自人还是机器(仅52%的正确率,与随机猜测相当),更令人惊讶的是在两位数的加减运算任务上达到几乎100%的正确率,甚至还可以依据任务描述自动生成代码。一个无监督模型功能多效果好,似乎让人们看到了通用人工智能的希望,可能这就是GPT-3影响如此之大的主要原因

GPT-3模型到底是什么?

实际上,GPT-3就是一个简单的统计语言模型。从机器学习的角度,语言模型是对词语序列的概率分布的建模,即利用已经说过的片段作为条件预测下一个时刻不同词语出现的概率分布。语言模型一方面可以衡量一个句子符合语言文法的程度(例如衡量人机对话系统自动产生的回复是否自然流畅),同时也可以用来预测生成新的句子。例如,对于一个片段“中午12点了,我们一起去餐厅”,语言模型可以预测“餐厅”后面可能出现的词语。一般的语言模型会预测下一个词语是“吃饭”,强大的语言模型能够捕捉时间信息并且预测产生符合语境的词语“吃午饭”。

通常,一个语言模型是否强大主要取决于两点:首先看该模型是否能够利用所有的历史上下文信息,上述例子中如果无法捕捉“中午12点”这个远距离的语义信息,语言模型几乎无法预测下一个词语“吃午饭”。其次,还要看是否有足够丰富的历史上下文可供模型学习,也就是说训练语料是否足够丰富。由于语言模型属于自监督学习,优化目标是最大化所见文本的语言模型概率,因此任何文本无需标注即可作为训练数据。

由于GPT-3更强的性能和明显更多的参数,它包含了更多的主题文本,显然优于前代的GPT-2。作为目前最大的密集型神经网络,GPT-3能够将网页描述转换为相应代码、模仿人类叙事、创作定制诗歌、生成游戏剧本,甚至模仿已故的各位哲学家——预测生命的真谛。且GPT-3不需要微调,在处理语法难题方面,它只需要一些输出类型的样本(少量学习)。可以说GPT-3似乎已经满足了我们对于语言专家的一切想象。

ChatGPT存在哪些局限性?

如下:a) 在训练的强化学习 (RL) 阶段,没有真相和问题标准答案的具体来源,来答复你的问题。b) 训练模型更加谨慎,可能会拒绝回答(以避免提示的误报)。c) 监督训练可能会误导/偏向模型倾向于知道理想的答案,而不是模型生成一组随机的响应并且只有人类评论者选择好的/排名靠前的响应

注意:ChatGPT 对措辞敏感。,有时模型最终对一个短语没有反应,但对问题/短语稍作调整,它最终会正确回答。训练者更倾向于喜欢更长的答案,因为这些答案可能看起来更全面,导致倾向于更为冗长的回答,以及模型中会过度使用某些短语,如果初始提示或问题含糊不清,则模型不会适当地要求澄清。

0 人点赞