克雷西 发自 凹非寺 量子位 | 公众号 QbitAI
OpenAI开发者大会后不久,它的最强竞对Claude也宣布推出了重磅更新。
更新后的Claude 2.1,上下文长度直接翻番到20万,重新超过了GPT-4。
根据官方通告,Claude 2.1版本的API已经上线,网页版本也已经完成升级。
那么,这次更新具体都有哪些内容呢?
上下文长度达20万
最重磅的一项更新,是上下文的增加——原来的10万token直接翻倍,来到了20万。
粗略估计,20万token约合15万英文单词,相当于能一口气读完一本英文版的《百年孤独》(14.5万词)或者是500页文档。
前一代的10万上下文长度,在发布之时也是超越了同时期GPT-4的64k,实际上长度一直以来都是Claude的一大卖点。
而不久前的OpenAI开发者大会上,GPT-4推出了128k上下文的版本,很快就被Claude的200k追赶了上来。
此外,Claude官方的通告中说,网页版能上传的文件大小也增加了。
不过我们实际查看发现,网页版的提示尚未改变,还是不超过5个文件,且每个不超过10MB
目前,20万的窗口长度已在API中可用,网页版则需要订阅Pro版本(每月20美元)才能用到。
除了长度的增加,Claude 2.1的回答准确率也变得更高了。
幻觉现象减少2倍
和2.0版本相比,Claude 2.1无论是用自己的知识回答问题还是通过RAG阅读文本,幻觉现象都有所降低。
具体来说,针对复杂的事实性问题,2.1版幻觉现象比2.0减少了2倍。
研发团队设计了大量这样的问题,发现Claude 2.1更倾向于拒绝回答而不是给出错误答案。
不过也正是这一点,引发了众多网友的吐槽。
一名专门研究大模型攻击的软件工程师在