看一下这个标题,分为三个重点。这就是目前chatGPT引发的AI潮最新的事态了。
一.国内规范
关于国内规范就算不查应该也都能猜到大体内容了,所以大家感兴趣的去百度即可看到全部。
本文就分析一下这个事情,首先人工智能大预言模型的到来势不可挡,堵不如疏,所以出台具体的规范合情合理,基本大家早都预料到了。那么这对我们的国内目前商业化有什么影响呢?对我们普通测试工程师又有什么影响呢?继续听。
国内目前雨后春笋般的ai爆发,在规定时间内,必然要加紧进行规范,否则要付法律责任了。这对那些有自己模型和数据的正规大厂来说小菜一碟没有影响,不过对那些直接搬运境外gpt接口的套壳工具来说就有点难受了,在外层进行拦截和干扰终归漏洞百出,有心者依然可以钻一些漏洞来让这些套壳软件主动去作死,所以猜测后面会有大批这种割韭菜软件倒闭。对我们测试工程师来说,后续的测试任务中会加入对ai的法律规范测试,这就需要我们熟读这些规范,并且想尽办法来诱导ai去违规,来测试ai的可靠性了,关于这个测试方法,并不是传统的敏感词过滤那么简单。ai大语言模型的测试会很复杂,各种你想不到的测试点,所以大家做好心理准备,一旦线上出现法律事故,恐怕你这个测试员就要背锅了....
二. 问题提示进化
之前好多机构和老师,整理出来最佳的gpt使用方案,比如你的问题要具备背景/目的/过程等需求描述....
然后这些方案在一些公开课中出现,甚至出现在了一些平台上,作为整理和分类。不得不由衷佩服这些先驱者,不辞辛苦,摸着石头过河。只可惜,紧接着不到一个月,一些自动化的问题提示工具和算法就出现了。这让你在使用gpt的时候,问它一个问题后,这种工具可以自动帮你不断的追问和细化问题,榨干整个gpt的数据库。这样看来,似乎我们不用辛苦去学习提问技巧,也可以很好的用起来gpt了。
不过这个现象让我虎躯一震,ai的技术发展的速度太快了,这就会导致很多我们辛苦刚刚学完还没用的技术转瞬之间就变得一文不值。看来在面对ai时,我们要保持理智,沉得住气,静等稳定的局面出现。
三. 本地化小模型
那些超大的大模型上,在商用的时候,很多公司其实不太敢用的。一来能创造的价值不太稳定,回答的天马行空且过于广泛,还没有自己公司的品牌特性和风格,无法准确的回答用户的问题,比如你公司的一个智能硬件产品,用户提问某个功能的问题时,公共的大模型肯定是无法清楚这些的。
更主要的是大数据安全问题,一个公司的app,如果全部使用某个公共的AI语言模型,那所有用户的行为习惯,敏感提问,数据量化,各种画像模型等等相当于就全公开了。
那么,最靠谱的就是类似于gitlab/jenkins/jira这种可以本地部署的隔离环境模型,不但可以用自己公司的数据进行训练,回答专业性的问题。还可以保证了安全。
巧合的是,当我刚刚有这个想法的时候,市面上真的出现了若干类似chatGPT的小模型,支持本地部署,支持本地训练。要不是要求的机器性能太高,我都想给咱测试开发干货粉丝弄一个专属的ai了。(一般要求显卡至少3090ti) ,虽然这些小模型的能力等等远不如公共的chatGPT等,但很有可能这就是后续真正商业化的大道。而chatGPT除了作为一个超级搜索服务于普通民众外,恐怕没法去和遍地开花的小模型去竞争商业市场了。这之后我预测,要么chatGPT和国内的大语言模型都会立即研发可离线部署的小模型,要么就是被某个性能靠谱的离线模型彻底打败并取代。