文/朱季谦
谈到最近突然大火的chatGPT,不禁想以一个马尔斯克式的开头写下一句话,数年后,当有人问起我,你记忆里的2023年,是怎样的一年?
我想,那时我一定会记得,2023年的开端,是由一个叫做chatGPT的Ai聊天机器人燃开的。
随着时间的流逝,这一类型的产品一定会呈井喷式涌出,彼此互相厮杀,最后剩下的,是那在血腥晨雾当中缓缓走出来的幸存者。
混乱当中,有一点是毋庸置疑的,那就是作为普通人,将会接触和使用到更多的Ai产品。当这类产品逐渐走进普通人的生活,又会激起怎样的问题水花呢?
我曾经在编程过程使用chatGPT时,出现了这样一个问题,这个问题让我不禁思考到,当AI领域逐渐“新常态”,如何确定自己没有被Ai欺骗呢。
这问题是这样的,通过new SXSSFWorkbook(xxx).getSheetAt(0)得到一个SXSSFSheet,这个SXSSFSheet对象里的shiftColumns应该怎么用呢?
你看,chat GPT一本正经地给出了一个答案,咋一眼看下去,这代码没什么问题?
但是,如果你看过org.apache.poi源码的话,就会发现,即使到了5.x版本,SXSSFWorkbook对应的SXSSFSheet里这个shiftColumns方法都没有做实现,若是按照chatGPT的方式调用,会直接抛出一个UnsupportedOperationException异常——
代码语言:javascript复制@NotImplemented
public void shiftColumns(int startColumn, int endColumn, int n) {
throw new UnsupportedOperationException("Not Implemented");
}
复制代码
这一刻,我就知道了,chatGPT说了谎,而且是一本正经地在说谎,可见,在chat GPT吹牛逼方面,在场的各位都是弟弟。
这时,我告诉chat GPT:“但是SXSSFSheet的shiftColumns这个方法并没有做实现呢。”
它立马会告诉你,它刚刚回答错了,然后再给出一个接近答案的回答——
因此,在这类问题面前,若自己没有具备一定识别答案的能力,很容易就被它忽悠了。
这种现象,有一个比较专业的术语,叫“Ai幻觉”。
简单而言,就像汽车会出现故障一样,Ai同样会出现错误或者偏差,导致生成不准确、错误甚至荒诞的结果。就如前面我经历的案例一样,会给出一个看似正确实则错误的答案,让过度信任Ai的人产生幻觉,将事实上错误的答案当作是正确的。
在生活和工作场景下,这类影响可能算不了什么,顶多写出一手的bug、挨老板一顿臭骂,但是,若日后在自动驾驶、医疗健康方面引入Ai,针对这类场景而言,一旦出现Ai幻觉,可能就会是致命的。
例如,若在一些医疗诊断或治疗场景过度信任依赖Ai,一旦出现错误的诊断治疗,轻则延误病情重则导致病人错过了最佳治疗窗口而失去生命。
除此之外,在自动驾驶方面,同样存在类似的隐患:
- 传感器误判:由于某些原因(例如天气、路况等),自动驾驶汽车的传感器可能会错误地识别道路标记、障碍物或其他车辆,从而导致车辆的不恰当行为或交通事故的发生。
- 算法漏洞:自动驾驶汽车的控制算法可能存在缺陷或欠缺关键数据,导致其无法正确处理某些情况或迅速做出反应,从而引发危险事件。
- 数据偏差:自动驾驶汽车的训练数据可能存在偏差性,导致模型无法准确地识别和响应某些场景,从而出现意外的行为或错误的决策。
当AI领域常态化,面对“AI幻觉”,我们该怎么办?
不妨大胆预测一下,当一项新的技术出现时,必然会带动更多相关联的技术。
我忽然想到,目前互联网行业的风控技术,日后是否可以在Ai领域进化成能识别Ai的幻觉欺诈呢?