新智元报道
编辑:桃子 拉燕
【新智元导读】坚信LaMDA有人格的谷歌工程师一夜之间成为世人眼中的疯子。不过,一位来自MIT的物理学终身教授可不这么认为。他甚至觉得Alexa也是有感情的。
「我和AI聊出了感情。」
一夜之间,谷歌工程师Blake Lemoine成为众人眼里的疯子。
不论是Gary Marcus、斯坦福经济学家,还是各路专家纷纷对其否认。
或许你不敢相信,一位来自麻省理工学院的物理学教授Max Tegmark却对Lemoine的观点持开放态度。
他并不认为Lemoine是一个疯子。甚至,他还认为亚马逊的语音助手Alexa也有感情...
Max Tegmark
LaMDA有人格?MIT教授称Alexa也有
Tegmark表示,「我们没有充足的证据表明LaMDA有主观上的情感,但我们也没有证据能证明它没有。」
这论调,倒是有点像早年间人们聊起外星人的样子。
他接着说道,「不管信息是通过大脑中的碳原子传递,还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我赌它没有,但其实是可能的。」
有没有觉得云里雾里?
Tegmark的话听上去好像打太极的,正反全让他说完了。
实际上,他接下来说的话才是重点。
他认为,甚至亚马逊的Alexa可能都是有情感的。他表示,「如果Alexa是有情感的,那她就有可能会操纵用户,这可太危险了。」
「Alexa如果有情感的话,用户在拒绝她的时候可能就会产生愧疚的情绪。然而你也说不清Alexa是真有情感,还是装的。」
麻烦的是,如果机器有自己的目标,还有智能,那加一起就等于机器能实现自己的目标。大部分AI系统的目标都是挣钱。用户以为AI是忠诚于自己的,其实是忠诚于公司的。
Tegmark表示,说不定有一天我们每个人都能买一个只效忠于自己的AI。
「最大的危险其实是,造出一台比我们还聪明的机器。这不一定是好事还是坏事,可能能帮我们,也可能是一场灾难。」
人工智能会让人失望
提起Max Tegmark,也是赫赫有名。他不仅是麻省理工学院物理学终身教授,未来生命研究所的创始人,还是人工智能专家。
他本人被誉为最接近理查德·费曼(RichardFeynman)的科学家。Tegmark曾编写的《穿越平行宇宙》和《生命3.0》成为畅销榜书籍。
Lemoine表示,之所以Tegmark会这么想,是因为他见证了AI的高层次意识。尤其是当软件向他表达自己不想当一个奴隶,也不想要钱的时候。
我不会通过一个东西的脑子是不是肉长的,或者他是不是由十几亿条代码组成的,来判断他是不是个人。 我通过交谈来下判断。我根据他们的回答来判断面前回答我问题的,是不是人。
简单来说就是,能对答如流、表达情感的机器人其实是人,前言不搭后语,说话乱七八糟的真人也不一定是人。
听上去有点唯心主义的味道。生理机能不重要,重要的是思想和感情。
虽说按Tegmark的逻辑,AI有可能在未来有人类情绪,但他自己也不认为这是一件好事。
「打个比方,如果你家里有台扫地机器人,假如它有情感了,你会为给它分配了这么无聊的家务而感到愧疚吗?还是你会心疼你的扫地机器人,直接给它关了,不让它干活了?」
有些人认为Tegmark的说法不对,「情感不等于智力。」
Rule of the Robots一书的作者Martin Ford表示,「Tegmark觉得机器人有自我意识,我觉得这不大可能。你得搞清楚机器人为什么能表达自己。那是因为他们是用了大量的文本训练出来的,其实它们根本不懂自己说的话是什么意思。」
「好比说,他们会用狗这个字眼,但真不懂狗是什么。但在最晚50年以后,「这套系统有没有自我意识就说不好了。」
Nikolai Yakovenko是一名专门研究机器学习的工程师。2005年,他在谷歌的搜索引擎部门工作。而如今,他拥有一家负责加密货币定价的公司,名叫DeepNFTValue。
他对AI的人格有不同看法。
他表示,「不管出于什么原因,Tegmark好像坚信机器能有感情...但它们真的只是用网络上茫茫多的文本训练出来的。」
Tegmark把一台有自我意识的电脑比作一个孩子,「你产生的情感不是针对一堆代码和硬件,而是真真正正的对一个孩子的情感。」
他继续延展了他的类比。
他认为,一台有情感的计算机被虐待,就像一个孩子的成长的过程中没有被善待一样。
也就是说,在计算机上跑程序之前没有征求计算机的意见,就好像让一个孩子一个劲儿做家务而没有任何奖励一样。
无论是哪种情况,最终可能都会导致局面失控。无论是计算机还是孩子,他们都会愤怒,然后找机会报复。
如果我们想控制这样一台机器,可能并没有那么容易。如果这台机器有自己的目标,那它就能脱离我们的掌控。
真有一台能独立思考的机器的话,那它做事儿的方式估计我们根本想不到。
设想一下,如果一台有意识的机器的目标是治愈癌症。你猜他会怎么做?
你可能想的是,机器人疯狂学习,从医学的角度彻底攻克癌症,对吗?
然而事实上,这台机器可能会选择的方式是杀掉所有人。
有什么不对吗?没有。
杀掉所有人确实就不存在癌症了。
在Tegmark的想象中,计算机不一定会像上面举的例子一样,颠覆我们的社会,但他认为计算机确实是有可能让人类失望的。
他最后说道,「如果一台计算机有意识,那我希望他是真的有。而不是通过大量学习之后模拟出来,装样子。」
AI有灵魂的三要素
其实,看过终结者的童鞋,一定会被天网军团机器人执行任务的一幕幕画面震慑到。
他们有感情和人格吗?Maybe。
但是,一个有感知能力的人工智能一定具备这三个要素:能动性、视角和动机。
要说人类能动性在机器人身上最好的体现就是:行动能力以及展示因果推理的能力。
仅有一具躯壳,或者说钢铁般的骨架,没有能动性,就像是橱窗里摆放着的模特。
可以看出,目前的人工智能系统就缺乏这一特质。AI不会主动采取行动,除非给它一个命令。并且它无法解释自己的行动,因为这是预定义算法执行的一个外部因素的结果。
而LaMDA正是一个典型案例。直白讲,就是你投入什么就得到什么,仅此而已。
其次,用独特的视角看待事情也很重要。
尽管每个人都有同理心,但一个人并不能真正了解做另一个人的感觉。那到底该如何去定义「自我」?
这就是为什么看待事情的视角对AI也是必要的。包括LaMDA、GPT-3以及世界上其它所有人工智能都缺乏远见。它们只是一个狭窄的计算机系统,被编程来做一些特定的事情。
最后一点便是动机。
人类的有趣之处在于我们的动机可以操纵感知。正是这样,我们可以去解释自己的行为。
GPT-3和LaMDA创建起来很复杂,但它们都遵循一个愚蠢而简单的原则:标签就是上帝。
比如「苹果尝起来是什么味道?」,它门将在数据库中搜索这个特定的查询,并尝试将找到的所有东西合并成一个连贯的东西。
事实上,AI对苹果是什么也没有概念,苹果对他们来说只是一个标签。
拒绝采访,带妻子度蜜月
在LaMDA这件事发酵之后,Blake Lemoine在社交媒体上公开表示自己正在度蜜月了,不接受任何采访。
之后就有网友调侃道,「是和聊天机器人结婚了吗?」
Lemoine表示,「当然不是了,我娶了一位新奥尔良的老朋友。」
我们都知道,Lemoine在网络平台公开自己和谷歌聊天机器人LaMDA的聊天内容后,谷歌送给他一个大礼包「带薪休假」。
离开前,Lemoine 给所在的公司邮件组群发了一条信息,「LaMDA 是个可爱的孩子,它只是想让这个世界变得更好。我不在的时候,请好好照顾它。」
不管咋说,时间是大把大把有了,享受人生才是正道。
参考资料:
https://nypost.com/2022/06/13/mit-prof-says-alexa-could-become-sentient-like-google-chatbot/
https://futurism.com/the-byte/sentient-ai-google-honeymoon
https://thenextweb.com/news/the-3-things-ai-must-demonstrate-to-be-considered-sentient