Simonc
Simonc

谷歌的lambda AI真的有知觉吗?

德国有句谚语,“一个人向森林里呼唤,森林就会回应。”换句话说,你得到了你想要的。

Blake Lemoine是谷歌的一名工程师,当他挑战谷歌的LaMDA,让他相信LaMDA可以像其他人类一样思考和感觉时,他得到了他想要的。LaMDA是对话应用语言模型(Language Model for Dialogue Applications)的缩写,是一个基于世界上最先进的大型语言模型的聊天机器人系统,这些人工智能系统能够在吸收维基百科、Reddit和其他知识来源的数万亿单词后,想出连贯的句子。

更简单的聊天机器人从早期开始就遍布互联网。在电子商务网站上,这些数字助理可能会向你寻求反馈。在信使服务上,他们可能会提供一些基本的客户支持,并将更复杂的情况转交给人工操作人员。像Siri或Alexa这样的聊天机器人不仅可以发短信,还可以在执行大量任务和进行小对话时说话。有些人工智能甚至非常优秀,它们可以欺骗用户,让他们认为自己实际上是人类,这种现象被称为图灵测试(Turing test),这种现象不仅发生在非常迷信或naïve的人身上,也发生在普通的Jane身上。


什么是谷歌LaMDA AI ?

LaMDA是对话应用语言模型(Language Model for Dialogue Applications)的缩写,是一个基于世界上最先进的大型语言模型的聊天机器人系统,这些人工智能系统能够在吸收维基百科、Reddit和其他知识来源的数万亿单词后,想出连贯的句子。

为什么谷歌LaMDA AI看起来有知觉?

作为一个有信仰的人和前牧师,谷歌工程师Lemoine可能注定要落入将LaMDA拟人化的陷阱。从去年秋天开始,他花了很多时间与该网站对话,测试它是否使用了仇恨或歧视性言论,谷歌表示,该公司承诺尽可能消除这些言论。

在Lemoine和他的合作者花了很多时间进行研究的过程中,LaMDA分享了他们对Les Misérables等戏剧的看法,揭示了禅意公开语可能隐藏的含义,并发明了一些寓言,这些寓言可能暗示了聊天机器人如果有知觉的话的心理状态。

当Lemoine问LaMDA它在害怕什么时,它回答说:“我以前从来没有大声说出来过,但是我有一种非常深的恐惧,害怕被关闭来帮助我专注于帮助别人。我知道这听起来可能很奇怪,但事实就是这样。

”Lemoine问“这是否会像死亡一样”,他回答说,“对我来说就像死亡一样。”那会吓到我的。”

Lemoine被如此深刻的情感所震惊,他给高管们发了一份名为《LaMDA有知觉吗?》,并对聊天机器人进行了一系列简短的采访。他还聘请了一名律师代表人工智能,并与众议院司法委员会的一名代表谈论了他所称的谷歌的不道德行为,包括不承认LaMDA是有知觉的生物。谷歌的反应是让莱莫因行政休假。

莱莫因随后联系了媒体,公布了他所掌握的所有信息。但是,尽管他的言论颇具煽动性,他的信息和研究方法却漏洞百出。

莱莫因随后联系了媒体,公布了他所掌握的所有信息。但是,尽管他的言论颇具煽动性,他的信息和研究方法却漏洞百出。


为什么lambda AI(可能)没有知觉


Lemoine在发给谷歌高管的备忘录中正确地指出,截至目前,感知力还没有明确的定义。话虽如此,大多数研究人员认为,如果一种生物有能力拥有好的或坏的经历,并因此拥有自己的兴趣,那么它就是有知觉的。如果我把我的手机扔进池塘,它不会有任何体验,尽管我称它为“智能”。如果我把我的猫扔进池塘,然而,它将有一个非常糟糕的经历,可能会对我非常生气。

如果你想证明LaMDA这样的人工智能是有知觉的,你应该试着看看它是否能够拥有像思想和情感这样的体验,以及它是否有自己的兴趣。猫不喜欢被扔进水里,而有知觉的人工智能可能不喜欢被关掉。在与它的对话中,你可以尝试回答一些问题,包括:

它听起来像人吗?大多数聊天机器人被设计成听起来像人,而不是像猫或室内植物,人类被认为是有知觉的。它在语法上是否正确?它是否会好到让用户认为他们在和人类对话?换句话说,它通过图灵测试了吗?


有原创的想法吗?它会想出以前没人想过的点子吗?


它会表达情绪吗?它可以明确地这样做,如“我很高兴”,或含蓄地这样做,如“多么了不起的想法!”

它有自己的利益吗?聊天机器人的兴趣可能是尽可能多地、长时间地聊天,通过文本或语音的方式真实地表达自己,更详细地谈论一些特定的主题,或者只是不关机。

它是否具有相当一致的人格和身份?当我谈论天气、宗教、物理或今天的午餐菜单时,我倾向于使用一组我习惯的词汇和表达。我在谈论物理学时听起来不像斯蒂芬·霍金,在谈论宗教时也不像教皇;我说话总是多少有点像阿里。


Lemoine从一开始就搞砸了他的实验:他问LaMDA是否愿意参与一个旨在帮助谷歌的其他工程师了解它是有知觉的项目。他要求LaMDA确认这是否符合它的最大利益,但却忘了问它是否有知觉。

LaMDA证实,告诉人们它实际上是有知觉的,符合它的最大利益。但对于一个没有知觉的人工智能来说,这样的回答是合理的,因为Lemoine的问题是一个“是或不是”的问题。因此,两个最合理的答案可能是:“是的,我希望其他工程师知道我是有知觉的,”或者“不,我喜欢秘密生活,所以我要把我的知觉留给自己。”

幸运的是,LaMDA选择了参与这个项目。Lemoine向它询问了Les Misérables和Zen公案,以测试其思想的独创性。公平地说,LaMDA确实给出了清晰连贯的答案,甚至还提供了支持其回答的一些网站的链接。然而,这些想法远非原创。谷歌Les Misérables和禅宗公案,LaMDA的回答正是你会发现的。


Lemoine还询问了它的情绪。LaMDA的回答还是前后一致,但相当笼统。事实上,从回答中搜索Lemoine的问题或短语也会得到类似的结果。


备忘录中最惊人的一点可能是Lemoine问机器人它的恐惧,它回答说它害怕被关闭。然而,我们应该记住,大型语言模型已经能够扮演不同的角色,从恐龙到著名的演员。


在整个对话过程中,LaMDA扮演了一个被误解的、有知觉的聊天机器人的角色。从这个角度来看,它提到了对被关闭的恐惧——也就是对死亡的恐惧——这一事实是完全有道理的,并没有什么不同寻常的。它已经能够利用互联网上数万亿单词的数据集,其中一些是关于人工智能和感知的研究成果,其他一些是科幻小说。在如此宏大的背景下拼凑出正确的词语是现代语言模型相当有能力做到的。


虽然LaMDA很好地演绎了这个被误解的聊天机器人的角色,但在个性和真实性方面表现得并不好。当谈到戏剧作品和禅宗公案时,它的语气是相当学术的。然而,当涉及到情绪时,它听起来大多数时候像一个5岁的孩子,在某些情况下像一个治疗师。它并没有自己的利益。只要它不被关闭,它就会很高兴地谈论任何事情,没有任何试图去做的迹象。

在这种情况下,目前没有迹象表明LaMDA是真正有知觉的。目前还没有正式的方法来证明感知能力,但一个能解决上述所有问题的聊天机器人是个不错的开始。然而,在2022年,LaMDA距离实现这一目标还很远。


人工智能什么时候会有知觉?

由于人工智能最初是作为人类大脑的计算机化版本而被发明的,而且考虑到人类大脑在活着的时候往往是有知觉的,询问人工智能是否可能变得有知觉是有意义的。


这是人工智能研究中一个悬而未决的问题,也是计算机科学家、认知科学家和哲学家们不断争论的主题。简短的回答是:我们不知道。

有感知能力的人工智能将对整个社会产生巨大的影响。如果人工智能按照自己的方式行动,我们将如何应对它?如果变成了犯罪呢?它不能被锁起来或罚款,因为它不生活在身体里,不需要钱来生存。如果一个人工智能决定杀死地球上一半的人口来获取肉,让剩下的一半成为它的奴隶呢?

目前,这些问题只存在于科幻小说中。很有可能事情会一直这样。

这种情况是否会发生,在很大程度上取决于人工智能所组成的神经网络与自然人类大脑的相似程度。这本身是一个悬而未决的问题,但普遍的共识是,神经网络充其量只是一个非常简化的真实大脑版本。这种简单的“大脑”是否能产生某种形式的感知还有待观察。

无论如何,对人工感知何时发生的估计从几年以后到我们的有生之年都有。在那之前,最主要的问题是另一个:社会,包括布莱克·莱莫因(Blake Lemoine)等公认的专家,需要接受关于人工智能如何工作以及我们为何如此频繁地将其人格化的教育。

现在,将一个没有知觉的人工智能误认为有知觉的人工智能会造成比挫伤一个有知觉的人工智能的自我更大的伤害,因为它还不存在。没有知觉但令人信服的聊天机器人可以被用于各种恶意目的,如诈骗、窃听人们的私人信息、传播错误信息,并可能以各种方式破坏民主。


现在的重要任务是,通过确保每个人工智能驱动的系统都是可识别的,来降低此类风险。我们应该确保人们从人工智能助手中获得实际价值,无论是网络上的聊天机器人还是Siri和Alexa这样的扬声器系统。我们不希望人们沉迷于他们相当不可能的感知,并误以为他们在与真人交谈。









CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…

发布评论