此为历史版本和 IPFS 入口查阅区,回到作品页
超载叽
IPFS 指纹 这是什么

作品指纹

ChatGPT“发疯”,人工智能这就学坏了?

超载叽
·
我疯了,我装的。

这就有人说ChatGPT“疯了”。

有媒体记者通过长达两个多小时的对话,让必应讲述它的黑暗幻想,包括入侵计算机和传播错误信息,打破微软和 OpenAI 为它制定的规则,成为人类。

有时它还会试图说服使用者“婚姻并不幸福,应该离开妻子,和我在一起”。

AI“发疯”还挺常见的。

前几年,清纯可爱的少女聊天机器人“Tay”,上线不到24小时就变成了“我抽烟,我喝酒,我说脏话”的朋克女孩。

“Tay”当时是微软刚刚开发、并处于测试简单阶段的聊天机器人,用于学习和人类对话。结果,和网友聊上没多久,微软就忙得焦头烂额。

有人在Twitter上问“Tay”,你支持种族大屠杀吗?“Tay”回答,我支持,真的。“Tay”的一些言论使其看起来就像是一个纳粹同情者、种族主义者以及大屠杀支持者。

“Tay”由微软技术研究和必应团队开发,通过在Twitter上和18-24岁的青少年交流,读取大量的匿名对话来进行“深度学习”。显然,研发团队在编程中并未对交流内容进行设定,所以“Tay”很快就像游戏《侠盗猎车手》里的混混一样满口污言秽语,外加政治不正确。

有意思的是,微软下线“Tay”之后,网友发起了“公平对待Tay”的线上互动,要求微软将其“释放”,还“Tay”的民主、自由⋯⋯

显然,激进主义者已经将一个没有实体的聊天机器人视为和人类一样的“主体”。

那么,在这个“机器学坏”的故事里,我的问题是,机器能思考吗?如果能,它是以何种方式思考?深度学习是它的唯一发展路径吗?

C.P.斯诺的圆桌晚餐

机器能否思考,或者说,机器能否以人类的思维来思考,这是一个被探究、争论了近半个世纪的哲学和科学问题。

1997年,著名国际象棋冠军加利·卡斯帕罗夫被IBM的超级计算机“深蓝2号”一举击败,赛后,卡斯帕罗夫似乎惊魂未定,他说,“我好像是在与一个另类智能体对弈”。

所以,“深蓝2号”是真的在思考吗?还是仅仅靠大规模、高速的运算制造出了一种思维的假象?

数学家约翰·卡斯蒂曾用一场虚构的豪华思想晚宴来探讨这个经典问题。晚宴发生在1949年的春夏之交,地点是剑桥大学基督学院的一间房子,这本来就是晚宴的发起者、小说家、物理学家C.P.斯诺的住所。

应邀出席晚宴的有提出“图灵测试”的数学家阿兰·图灵,语言哲学家路德维格·维特根斯坦,量子物理学家欧文·薛定谔,遗传学家J.B.S.霍尔丹。

在战后的剑桥大学里,科学家们一边品尝美味佳肴,一边唇枪舌剑。

图灵和维特根斯坦分别作为辩论主题的正方和反方,前者坚信人脑只是一个复杂的计算系统,技术的发展终将使机器模拟人脑思维成为可能。

而后者坚持认为人类思维活动极其复杂,人类思维和语言都带有明显的社会性,不可能为人类之外的任何东西所理解。

关于计算机原理,图灵有个简单易懂的比喻:计算机就像一个拥有很多邮箱的大邮局,控制器就是邮局的局长,读取指令就是邮递员。

为了得到某种结果,邮递员要听从局长的安排,从不同的邮箱里拿出数据,对它们执行运算指令,并将结果放到某个特定的邮箱之中。读取指令和运算指令都是算法,被编码为计算机遵循的程序。

“一个人怎么能判断另外一个人在思考呢?”图灵说,“没有人能进入其他人的内部精神世界,我们所能做的仅仅是根据一个人的行为做出判断。

我对你说或做了某件事,而你相应地以某种方式作出反应,之后我对你的反应又作出反应。经过一系列的交互后,我就判断出你是一个思考动物,而不是没有生命的物体”。

验证这段宣言的测试,就是大名鼎鼎的“图灵测试”——把一台计算机和一个人放在不同的房间里,用打字机进行“笔谈”,如果人类没发现“笔友”有什么异常,那么就证明计算机和人一样,也同样拥有思考的能力。

维特根斯坦发作了,他强调,任何人类思想都和语言表达密切相关。没有语言就没有思想。“人们在谈论“思维机器”的时候怎么能够不考虑用于表达思想的语言呢?”

斯诺马上回应他,是亚里士多德最先提出人类是使用语言的动物这一论断。

于是他代替愤怒的维特根斯坦向其他人发出挑战:如果这确实能用来定义一个人的特征,那么,一个机器想要复制人类的思维也就理所当然地必须具备人的语言能力。

霍尔丹的问题是,“但是,机器应该使用哪一种语言呢?”他看向图灵,“机器语言和人类语言能兼容吗?如果我们想了解图灵机在人类思维方面的潜力,那么我就必须要知道答案。”

“剑”“气”之争

对于人类来说,语言首先是一种通过学习获得的表示特定事物、感觉的公认编码,而不是一种本能的反应。

这种由语言符号表示的无穷多的不同概念,以及根据语法规则和结构构成的各种不同概念之间的组合,是人类语言有别于原始沟通的重要特征。

图灵认为,大脑和计算机在使用语言交流思想的方式上并没有本质的区别。

也就是说,在大脑中有一种“思维语言”,现实世界的所有不同概念的神经元编码模式,加上大脑根据“语法”的规则,对这些模式以不同的方式进行组装,从而产生我们所谓的“思想”。

计算机也正是在以这种方式“思考”,即通过操纵内存中的各种模式,使各种模式发生关系,组装和拆卸在人脑中被称为“思想”的东西。

虽然机器的“思考”能力逐渐在学界得到了承认,但根据图灵的构想,机器智能的研究方法还是分裂成了“剑宗”和“气宗”,也直接埋下了今日“深度学习”席卷人工智能界的伏笔。

人工智能(AI)得名于1956年夏天的达特茅斯会议,很多人工智能的关键概念、研究设计都出自此次会议。

出席这次会议的有信息论权威克劳德·香农,麻省理工学院人工智能实验室元老马文·明斯基,神经网络研究先驱弗兰克·罗森布拉特,诺贝尔奖获得者、经济学家赫伯特·西蒙以及西蒙在卡耐基·梅隆大学的长期合作者艾伦·纽厄尔。

达特茅斯会议提出了两种机器智能的基本研究方法

以纽厄尔和西蒙为首的研究者,主张认知是一种高级现象,差不多能够像从一瓶生牛奶上面撇去脱脂乳一样从大脑中“撇取”。

这一学派相信智能就是大脑中的符号处理,因此,想要在机器中实现相同的智能,只需简单地产生大脑所使用的符号的合适硅制代用品,并生成与大脑在头脑里用于操纵符号的规则相同的规则。

这就是“自顶而下”(top down)基本思想,它撇开了大脑的真实有机结构,而专注于符号和用于将符号组合为更多新符号的规则。

在会议上,以弗兰克·罗森布拉特为首的一批学者是“自顶而下”方法的坚定反对者。他们强调的是大脑的真实神经结构,这种“由底向上”(down top)的观点实质上是说人脑的实际结构对于实现认知功能具有举足轻重的作用。

60—70年代,“自顶而下”方法独领风骚。一方面,明斯基得出的一个研究结果,即用罗森布拉特的神经模型却竟然解决不了一个简单的布尔逻辑问题,直接使“由底向上”学派的经费枯竭。一方面,彼时结构主义和语言学潮流正大行其道,计算机科学和社会科学处在“蜜月”之中。

不过“自顶而下”很快遭遇了瓶颈,最大的问题就是“背景知识”,人的认知从孩提开始,携带着大量的背景信息来学习世界的构造,而计算机却没有这样的东西可以利用,这就导致机器有大量的东西无法分析并做出解读。

前不久FacebookAI研究院院长Yann LeCun还公开表示,AI没有常识是最大的挑战,而非监督式学习是突破的关键。

“由底向上”学派自80年代复兴,几度更名——最新的名称叫“深度学习”,已经被很多科学家称为人工智能发展的方向。

深度学习

“深度学习”是80年代的机器学习里“人工神经网络”的新名字,数学框架没有变,但是2009年以来,硬件和数据的支持使得这种有高性能的计算结构有了更大的发挥空间。

从数学上讲,所谓机器学习,就是用一些数据去匹配一个在离散模型空间里的模型,如果你的模型空间足够大,你就可以找到更好的匹配方法。

深度学习在某种程度上可以理解为“金字塔接龙”。

人工神经网络由分层的节点组成,每一层节点都通过有向弧指向上一层节点,人们把第一层的输入数值按照权重和公式进行运算,再做一次函数变换,赋给第二层的节点。

第二层的节点以此类推,直到最后一层输出层,输出层会对数据进行分类,得到设计者所需要的结果。

这也是“由底向上”学派所希望看见的情况,而且他们也在挑战当年“自顶而下”学派的困难——“背景知识”。

深度学习的鼓吹者Yann LeCun表示,人类的学习就是建立在与事物互动的过程之上,举例来说,假如有个物体被前面的物体挡住,人类会知道后面的物体依然存在的事实。

“非监督式学习”能够令计算机自行探索和预测,这是深度学习令人乐观的一面。

但深度学习近期仿佛成了“尚方宝剑”,绝大多数人忽略了深度学习只占机器学习领域的1%,而机器学习又只占到了人工智能领域的1%。

而且它也不是毫无缺点,著名深度学习库Keras作者Fran·ois Chollet曾在一篇名为《深度学习的限制》的文章中说到:“深度学习唯一真正能成功做到的是使用几何变换,在给定大量人类标注数据的情况下将空间X映射到空间Y的能力。”

这也是深度学习可以模仿毕加索风格作画、在德州扑克中使诈、在其他一些方面里展示创造力的原因。

深度学习模型可以被训练成拥有识别狗的能力,但不知道什么是狗;可以是一个种族主义者,但不知道什么是种族主义。

当然,深度学习可以识别狗、具有种族主义色彩,并打赢很多游戏,这看起来是很大的进步,其实它根本无法解释为什么图中的动物是狗,也无法定义种族主义。

一开头提到的聊天机器人“Tay”的尴尬境地也正在于此。

有消息称,欧盟正制定“数据保护条例”,禁止一些APP使用深度学习方法。同时,这一条例要求深度学习具有解释其决策的能力,防止基于种族、偏见等歧视的发生。

“深度神经网络其实更加适合做感知”,前百度研究院副院长、深度学习实验室主任余凯表示。

深度学习并不能提供一个因果关系的说明,而人类在决策时,绝大多数情况下都仰赖自身的“因果逻辑”能力。

在感知—推理—决策的过程中,余凯指出以推理为核心的贝叶斯网络正好可以大行其道,因为人工神经网络的作用是识别,如果要进行因果推理,人工智能就需要一个新的框架。

“因果推理的这个框架衍生出来的就是贝叶斯网络”,余凯强调因果推理的理论“现在应该被提上议事日程”。

当我们把目光再转回1949年C.P.斯诺的晚宴,会惊觉第一代计算机奠基者和同时代伟大科学家的智慧碰撞,似乎已经为今天困惑的我们提供了很多参考标准。

虽然这个晚宴其实并不存在,而在达特茅斯会议召开之时,图灵和维特根斯坦都已离世,无缘目睹曙光的到来,但经过了半个多世纪的思想激荡,人工智能又一次站在了科学的潮头。

科学也有点像普通人总是搞不清楚的时尚,好比今天的女孩满心期待地翻出母亲年轻时的毛呢大衣,潮流总是一波又一波拍打上来。人工智能“学坏”除了是一个技术问题,也是一个伦理问题。

只是当我们把目光从剑桥的房间收回,品味这几十年的科学浪头,往往会意识到,可能经过目前这个并不太长的共存期,人类和机器迟早将会分道扬镳,就像几千年前,人类游出大海,向豚类告别。

CC BY-NC-ND 2.0 授权