对生成式AI发展的反思
去年底「生成式AI」横空出世,惊涛拍岸:让许多人惊奇,也让更多人惊惧,因为科技发展的潘多拉之盒,终于被打开了!
科技发展跨入这一深水区后,最戏剧性的是谷歌负责「人工智能深度学习」的副总裁辛顿(Geoffrey Hinton),日前宣布辞职以明志的事件:他不只对生成式AI发展的可能失控表达强烈忧虑,甚至还对自己过去曾参与这方面研究的事实,做出了几近「放下屠刀」式的忏悔。
面对这一「狼来了」的警讯,包括马斯克在内许多大神级科技领袖则出面疾呼:生成式AI的研发应暂停6个月,等到人类想清楚该如何应付这个具有致命吸引力的潘多拉魔兽后再作打算。这一呼吁也获得了全球科技圈与人文社会圈众多精英的广泛响应。
人工智能非属我的专业,但因长期关注决策行为与思考模式等议题,所以对于「越来越像人」的「机器人科技」的发展,也确有许多心有戚戚焉的警惕。
AI研究应是滥觞于1940年代,MIT教授维纳(Nobert Wiener)所提出的仿生控制理论(cybernetics) — 这是中国大陆所称「老三论」中的控制论。 80多年来AI的发展历程屡仆屡起,直到近年走上以自然语言作为人机介面的生成式AI(GPT, generative pre-trained transformer)的应用之路后,才骤然闯入了人类日常生活与工作的领域,许多人也因此预期它将从此对人类的传统三观(世界观、人生观、价值观)产生难以估计的影响。
近年科技产品对人类文明具有形塑典范效应的著例是iPhone:它从2007年横空出世之后,迅即把4到84岁的人类通通都一起突变成了「滑世代」与「低头族」。而生成式AI所将带来的人类文明典范变迁,许多人认为会远比iPhone所形塑的人类行为新模式,更为深层、也将更具有颠覆性。
我自己的学术研究与AI发展最接近的一次,是投入1980年代管理领域decision support system(DSS,决策辅助系统)的教研潮流。当时PC虽萌芽未久,但就有人认为可在其中建立「资料库(存放解题所需的数据)」、「模型库(存放解题有关的演算法)」,再加上「人机介面」,使用者就可利用「如果…会怎样(what-if)」的询答方式,借助PC记忆与运算能力的辅助,快速获得问题的答案。在这一股教研潮中,有人还进一步将归纳决策规则(rule)所建构的「模型库」发展成所谓的「专家系统,expert system」,来反映它取代人类专家的可能性。
但是,这股教研潮不久就偃旗息鼓,主要原因有二:(1) 当时的电脑软/硬体科技,不论是PC或主-从(client-server)系统的储存与演算能力都还远远不足,更何况大数据的大环境也不存在,所以DSS中资料库与模式库的功能都只还是理论上的理想,并没有客观的实现条件。 (2) 更根本的是,当时DSS研究者对人类决策行为的许多细节,例如对占实际决策问题比例最大的「非结构化,non-structured」或「无法程式化,non-programmable」等问题的真实发生过程,了解还非常有限(这使所谓的「模型库」功能极度贫乏)。于是在对人类决策本身都还没搞清楚的情形下,就想利用电脑去辅助人脑做决策,是显然的本末倒置与虚而不实。
不过,专家系统的概念后来仍然成功导入「电脑辅助设计以及制造,CAD/CAM」等这些高度「结构化、可程式化」的应用领域;例如,近年关灯无人工厂的实现可说是这种「规则基础人工智能(rule- based AI)」的极致应用。
要理解传统的「规则基础AI」与生成式AI的不同,还需从人脑的思考方式下手。
人脑的思考方式一般分为两类:应考式与办案式。应考式思考是在已知的封闭性知识世界中去寻找问题的答案,这也是传统教育与训练的重点。而办案式思考则是根据有限的已知讯息,摸石子过河,在开放性的未知世界中探索答案、并验证答案— 这是创意、创新工作者的思考模式,也是人类认识未知世界,拓展新知识的思维模式。
虽然传统以遵守设计者所预设规则来演算的AI,已经可凭借强大的记忆体与超高速演算能力,轻易击败人脑(例如Deep blue可击败国际级围棋高手);但这终究只发生在封闭性的已知世界中。而生成式AI则根据讯息铺陈的文意(context),来猜断最可能下一句话的方式,来「生成」它对问题的回应;这已属人类之间对话的语言学机制,而且这种机制还可通过事前训练,来校准回应的精准度。因此,具备这种能力的AI就有可能去面对资讯不完整的开放性世界,去生成一个逻辑上「言之成理」(但未必「言之有理」)的答案。
有人说,人与电脑的差异在于:人能处理「无中生有」,亦即「从0到1」的问题;而电脑的强项则是处理「从1到n」的问题。但生成式AI面世后,这一说法恐将动摇。换句话说,如果认为直觉、创意,乃至顿悟,甚至通过认知升维涌现出高瞻远瞩的愿景(vision)等,是身为万物之灵的人类所独具的能力,也是人类智能上所据有的最后一座堡垒的话,那么生成式AI代表的就可能是「被我们开城迎入山海关的清军」,或是「被我们自动拆墙、拉入堡垒的特洛伊木马」。而未来一代代软硬体技术的更新,也必将使这种今天还「不尽完美」经由创意生成的「人工」智能,日益接近甚至有朝一日超越「原生」的人类智能。
人类该如何因应这一即将发生的新现实?前面提到的谷歌退休副总裁辛顿就提醒大家:这已不是10年、20年后的课题,而是在3年、5年内各行各业就必须面对的燎原之火!
要认识生成式AI究竟打开的是什么样的潘多拉之盒,可以从预想即将出现的「教学」场景下手:将来每个学生只要拥有操作生成式AI的能力,就如同身边养了个具有超能力的「书童」,这时老师所出「属于封闭性已知世界的任何问题」都可能再也考不倒学生,因为「智能书童」会帮主人找到有关问题的「标准答案」。甚至,即使老师出的是「开放性没有标准答案的问题」,学生仍然可以借助「书童」去交出一个有模有样的答案。
面对这种场景,老师就需思考:自己出的题目究竟在考谁?如果答案都是「枪手」写的,老师就需进一步思考:学生对于交上来的答案内容,究竟真的了解了多少?这两个质疑,不论老师出的题目是属「封闭性有标准答案的问题」或是「开放性没有标准答案的问题」都同样存在。
有鉴于生成式AI流行之后所将产生难以预测与控制的未来,所以有一种反应是「禁止使用」:据说义大利与中国大陆就发布了这种禁令。但我认为生成式AI是个潘朵拉盒子,一旦打开恐怕就关不起来了,甚至它还会像病毒一样,以自组织的方式、用各种各样不同的形式渗入人们日常生活,以及各行各业的活动中。对于这种已经「回不去」的存在,禁用只会导致更难管理的「黑市」现象。所以与其去做这样那样的无效禁止或闪躲,还不如采取「直球对决」模式去认清问题本质,然后再来务实因应。
回到教育问题,我认为将来的智能机器人将颠覆人类数千年来的基本「教、学」模式。因为未来的学生身边有了「智能书童」这一枪手后,教导学生「如何善用自己的功能强大的随身书童,帮忙自己求取新知与解决问题」将会变成未来教学的重点。以这个思维为起点,就会拉出以下的系列问题:
- 如何教学生「问问题」将会变成未来教育的重中之重。因为「智能书童」功能上是以被动应答的方式来发挥作用的。
「提问」与「解题」向来就是两个不同层次的功夫— 以2C品牌订定产品规格下单给2B代工生产的过程为例:前者性属提问者、后者性属解题者;在收益分配上,前者以价值分润(囊括8成利益),后者则按成本分润(争食剩余2成利益)。
「问问题」的能力,考验的其实是人的思考能力(对象包括已知世界与未知世界的问题)。 DSS 时代做对的一件事是将人-机互动模式定义为「What-if」的询答模式,从而反映出由人掌握主动权的人本精神,电脑只扮演辅助人类思考与决策的角色。而最近微软所推出的生成式AI服务,特别取名为「副驾驶,Co-pilot」,应该也是企图反映人-机互动过程中,以人为主的角色关系。
教育要以普遍训练学生的思考能力作为重点,将是远比传统教育更吃重的工作。因为这是「教人钓鱼」的工作,工作会比传统「喂人吃鱼」的教育方式要复杂与困难得多。 - 如何协助学生对「智能书童」所提供解答具备必需的理解力?又该如何让学生对所接收资讯的真伪、善恶具备判断力?就是接下来的第二个问题。
理解力以认知事物间关系的知性能力为主;判断力则除了涉及认知事物间因缘果关系的事实认知能力外,还涉及事物与人,以及人与人间利害善恶关系的价值取舍(理性判断能力)。换言之,这其实是进入任何专业之前,所需具备的一种「通识」能力。
相对于上述的「钓鱼」能力,这是学生对钓上来的鱼,仍需学会「懂得如何吃鱼」的本领,唯有这样才能使学生在未来的教育过程中真正受益并成长。 - 传统教学的教师角色,在时间分配上,向来是「经师」为主、「人师」为辅。但未来教育的「经师」功能,除了必须善用智能书童作为课堂辅助教具外,更重要的恐怕是如何教导学生去善用智能书童,去养成自我学习的习惯;当「经师」的部分角色由智能书童取代后,对于智能书童难以分担的「人师」角色,未来的教师该如何加强这方面的功能,并且还须使未来的老师都能普遍胜任这一角色,就成为教育当局从今天开始就应一起思考,并着手做好准备的工作。因为唯有「备变到位」才能「应变有方」。
以上讨论的教、学问题,只是一个用来粗浅说明的示例;事实上,生成式AI这一潘多拉魔盒一旦打开,就会无孔不入地渗透到各行各业,以及人类生活的方方面面。我们需要更多的人来一起关注这个问题的发展,并及早思考这个问题的「备变、应变」之道。
本文作者:毛治国官方网站: https://www.ckmao.pro
歡迎支持我的創作與分享,謝謝:)
- 来自作者
- 相关推荐