纪念Aaron Swartz:AI的样子,我们的样子

竹田伊織
·
·
IPFS
这是我的个人专案“纪念Aaron Swartz”系列的第七篇文章。

除了Matters本身的支持功能外,我还开通了我的Paypal和支付宝捐赠渠道(链接导向我的个人博客的About&Donate页面)。如果您喜欢我的内容,不妨请我喝杯咖啡~

“纪念Aaron Swartz”系列全文章入口

Source: spiceworks.com

大模型人工智能,某种意义上彻底改变了人们获取知识的方式。

当iPhone内置Siri,Google开发自己的Assistant的时候,大概很多人就已经畅想到了这样的未来。现在,我们就站着这个未来的黎明。

包括OpenAI的股东微软,这些大模型拥有者,他们有着足够庞大的现金流,购买地球上所有学术期刊站点的付费墙,将这些文献全部用于大模型的训练,然后将这些内容通过免费或小额订阅的方式开放给所有人。普通人只要稍微花一点钱,就能快速找到TA想要的知识 — — 当然,你的提问方式也要足够好,这样AI才能知晓你想要的到底是什么。

从最理想的状态来看,商业确实是个很神奇的东西。它在某些时候可以做到一些学术自由派狂热者 — — 比如Aaron Swartz — — 做不到的事情,并且,这些商业行为不仅合理,而且合法。

我在2023年陆陆续续问了ChatGPT一些问题,它很专业,具有亲和力,会用一种平时很难在官方通稿之外才能看到的平和语气跟我对话,并且措辞严谨。尽管ChatGPT很轻易会提供给我错误信息,甚至会出现幻觉,但说实话这并不会令我感到不快。搜索引擎是我的最后防线,但这道最后防线足够坚固,我不需要为ChatGPT的错误感到任何不安。

我反而会觉得,能有这样一个不论如何都会有问必答的助手在身边,真的太好了。

有时候我需要的仅仅是一点思路,比如行文的思路,或者影片的制作思路,虽然仅此而已,但那一点点灵感确实是令绝大多数创作者头大的难题。大语言模型就是一个取之不尽用之不竭的灵感创造机器。

跟开发者会利用大模型获取必要的代码片段一样,我完全可以给ChatGPT一些关键信息和词汇,并指明行文风格和情绪,大模型人工智能就会为我输出一篇流畅的文章出来,我自己就可以不用没日没夜地敲键盘了 — — 前提是需要订阅ChatGPT的服务。

不过,说得夸张点,在世界经济全面下行,社会面临企业大裁员的当下,让一个普通的打工人立即订阅一个此前完全没有接触过的新工具,难免有点强人所难。虽然ChatGPT的免费版本足以让一部分人在人才市场上取得竞争优势,但对于想做更专业的事情但苦于没有收入来源的人来说,这可能也是一个不小的门槛。现在的大模型仍在进步的过程中,很多人类认为小事一桩但重复、枯燥、繁琐的劳动,仍然是大模型需要突破的障碍。相信随着大模型的不断演进,更多的功能都可以免费开放给更多的人使用 — — 虽然此时此刻,我们仍需要认清现实。

尽管需要清醒面对当下的困境,但2023年,几乎所有接触过大模型一阵子的人好像都在思考这样几个深刻的问题:人工智能会变成什么样子,以及我们人类要变成什么样子。

这两个问题的答案其实也在2023这一年中被许多人反复提及:人工智能将会变成人类如影随形的助手;人类则需要变得更像一个人。

相信很多人在使用ChatGPT的时候,都看到了它用流利的汉语、英语和其他语言回答着各种各样的问题,为各种各样的文案或文章润色,在各种各样代码后面加上简短但合理的注释以及代码前后的各种说明,这一年来不断惊艳到普通人和开发者的大模型工具都会让人们强化对以上两个问题答案的认知:大模型在未来将会越来越好用,并且会变得越来越像人。

比如《云端恋人》这部电影讲述的故事,操作系统内置大模型人工智能的行为已经在Windows 11去年年底的更新上实现,差别几乎只剩下Copilot还不能像电影中那样可以直接与人对话,以及部分地区无法使用这项功能 — — 因为在用ChatGPT了解各种心理问题和恋爱咨询的时候,它在某种情况下展现出的同理心和冷静,确实会帮到一些人。说句题外话:这种互动或许确实会让一些人对大模型人工智能产生心理上的依赖。

一些开发者还会担心,大模型人工智能的出现,正在让Stack Overflow这样的社区失去价值。越来越多的人只需要问一下大模型人工智能,就可以找到TA想要的代码片段,无需再和其他开发者交流,消耗无谓的时间成本。

所以,何以为人?当人类相比大模型做不到带给他人以精神寄托,做不到像大模型那样精准地传道授业解惑时,人类又该如何朝着哪个方向前进?

经过这一年的经历和思考,我自己会觉得,如果可以真正做到脚踏实地的生活,或许会给这些看似难以回答的“终极问题”带来答案 — — 并且,如果这种脚踏实地能够换来一些经济上的收益,自然是最好的。

我在以往“纪念Aaron Swartz”系列的文章中表达过“获取知识是困难的”这一观点,这是因为获取知识的动机从某个角度探讨的话,是关于“好奇心”的。人们的好奇心早已被当今快速滚动的社会磨灭殆尽,不论是每天都在被胡乱决策的领导折磨的普通白领,还是被不断涌入的资本折腾到无法专心做自己兴趣之事的硅谷精英,都在被各种各样莫名其妙的烦心事困扰。只有经过了长时间的训练的专业人士才有着不断生产好奇心的资源和能量。绝大多数人只能做到避之不及。有些人期望一本好书、一部好电影或者一次对话能够解决烦恼,但尽管我认同“运气是实力的一部分”,可解决生活中的烦恼不能总是要靠运气。

大模型人工智能给出了一种额外的,非运气化的选择。我们完全可以拿着这些烦恼去问它,无需担心会被其他人笑话。包括如何让一个人保持好奇心,大模型人工智能也会给出几乎无懈可击的方法论。但人类生活是复杂的,这就让大模型人工智能给出的答案更像是一种纲领而非切实可行的具体步骤,也就是我们常说的“有用的废话”。当然,我们完全可以继续深究下去,让大模型人工智能用更具体的方式描述它给出的方法论。不过即便如此,那些答案仍旧不能在大多数人的生活中获得实践。

大模型人工智能给出的关于保持好奇心的答案,在我看来大部分是为了创造一种人与人之间进行良性互动和亲密接触的契机。但当下在部分地区人与人之间的亲密接触正在变得越来越罕见。就比如人类所谓的“爱好”正是好奇心驱使之下形成的某种非理性的、并且和收益不直接相关的习惯,而这种习惯是需要人与人的互动 — — 有时候必须是亲密互动 — — 来强化的。即便是电子游戏,它虽然在某些类型上会强调“单人沉浸体验”,但在更多时候,人类还是更喜欢凑在一起玩,比如多人联机对战和MMO,比如Lan Party。

在大模型人工智能即将到来的时代,作为让人之所以为人的情绪和心理之一,因“好奇心”而获取知识的比重将会以超越以往任何一个时代的速度极具膨胀。当获取知识变成比穿衣吃饭还要简单的事情时,人们将更多地选择自己想要知道的知识,就像人们更倾向于穿让自己显得更帅气,更美丽的衣服,吃更符合自己口味的食物一样。

而这种选择一旦延伸到知识获取上,很有可能会产生非常可怕的偏见。并且事实上,在还没有大模型人工智能的当下,我们现在已经完全可以在互联网上观察到这一点,并切实感受到这种偏见带来的危险能量。

更杞人忧天一点的话,这种现状还带来了一个潜在的危险死循环:当一部分更加理性却在社会上缺乏话语权和影响力的人在看到人类偏见的能量足够巨大时,很有可能会求助于更理性的大模型人工智能,而越是接近这些大模型人工智能的人,越会更加依赖它,而非与人接触,而偏见则会在人群中不断加深,甚至导致仇恨。如果这种讽刺的画面在不久的将来出现在世界上,人类文明将极有可能发生不可逆地倒退,人们会做出各种各样匪夷所思的反常举动,伤害更多的人,社会难以继续以正常效率运行而是各个部位被生锈的部件卡死,进而导致更大规模的萧条。

消极的情绪正在从互联网蔓延到真实世界。当然,这完全不是因为大模型人工智能,当下的消极情绪来源于糟糕的经济状况和越来越深重的偏见。

当我定义“脚踏实地地生活”的时候,意味着我需要把任何我在生活上遇到的事情都会囊括进去,包括顺心的和不顺心的事情。其中“好奇心”在某种程度上就是可以主观上让哪些不顺心之事变成知识获取的契机的一种心态。这种心态在很多时候都能够让人保持开放和平和,也可以保证在抓住事物背后逻辑时保持尊重、理性,并且能够对此做出符合自己价值观的判断。

这里利用好奇心的实践有两层含义:一方面,任何人都需要意识到自己无法真正了解这个复杂的世界,因此我们在生活中遇到的每一件事,其背后都有复杂的逻辑支撑,因此我们需要保持对这些事物的开放态度,进而在很大程度上消除各种各样的偏见。另一方面则是,人类和大模型人工智能不同,每个人都有属于自己的价值观和性格,当事物影响我们的行为时,我们需要做出判断,界定这些事物背后的逻辑是否符合自己的价值观,进而选择接受或是批判。

在和ChatGPT以及Bing AI沟通的时候,我确实很难认定这些大型的大模型人工智能有着何种价值观倾向,以及他们不论如何都会用符合最佳语法的措辞来修饰自己的答案,即便我让他们用各种不同社会角色进行回答的时候,依旧是一副非常公式化的口吻(说人话就是“这是机器人写的”),并不能展现人类意义上所谓“风格化”的东西。尽管在不远的未来,客制化的大模型或者小模型会在风格化和价值观输出上完全抹平和人类的界限,但至少现在,这两项依旧是人类和大模型人工智能最巨大的差别。

这两大差异不仅需要人类的观察、沟通、判断、行动这些动作来不断完善并进行强化,更需要人类有足够多的阅历和经验来支撑。人类需要各种各样的交互来形成认知,并从更多的人和事身上获取知识和知识之外的,情感上的东西。而且在真实生活中,价值观往往会在只有深入讨论某件事物时才会展现,但风格会通过人类的一举一动所展现,而并非只有在需要的时候才呈现。所以绝大多数时候,人和人之间的互动就是情感互动,真正严肃讨论的时刻反而是一种“加餐”、一种具备奖励性质的额外收获。

许多和我们切身相关但看上去好像束之高阁的议题非常需要进行这种风格化的包装,这是许多年间许多艺术创作者所努力的方向,比如那些讽刺政治的影视剧。但随着世界逐渐复杂化,一些创作者开始脱离实际情况,进行着一些不着边际的臆想并形成完全空中楼阁的观点,然后将这些臆想制作成内容并进行发布。抑或是一些人纯粹是为了自己或某个小团体的利益考量而煽动毫无道理可言的愤怒情绪。从这个角度来说,仅仅只有风格化和观点但话语权极大并煽动偏见,进而制造社会运动的人们看起来才像是一群暴徒,而大模型人工智能在很多时候看上去更像是一个真正的世界秩序捍卫者。说实话,这看上去真的有点讽刺。

这就让严肃讨论这种“加餐”在现在显得越来越重要。比如“谁先动的手”这种问题在激化的矛盾和长期对立下已经变成了”先有鸡还是先有蛋“这种不可能解释清楚的问题,而良好的沟通渠道有需要完善的社会设施与指导进行维护,并且这还是一个长期的过程。但是,人和人之间的矛盾摩擦可能只需要一支十几秒的短影片就能大幅升级,更不要提在屏幕前的网民行文时会采取的各种春秋笔法刻意回避关键问题和诋毁对手,如此种种只能让矛盾越来越无法调和,爆发冲突也只会是迟早的事情。

从这一角度来看,Aaron Swartz所希望的让知识快速流动的想法某种意义上是一种无奈之举。大多数人对不同领域专业知识没有足够的掌握能力,因此只有看到知识的人的基数越大,遇到将知识转化为真正有用的方法和实践的幸运儿的几率才会越大,这一点即便到了2024年也依然如此 — — 必须要强调的是,每个人都有自己对知识的喜好,因此不同的人会对不同的知识产生兴趣,这些知识和人未必会在解决矛盾的一线发挥关键作用,但一定会在其他时刻发光发热。

大模型人工智能的出现让一些人拥有了接触复杂世界的捷径,这或许也会让生活中普通人和普通人进行深刻对话的机会得到进一步的上升。毕竟在绝大多数时候,我个人认为,人和人之间的误解和无视导致的矛盾冲突,最核心的逻辑因素正是因为知识储备不足和信息偏差而导致认知障碍,进而在情绪上产生了厌恶和反感。相比之下,大模型人工智能有着完善的算法和数据体系,人类几乎无法追上。虽然在未来一定会有人为训练的大模型或小模型人工智能制造misleading,但我还是会认为大模型人工智能在成为更多人每天都会依赖的小帮手之后,一部分人,甚至更多人开始意识到这个世界的复杂度和人类自身认知的局限,并以更平和的心态面对矛盾和冲突,用更真诚的心面对每天的生活。

作者保留所有权利

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

竹田伊織Virtual Photographer | Business Writer | Former Xbox PR agent | Banner captured by myself
  • 选集
  • 来自作者
  • 相关推荐