此为历史版本和 IPFS 入口查阅区,回到作品页
shin
IPFS 指纹 这是什么

作品指纹

如何认识、理解和用好ChatGPT

shin
·
ChatGPT出来后引起一阵对技术的恐慌,有些人说不要恐慌,它只是个工具。那么作为善于使用工具的人类,你认不认识这个工具、会不会用 ChatGPT、能不能用好 ChatGPT 呢?还是骄傲的你,对ChatGPT不屑一顾。

 ChatGPT 的常见误区是什么?

首先,ChatGPT 是 GPT 模型,全称为"Generative Pre-trained Transformer”。目前是 GPT3.5 代。GPT 模型是一种 LLM,本质还是语言模型,而不是不了解 AI 发展的朋友们通常提到 AI 所想到的 AGI。


LLM V.S. AGI 区别是什么

LLM的全称是"Large Language Model",它是指以自然语言为基础,利用深度学习技术构建的大型语言模型。LLM 通过大量的训练数据和算法,可以学习自然语言的规则和特征,从而实现自然语言生成、理解、问答等任务。目前,最著名的 LLM 是 OpenAI 的 GPT系列模型,包括 GPT-3、GPT-2 等。

AGI的全称是"Artificial General Intelligence",它是指一种能够像人类一样执行多种智能任务的人工智能系统。AGI 是指能够像人类一样进行推理、学习、自我修复、自我意识等多种智能行为的智能系统。与 LLM 不同的是,AGI 具有更广泛的应用领域和更强的智能能力。

总的来说,LLM 和 AGI 在技术层面和应用领域上存在着巨大的差异。LLM 侧重于自然语言处理和智能问答等任务,而 AGI 则更为广泛,可以在多个领域进行多种任务的处理和应用。此外,AGI 的研究和实现需要更为复杂和高级的技术和算法支持,与 LLM 相比,还处于更早的研究和发展阶段。

  • ChatGPT 是语言模型,不是通用人工智能。
  • 不要拿红色蜡笔,想画蓝色海洋。

介于很多朋友阅读速度很快,这里狠狠重复一下……如果只有一个 take away,那就是这两句。


如何理解 ChatGPT

想要理解 ChatGPT,首先要理解这三种逻辑推理方法。

  1. 归纳逻辑 Inductive Logic(什么是 ChatGPT 能做的)
  2. 演绎逻辑 Deductive Logic(什么是 ChatGPT 暂时不能做的)
  3. 溯因逻辑 Abductive Logic(什么是人能做,但 ChatGPT不能的)

假设有一个实验,研究人员对某种新药进行了临床试验,并对试验结果进行了数据分析。现在我们来举例说明这三种逻辑推理方法如何应用于这个实验。

归纳逻辑

  • 在归纳逻辑中,我们通常从特定的实例中归纳出一般的规律和定律。在这个例子中,我们可以根据试验的结果,观察这种新药的疗效,然后推断出这种新药在人类中的作用规律。例如,如果试验表明该药物可以有效地治疗某种疾病,那么我们可以推断这种药物对该疾病具有普遍的治疗效果。在这个过程中,我们从特定的实例中归纳出了一般的规律,这是归纳逻辑的一个典型应用。

演绎逻辑

  • 在演绎逻辑中,我们通常通过利用已知的普遍规律或定律来推导出特定的结论。在这个例子中,我们可以利用已知的医学原理和已知的药物成分等信息,来推导出该新药物是否具有治疗效果。例如,如果我们已经知道了该药物的成分,以及这些成分对人类身体的作用规律,那么我们就可以通过演绎逻辑的推理方法,推导出该药物对某种疾病是否具有治疗效果。

溯因逻辑

  • 在溯因逻辑中,我们通常通过选择一个最有可能的解释来解释已知的事实或现象。在这个例子中,我们可以根据已知的实验结果,以及已知的医学原理和药物成分等信息,选择一个最有可能的解释来解释这些实验结果。例如,如果我们发现这种新药物具有治疗某种疾病的作用,但我们尚不确定该药物的作用机理是什么,那么我们可以通过选择一个最有可能的解释来解释这种药物的作用。这种解释可能是该药物作用于某种特定的细胞或分子,从而产生治疗效果。在这个过程中,我们通过阐述逻辑来解释了已知的实验结果。


归纳逻辑 Inductive Logic

  1. 什么是 ChatGPT 能做的?
  2. LLM 的本质是统计学,所以学习了大量语言数据的 ChatGPT 有很强的语言组织能力,并不是因为它精通语义学,而是它知道一个词后面大概率跟什么词,大概率组成什么句子。ChatGPT 行文组织的能力,是基于统计学而不是语义学,更不是专业领域的知识体系。
  3. 这帮助我们理解 ChatGPT 擅长的任务是什么、该如何和 ChatGPT 沟通、如何高效利用好 ChatGPT。

演绎逻辑 Deductive Logic

  1. 什么是 ChatGPT 暂时不能做的?
  2. ChatGPT 之所以写出漂亮的文章或措辞,不是因为它有很强的文学造诣,而是因为人类提供给它足够优秀的训练语料,让它知道在漂亮的文章里,一个词后面大概率跟什么词,大概率组成什么句子。换言之,ChatGPT 不具备任何从专业领域的知识体系中,推理分析内容的能力。即使在任何例子中,它看似完成了这一点,也是因为统计学而不是真正具备这样的能力。因为通常这样的结果是经不起推敲和辩驳的。
  3. 这帮助我们了解 ChatGPT 的边界是什么。ChatGPT 的输出结果哪些是可信的、哪些是需要质疑的。哪些任务是目前不值得你向 ChatGPT 提出的、ChatGPT 未来努力的方向是什么,KG 研究未来有没有结合的可能性。

溯因逻辑 Abductive Logic

  1. 什么是人能做,但 ChatGPT 不能的?
  2. ChatGPT 目前被训练得非常得体,遵守礼仪规矩,说不出错的话。换言之,ChatGPT 不能说“胡话”。(如果是专业知识的胡诌,属于上一种类型)这跟 ChatGPT 是 Inductive Logic 的表达也有关。ChatGPT 无法跳出学习资料以外回答你。也就是说,ChatGPT 还不具备对未知现象提出假设的能力。尽管大多数人未经训练也不具备这个能力。
  3. 这帮助我们了解 ChatGPT 做不到,但人有可能做到的事情。人在未来的竞争力是什么,而一旦 ChatGPT 展露出具备这种能力时,又意味着什么。


如何用好 ChatGPT

网络上关于 ChatGPT 的 Prompt 一搜一大把,这里简单推荐几个网站。

https://platform.openai.com/examples

https://github.com/f/awesome-chatgpt-prompts

简单说下 ChatGPT 擅长的任务:

一、回答具体的知识问题

不管是 coding、哲学观点研究还是紫微斗数。

ChatGPT 是非常好的老师,它可以条理清晰、有针对性地回答你的问题,而且你可以不断地追问细节。这意味着学习资源空前平等,只要你有心想学。但记住永远保持质疑精神。

通常全网知识越常见的内容,回答越好,反之越差。比如中医药、八卦五行的问答里,就会存在胡说八道的情况。但是偏门知识也有引导的 tricks,比如在新建对话中,先从 ChatGPT 可能更容易聊对的内容/概念聊起,再去问你想知道的问题。这是因为同一会话的历史语料会作为 prompt 影响到 ChatGPT 的下一次输出。越多的 context 给到 ChatGPT,它就能对特定语境下的特殊词汇和问题,有更好的表现。

二、解决语言问题

练习英语表达、给代码 debug 、扩写缩写复述等等,只要是语言。

训练了全网做多语言数据的模型,能力有多强不用我多说。在很多问题上,它甚至比你学校的老师,回答更出色。但仍然也有 ChatGPT 解答不了的语言问题,不妨换个问法试试,或者先做些 context 的输入和引导。记住,我们用 ChatGPT 是为了自己的进步成长,得到自己想要的知识,而不是为了刁难它,说出一句它果然不行。同样的,永远保持质疑精神。

三、高级废话文学

周报、PPT、公文、申请、总结、运营文案、商务交流等等。

没有比看过全网废话文学的 LLM 更能说高级废话了。如果 ChatGPT 写不出来,只能说你 prompt 水平不行。思路还是一样的,只要你知道 ChatGPT 是基于统计学的,把 prompt 往你想要的内容上引就可以了。尽可能在会话中提供更多的细节、要求、上下文,一次问不出来,可以把问题拆成好几个问,循序渐进得到结果。

四、输出机器懂的语言

其他模型的prompt,其他框架/服务的指令、接口等等

尝试把 ChatGPT 想象成机器大脑,正在说 language in the brian。你永远想不到 ChatGPT 可以给你多惊艳的输出。


ChatGPT 有可能会带来哪些影响

首先,我们聊过 ChatGPT 是语言模型。那么我们就要看语言意味着什么?

  1. 语言是人类的交流工具,最主要的交互形式之一。
  2. 语言是网络数据最大的载体,哪怕音频、视频都可以转换成文本数据。
  3. 语言除了 natural language,还有 coding language,和 language in the brain。
  4. 语言的边界就是思想的边界 。

语言交互,文字或语音

  1. ChatGPT 已经改变了搜索引擎。可想而知未来会改变更多的交互形式。所有的检索才能得到信息的场景,都可以尝试加上对话入口。也就是说,更多的垂直领域,产品的使用指南、服务支持,都会从原来的文档或笨拙的智能客服,全面转向 GPT 模型 + 弱人工的处理形式。未来将会有很多对话语料设计与分析的场景。
  2. 所有工具类、效率类、任务导向的 APP/交互/功能都将面临智能化的转型。数字化转型曾经历的事情,都有可能在智能化转型中经历一遍。包括探索的过程和流程化、工程化、自动化。工具和效率类 APP 首当其冲的原因是,LLM 是擅长 coding language 的,自然从 natural language 到 coding language 也不在话下。对应到现在的研究领域就是 NL2SQL,和所有 NL2codes、2function、2commands 的扩展场景,都值得期待。
  3. 由于信息获取方式的转变,流量的入口也会一部分从瀑布信息流变成会话聚焦型。这种情况下,平台方无法像传统的搜广推 rankings 给到内容创作者推荐和流量。那首先双方的利益关系会被重建,以及如何再达到一种平稳的状态。我们都需要思考新的商业关系、交互呈现形式以及技术手段,如何能满足双方的诉求。

语言的多媒体载体,文本、音频、视频

  1. 语言模型不仅赋能文本生成,也将极大降低分析和生成和语言息息相关的音频和视频内容。文本的模型处理能力,能将整个互联网信息数据整合起来。再加上多模态模型的发展,图片、声音等都会加入整个语义网络 semantic web。语义网络的未来近在咫尺。
  2. LLM 不仅会成为 language 任务的 copilot,比如 GitHub 出的 copilot 和 notion 出的 notionAI,还将成为大多数的生产工具的 copilot,而且尽在咫尺,相信在 2023 的下半年,就会爆发普及很多的 x-copilot 的产品、工具和服务。

natural language,coding language 和 language in the brain 让 ChatGPT 成为机器意识

  1. ChatGPT 在 coding language 上的表现不输 natural language,是因为编程语言是有规则、有序的。ChatGPT 在两种语言上融会贯通的优越表现,已经表明 ChatGPT 具备转译能力,传统学术研究上是 NL2SQL 赛道,但 ChatGPT 能做的已经远远超过 SQL。目前来看,没有比 ChatGPT 更适合成为机器的 language in the brain。
  2. "Language in the brain" 是意识的一个重要组成部分,因为语言是人类意识的重要载体和表达方式。全局工作空间理论认为,意识是由全局工作空间中的信息所构成的,而全局工作空间是大脑中多个模块之间共享的一个信息处理系统。语言作为一种信息的表达方式,在全局工作空间中扮演了重要的角色。全局工作空间理论(Global Workspace Theory)是由美国心理学家 Bernard Baars 在1988年提出的一种心理学理论,它用于解释人类意识的本质和机制。
  3. 为什么 ChatGPT 有潜力成为机器意识?
  • ChatGPT 已经连接起自然语言和机器语言
  • ChatGPT 已经具备交流沟通的能力
  • ChatGPT 已经具备理解 context 的能力
  • ChatGPT 已经具备推理的能力
  • ChatGPT 在 context awareness 问题上表现出来的泛化能力和潜力已经超过绝大多数算法模型
  • ChatGPT 目前还没有成为机器意识,但我们可以通过 finetuning 和 prompt engineering 训练它,让它逐步模拟GWT
  • 垂类高集成、高自动化、高智能的 AI 指日可待

语言的边界就是思想的边界

  1. 美国语言学家和哲学家Benjamin Lee Whorf强调了语言和思想之间的互动性,并提出了"语言的边界就是思想的边界"的观点。他认为,不同的语言系统对现实世界的理解和表达方式是不同的,因此人们的思想和理解也会受到语言的限制。
  2. 维特根斯坦认为,语言的边界塑造思想的边界,这意味着语言和思想之间存在着密切的关系。他认为,语言不仅仅是一种表达思想的工具,更是塑造思想的方式。因为语言决定了我们所能想到的东西,甚至塑造了我们的观念和信仰。
  3. 过往我们接触知识的来源五花八门,课堂、书籍、演讲、讨论……而现在 ChatGPT 可以给我们不一定是最好的,但一定是最快的知识回答。网上看到一个比喻,说 ChatGPT 是将几十年互联网的文本信息压缩成低清缩略图,使得用户很快可以窥探全貌、看个大概。同时也因为高度压缩,丢掉了很多细节。长此以往,随着 ChatGPT 的能力越来越强, 我们除了接受一手的 ChatGPT 信息,还可能到处看到二手的 ChatGPT 的半加工文章、播客和视频。大量的 ChatGPT 产出的信息将我们淹没,下一代的小朋友会如何成长起来?他们会变成像 ChatGPT 一样思考、一样讲话吗?


小结

只希望 ChatGPT 能够成为一个好工具,但不要成为人们放弃探索好奇心和思想边界的借口。


最近,和学中医的朋友也聊到 ChatGPT。友人深深表示部分传统中医脉络可能因为没有数字信息沉淀,而在这次智能化转型中从网络世界销声匿迹。

如有任何这类担忧的朋友,都可以我号留言,探讨可行的合作和帮助。



CC BY-NC-ND 2.0 授权