【新智元导读】IMG Arena 的高级软件工程师 Johan LAJILI 认为在 LLM 能够理解概念、通过图灵测试时,我们就该承认它具有推理能力了。
GPT-4 或 LLM 有推理能力吗?这是个存在已久的争议性问题。
有人认为 LLM 只是通过大量的文本训练得到了一种普适的近似检索,并不具备真正的推理能力。
但也有大量的论文研究宣称 LLM 在多项推理任务中表现优异。
现在,来自 IMG Arena 的高级软件工程师 Johan LAJILI 在自己的博客中发表了文章,坚定地支持 LLM 具有「智能」、「推理」以及「逻辑」的能力。
并且,面对现有的诸多对 LLM 推理能力的质疑,Johan 也给出了相当详细的解释。
博客地址:https://lajili.com/ posts / post-3/
那么,就让我们来看看,Johan 是如何证明 LLM 是具备推理能力的。
LLM 只是一个「字词接龙」?
「LLM 只是一个预测下一个单词的模型」,这是反对 LLM 具有推理能力的主要观点。
这个观点通常来自于那些精通技术或人工智能的人,实际上,这个说法也是正确的。
在进行工作时,GPT-4 每次只能预测一个单词(或者更具体地说是一个 token)。用户给它一个提示或一段需要填充的文本时,它就会使用其神经网络找到最可能跟在后面的单词。
但是,将 LLM 的算法与智能手机键盘上的单词建议算法相提并论是相当短视的。
事实上,为了能够准确预测具有意义的句子,GPT-4 必须具备一种表示概念的内部方式,例如「对象」、「时间」、「家庭」以及其他一切的可以被表述的存在。
这不仅是找到一个与前一个词有关联的词语,LLM 还需理解这些词语的含义,才能准确地回复用户提出的问题。
而 LLM 对概念的理解是通过大规模训练建立起来的。
通过这个过程,可以证实 LLM 具有对「概念」的概念,即它们可以对物理世界中的事物以及它们之间的相互作用进行表示。
这意味着 GPT-4 不仅可以预测下一个词语,还可以理解更高层次的语义概念,使其能够生成连贯且有意义的文本。
但只能够理解「概念」还不足以进行推理,因为推理还要求能够组合不同的概念去解决问题。
LLM 无法解答 X 谜题与逻辑问题
随着人工智能技术的进步,传统的图灵测试,即让人类分辨与自己对话的是不是人工智能,在 ChatGPT 出世后失去了效用。
现在的图灵测试变得更加复杂。
同时,一些声称能够检测出内容是否由人工智能生成的公司也陆陆续续出现,但这些尝试基本上都失败了。
此外,对于人工智能生成的内容,连专业的语言学家都有一半的概率都无法区分辨认。
这些尝试检测人工智能生成内容的失败恰恰证明了我们不再区分人与人工智能二者生成的内容。
现在对人工智能生成内容进行区分时,通常是通过一些明显的迹象,比如句子中出现的「根据我在 2021 年 9 月之前的训练...」此类表述。
但这对人工智能是不公平的。
如果我们唯一能用来识别它的是其自身的一些写作习惯,那么我们显然已经到了一个承认它的写作技巧与人类相似的阶段。
回到 LLM 能否推理和逻辑谜题的问题上。
Jeremy Howard 在他的演讲中很好地解释了 LLM 如何进行推理。
通常,一个优秀的、系统的 Prompt 会对 GPT-4 的结果产生巨大影响。
如果用户能够详细说明问题背景和逻辑步骤,GPT-4 通常可以解决这些谜题。
如微软亚洲研究院、北大、北航等机构的研究人员,通过 97 个回合的「苏格拉底式」严格推理,成功让 GPT-4 得出了「P≠NP」的结论。
论文地址: https://arxiv.org/ abs / 2309.05689与人类不同,GPT-4 没有思维和口头语言之间的区分。
对于人类来说,在不思考或下意识的情况下解决问题时,意味着问题非常简单,这本质上是凭记忆回答的。
如在计算 2x8 时,我们会非常迅速地得出答案是 16,此时我们的大脑没有经过任何思考。
但如果是解决一个复杂的数学问题,或猜一个谜语,一个编程问题,我们在回答问题前就得在脑海中思考一番了。
而这,就是推理。
更复杂的问题可能需要我们首先考虑如何解决它,然后再尝试解答。
在这方面,GPT-4 与人类没有区别。
但 GPT-4 的思考过程作为回应的一部分是可以被看到的。
也许未来的 GPT-5 将有一个「思考」部分的响应,但不会默认显示出来。
在 GPT-4 能否具有推理能力这一点上,实际上只涉及成本以及效率的问题。
就像在估算餐厅的餐费或进行税务申报时不会有相同程度的双重检查一样,让 GPT-4 对用户提出的每个问题都进行一番详细的论证是非常低效的。
LLM 的幻觉和意识
关于 LLM 的另一个经典问题是这些模型存在着偏见和幻觉等问题。
这的确是一个棘手的难题,但这不代表 LLM 不能进行推理。
举个例子,人无法避免偏见。有些人会意识到这一点,而另一些人可能从未思考过这个问题。
在近代以前,人们还坚信地球是宇宙的中心,认为空气就是「无」。
但我们可以因此下定论说近代以前的人都没有推理能力吗?
同样地,模型会出错也不意味着模型不会推理。
因为正确或者持续正确并不是推理的定义,而是全知的定义。
但关于 GPT-4 是否存在意识,我的回答是没有。
意识的存在是非常哲学性的问题,一定程度上也取决于个人的看法。
但我认为意识是在很长一段时间内产生的,并需要一个「自我」来照顾。
每当用户打开 GPT-4,选择在一个聊天框开始对话时,这实际上是在创造一个全新的存在。
对话结束后,这个存在要么被删除。要么保持在静态状态。
缺乏长期记忆,缺乏情感,不能自发地对外部刺激做出反应,都是阻碍意识产生的限制因素。
但我们也可以乐观地相信这些问题会在未来被解决。
也许,现在就有一群聪明人正在研究这些问题。
而 GPT-4 是否存在意识,只是关于「意识」这个谜题的一小部分。
参考资料:
https://lajili.com/posts/post-3/
本文来自微信公众号:新智元 (ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/728/603.htm]