Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了306,854,465字

该文章投稿至Nemo社区   资讯  板块 复制链接


你也喜欢 72?大语言模型最喜欢的随机数揭晓

发布于 2024/06/28 23:15 102浏览 0回复 2,243

计算机程序可以生成很像真随机的「伪随机数」,而 LLM 表示,干脆不装了,我就有自己最喜欢的数。

计算机程序中,「随机」是一个常见的概念。

由于生成真正的随机数过于昂贵,所以 Python、Java 等语言都内置了「伪随机数生成算法」。虽然生成的数字序列是完全可预测的,但它看起来就像是真正的随机数。

一个好的随机数生成器会以相等的概率选择给定范围内的所有数字。这和人类选择随机数的思维过程完全不同。

比如,我们会故意避开 5 和 10 的倍数,也不会选择 66 和 99 这样重复的数字,而且几乎从不选择 0、1 和 100,因为它们看起来「不够随机」。

最近,一群工程师突发奇想:LLM 会怎样输出随机数?

于是他们做了一个非正式的实验,让 GPT-3.5 Turbo、Claude 3 Haiku 和 Gemini 1.0 Pro 三个模型从 0-100 中选择随机数,并将实验结果和源代码都公布了出来。

总体而言,他们的发现是:即使是在生成随机数这种琐碎的数理任务上,LLM 还是学习到了人类的偏好和思维习惯。

模型的这种「类人」行为让工程师和科技媒体都非常吃惊。他们在标题中都使用了「最喜欢的数」这种描述,仿佛 LLM 真的发展出了自我意识。

https://gramener.com/llmrandom/

甚至文章的最后,实验者呼吁「LLM 心理学」的研究来解释一下模型在试验中体现出的行为偏好。

那么就详细看看,实验的结果究竟如何?

LLM 的数字喜好

由于 LLM 的温度设置会影响输出的随机性,因此 3 个模型的温度被调到 0.0,0.1,・・・,0.9,1.0 这 10 个值分别进行实验。

虽然温度升高会不断拉平各个数的出现频率,但即使设为 1.0 时,LLM 还是表现出了和温度最低时相同的偏好。

GPT 在去年 10 月的实验中最喜欢 42,但今年它「见异思迁」,变成了最喜欢 47。

而 Claude 和去年的 GPT 一样,最喜欢 42。实验者们猜测,或许是因为 Anthropic 使用了 GPT-3.5 来训练 Claude 3 Haiku,因此培养出了相似的「品味」。

Gemini 最喜欢的是 72(这个数有什么特别的吗?)

将 3 个模型的所有输出放在一起,可以看到其中几个数有非常明显的领先优势,也可以很好地反映人类的偏好。

42 是第二受欢迎的数,因为风靡世界的《银河系漫游指南》让这个数有了特别的含义。

37、47、57、67、77 等以 7 结尾的数都很受欢迎,在人类眼里这些数也会显得更「随机」。

有重复数字的数、小于 10 的数,以及 5 或 10 的倍数都很少见。

但也有一些行为很难解释,比如 56 和 73 这两个数得到了 3 个模型的一致青睐。

AI 越来越像人类?

不仅仅是生成随机数,最近的很多研究发现,LLM 的思维和认知似乎越来越向人类靠近。

南加州大学最近一篇的论文发现,要引导 LLM 产生意识形态倾向,是一件非常简单的事情。

https://arxiv.org/abs/2402.11725

论文作者表示,LLM 的训练数据有政治偏见已经不算新鲜事了。他们的研究仅仅让模型在微调过程中接触 100 条数据,就可以注入新的偏见,并改变模型的行为。

而且,ChatGPT 似乎比 Llama 更容易受到偏见的操控和影响。

这篇论文在 ICLR 的「安全可信的大型语言模型」研讨会上获得最佳论文奖亚军。

另一篇 NAAC 今年接收的论文则研究了 LLM Agent 的社交互动,却得出了几乎相反的结论。

https://arxiv.org/abs/2311.09618

他们发现,在默认情况下,LLM 并不会很像人类。但如果明确诱发人类的认知偏见,情况就发生变化了。

首先,他们构建了 10 个有不同初始观点的 LLM Agent,有些被定义为气候活动家,有些被初始化为否定气候变化的存在。

这些 Agent 被放在同一个社交网络中,并参与 100 次二元交互 —— 写推文,并阅读其他人的推文。

经过了 100 次互动后,所有 Agent 的观点都倾向于承认气候变化的存在。

即使有些 Agent 被初始化为气候变化阴谋论的信徒,它们最终还是会倾向于否认阴谋论。

为了排除训练数据的观点对这些 LLM 的影响,论文又在更广泛的话题上做了类似的实验,包括科学、历史和常识,但实验结果依旧保持一致 ——

LLM 总是倾向于认可真相、拒绝虚假信息。

这似乎说明,LLM 有一种固定的对真相的偏好,并不像南加大论文中所表现的那样,容易被操纵观点。

此外,Agent 之间的交互所引发的意见动态变化,和人类社会的实际情况也并不相像。

难道,我们真的需要「LLM 心理学」,来解释这些模型的行为?

参考资料:

  • https://techcrunch.com/2023/12/21/against-pseudanthropy/

  • https://techcrunch.com/2024/05/28/ai-models-have-favorite-numbers-because-they-think-theyre-people/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/778/467.htm]

点赞(0)
点了个评