Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了289,637,999字

该文章投稿至Nemo社区   资讯  板块 复制链接


美国教授用 2 岁女儿训 AI 模型登 Science,人类幼崽头戴相机训练全新 AI

发布于 2024/05/13 14:52 67浏览 0回复 5,115

【新智元导读】为训练 AI 模型,纽约州立大学的一名教授 Brenden Lake,竟让自己不到 2 岁女儿头戴相机收集数据!要知道,Meta 训 Llama 3 直接用了 15 万亿个 token,如果 Lake 真能让 AI 模型学习人类幼崽,从有限的输入中学习,那 LLM 的全球数据荒岂不是解决了?

为了训练 AI 模型,一位纽约州立大学的教授,竟然把类似 GoPro 的相机绑在了自己女儿头上!

虽然听起来不可思议,但这位教授的行为,其实是有据可循的。

要训练出 LLM 背后的复杂神经网络,需要海量数据。

目前我们训练 LLM 的过程,一定是最简洁、最高效的方式吗?

肯定不是!科学家们发现,蹒跚学步的人类儿童,大脑就像海绵吸水一样,能迅速形成一个连贯的世界观。

虽然 LLM 时有惊人的表现,但随着时间的推移,人类儿童会比模型更聪明、更有创造力!

儿童掌握语言的秘密

如何用更好的方法训练 LLM?

科学家们苦思不得其解之时,人类幼崽让他们眼前一亮 ——

他们学习语言的方式,堪称是语言习得的大师。

咱们都知道这样的故事:把一个幼年的孩子扔进一个语言文化完全不同的国家,不出几个月,ta 对于当地语言的掌握可能就接近了母语水平。

而大语言模型,就显得相形见绌了。

首先,它们太费数据了!

如今训模型的各大公司,快把全世界的数据给薅空了。因为 LLM 的学习,需要的是从网络和各个地方挖掘的天文数字级的文本。

要让它们掌握一门语言,需要喂给它们数万亿个单词。

▲ Brenden Lake 和参与这项研究的 NYU 学者

其次,兴师动众地砸了这么多数据进去,LLM 也未必学得准确。

许多 LLM 的输出,是以一定准确度预测下一个单词。而这种准确度,越来越令人不安。

形成鲜明对比的是,要学会流利使用一门语言,儿童可不需要这么多经验。

纽约州立大学研究人类和 AI 的心理学家 Brenden Lake,就盯上了这一点。

他决定,拿自己 1 岁 9 个月的女儿 Luna 做实验。

过去的 11 个月里,Lake 每周都会让女儿戴一个小时的相机,以她的角度记录玩耍时的视频。

通过 Luna 相机拍摄的视频,Lake 希望通过使用孩子接触到的相同数据,来训练模型。

把 GoPro 绑在蹒跚学步的女儿身上

虽然目前语言学家和儿童专家对于儿童究竟如何习得语言,并未达成一致,但 Lake 十分确信:使 LLM 更有效率的秘诀,就藏在儿童的学习模式里!

因此,Lake 开展了这样一项研究项目:研究儿童在学习第一句话时所经历的刺激,以此提高训练 LLM 的效率。

为此,Lake 的团队需要收集来自美国各地的 25 名儿童的视频和音频数据。

这就有了文章开头的一幕 —— 他们把类似 GoPro 的相机绑在了这些孩子的头上,包括 Lake 的女儿 Luna。

Lake 解释道,他们的模型试图从孩子的角度,将视频片段和孩子的照顾者所说的话联系起来,方式类似于 OpenAI 的 Clip 模型将标注和图像联系起来。

Clip 可以将图像作为输入,并根据图像-标注对的训练数据,输出一个描述性标注作为建议。

论文地址:https://openai.com/index/clip/

另外,Lake 团队的模型还可以根据 GoPro 镜头的训练数据和照顾者的音频,将场景的图像作为输入,然后输出语言来描述这个场景。

而且,模型还可以将描述转换为以前在训练中看到的帧。

乍一听,是不是还挺简单的?就是让模型像人类儿童一样,学会将口语和在视频帧中所观察到的物体相匹配。

但具体执行起来,还会面临很多复杂的状况。

比如,孩子们并不一定总是看着被描述的物体或动作。

甚至还有更抽象的情况,比如我们给孩子牛奶,但牛奶是装在不透明的杯子里,这就会导致关联非常松散。

因而,Lake 解释说:这个实验并不是想证明,我们是否可以训练模型将图像中的对象与相应的单词相匹配(OpenAI 已经证明了这一点)。

相反,团队想要做的是,希望知道模型是否可以只用儿童可用的稀疏数据级(稀疏到难以置信的程度),就能真的学习识别物体。

可以看到,这和 OpenAI、谷歌、Meta 等大公司构建模型的思路完全相反。

要知道,Meta 训练 Llama 3,用了 15 万亿个 token。

如果 Lake 团队的实验成功,或许全世界共同面临的 LLM 数据荒,就有解了 —— 因为那时,训练 LLM 根本就不需要那么多的数据!

也就是说,新的思路是,让 AI 模型从有限的输入中学习,然后从我们看到的数据中推广出来。

我认为我们的关注点,不该局限在从越来越多的数据中训练越来越大的 LLM。是的,你可以通过这种方式让 LLM 具有惊人的性能,但它已经离我们所知道的人类智能奇妙之处越来越远……

早期实验已经取得成功

早期的实验结果,已经证明了 Lake 团队的思路可能是对的。

今年 2 月,他们曾经用了 61 小时的视频片段训出一个神经网络,纪录一个幼儿的经历。

研究发现,模型能够将被试说出的各种单词和短语,与视频帧中捕获的体验联系起来 —— 只要呈现要给单词或短语,模型就能回忆起相关图像。这篇论文已经发表于 Science。

论文地址:https://www.science.org/doi/10.1126/science.adi1374

Lake 表示,最令人惊喜的是,模型竟然能够概括出未训练的图像中的对象名称!

当然,准确性未必很好。但模型本来也只是为了验证一个概念而已。

项目尚未完成,因为模型还没有学到一个儿童会知道的一切。

毕竟,它只有 60 小时左右的带标注的演讲,这仅仅是一个儿童在两年内所习得经验的百分之一。而团队还需要更多的数据,才能搞清什么是可学习的。

而且 Lake 也承认,第一个模型使用的方法还是有局限性 ——

仅分析与照顾者话语相关的视频片段,仅仅是镜头以每秒 5 帧的速度转化为图像,只凭这些,AI 并没有真正学会什么是动词,什么是抽象词,它获得的仅仅是关于世界样子的静态切片。

因为它对之前发生了什么、之后发生了什么、谈话背景都一无所知,所以很难学习什么是「走」「跑」「跳」。

但以后,随着建模视频背后的技术越来越成熟,Lake 相信团队会构建更有效的模型。

如果我们能够建立一个真正开始习得语言的模型,它就会为理解人类的学习和发展开辟重要的应用程序,或许能帮我们理解发育障碍,或儿童学习语言的情况。

最终,这样的模型还可以用来测试数百万种不同的语言治疗法。

话说回来,孩子究竟是如何通过自己的眼睛和耳朵,扎实地掌握一门语言的呢?

让我们仔细看看 Lake 团队发在 Science 上的这篇文章。

将单词和实物、视觉图像联系起来

人类儿童如何褪去对这个世界的懵懂无知,习得知识?这个「黑箱」的奥秘,不仅吸引着教育学家们的不断求索,也是困于我们每个人心底关于个体智慧来处的追问。

韩国科幻作家金草叶在《共生假说》中写下这样的设想:人类儿童在幼年时期所展示出的智慧其实承载着一个失落的外星文明,他们选择用这样的方式和人类共生,可是时间只有短短的五年,在人类长大拥有真正牢固的记忆之后,便把幼年时期这段瑰丽的记忆抹去了

也时常有网友会在网上分享出,那些「忘记喝孟婆汤」的人类幼崽故事。

关于谜一样的幼年时期,那是我们很难说清也难以回返的神秘之地,是一种「乡愁」。就像金草叶写下的」不要离开。不要带走那个美丽的世界。在我长大之后,也请留在我身边。

幼儿究竟是如何将新单词和特定的物体,或视觉概念联系起来的?

比如,听到「球」这个词时,儿童是如何想到有弹性的圆形物体的?

为此,Lake 的团队给一个儿童戴上了头戴式摄像机,追踪了 ta 从 6 到 25 个月期间的成长过程,记录了一个 61 小时的视觉语言数据流。

在这个儿童 1.5 年的剪辑数据集(包括 60 万个视频帧和 37500 条转录话语配对)上,研究者训练出了一个模型,即儿童视角对比学习模型 CVCL。

这个模型实例化了跨情景的联想学习形式,确定了单词和可能的视觉指示物之间的映射。

这个模型协调了两个神经网络、视觉编码器和语言编码器的对比目标,以自监督的方式进行训练(即仅使用儿童视角的录音,不使用外部标签),对比目标将视频帧的嵌入(向量)和时间上同时出现的语言话语结合在一起(处理同时出现的视频帧和语言话语的嵌入)

当然,这个名为 SAYCam-S 的数据集是有限的,因为它只捕获了孩子大约 1% 的清醒时间,错过了很多他们的经历。

但是尽管如此,CVCL 依然可以从一个儿童的有限经历中,学习到强大的多模态表征!

团队成功地证明了,模型获取了儿童日常经历中存在许多的指涉映射,因而能够零样本地概括新的视觉指涉,并且调整其中的视觉和语言概念系统。

评估习得的词义映射

具体来说,在训练完成后,团队评估了 CVCL 和各种替代模型所学习的单词指涉映射的质量。

结果显示,CVCL 的分类准确率为 61.6%。

而且图 2D 显示,对于其中 22 个概念中的 11 个概念,CVCL 的性能和 CLIP 的误差在 5% 以内,但 CLIP 的训练数据,却要多出几个数量级(4 亿个来自网络的图像-文本对)。

研究结果显示,许多最早的单词所指映射,可以从至少 10 到 100 个自然出现的单词-所指对中获得。

泛化新的视觉范例

另外,研究者还评估了 CVCL 学到的单词,是否可以推广到分布外的视觉刺激上。

图 3A 显示,CVCL 也同时表现出了对这些视觉概念的一些了解,总体准确率在 34.7%。

显然,这个任务需要更大的概念集,以及额外难度的分布外泛化。

左边是两个随机选择的训练案例,右边是四个测试案例,下面的百分比代表模型识别此张图像的准确度和性能,选取案例从左到右分别是两个最高值、中值和最低值。可以看出,当测试案例和训练案例在色彩、形状方面相似度更高时,模型识别的准确度也更高

多模态一致性很好

最后,研究者测试了 CVCL 的视觉和语言概念系统的一致性。

例如,如果相比于「球」,「汽车」的视觉嵌入和词嵌入都与「路」更相似,这就表明多模态对齐的效果很好。

下图显示出,CVCL 视觉和语言系统的高度对齐。

图像和文本之间的关系,虚线表示每个概念对应的视觉质心与单词嵌入之间的距离

不同的视觉概念在其例子的紧密聚集程度上有所不同。因为婴儿的视线会在距离很近的物体之间游移,就导致模型在区分「手」和「玩具」时没有形成清晰的参照映射,「汽车」和「婴儿床」就有比较好的表现

在每幅图中,研究者直观展示了 CVCL 预测与使用 t-SNE 的标签示例的比较。

左边的蓝色点对应属于一个特定类别的 100 个帧,右边的绿色点对应于 100 个最高的激活帧(基于与 CVCL 中每个概念嵌入的单词的余弦相似性)。在每个图下面,是每个概念中属于一个或多个子簇的多个示例帧,捕捉了单词嵌入如何与联合嵌入空间中的图像嵌入交互。例如,对于「楼梯」这个词,我们看到一个簇代表室内木制楼梯的图像,而另一个主要簇代表室外蓝色楼梯组的图像。这些图中所有的 t-SNE 图都来自于同一组联合图像和文本嵌入

下图显示,模型可以在不同视图中,定位目标所指。

在归一化注意力图中,黄色表示注意力最高的区域。在前两个类别(球和车)中,我们可以看到模型可以在不同视图中定位目标所指。但是,在下面两个类别(猫和纸)中,注意力图有时会与所指物错位,这表明定位所指物的能力并不是在所有类别中都一致的

当然,儿童的学习和机器学习模型还是有许多不同的。

但 Lake 团队的研究,无疑对我们有很大的启发。

参考资料:

  • https://www.nytimes.com/2024/04/30/science/ai-infants-language-learning.html

  • https://www.theregister.com/2024/05/12/boffins_hope_to_make_ai/ https://www.science.org/doi/10.1126/science.adi1374

本文来自微信公众号:新智元 (ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/767/562.htm]

点赞(0)
点了个评