要学习语言,要踏入人类集体智慧的大门,孩子们需要交流,大量的交流。
不难想象,在未来,父母在孩子睡前给他盖被子时,可以用一个 App 来讲睡前故事,同时还可以吸引孩子进行温和的对话。或者是,幼儿园老师不再把一大群孩子赶到地毯上围成一圈,而是给每个孩子准备一个平板电脑,根据孩子的词汇量、语言水平和注意力程度来教授课程。
儿童拥有大语言模型所不具有的超强能力
机器生成的语言和人的语言对儿童大脑的是否有相同的影响呢?答案并不是那么显而易见。关键在于儿童的学习方式与聊天机器人的学习方式截然不同。二者的本质区别在于,聊天机器人的学习方式完全来自语言数据库,而儿童的学习方式则来自使用语言的人。
大型语言模型(LLMs),如 ChatGPT 背后的模型,需要学习大量的数据,才能辨别出语言的统计模式。儿童也有进行统计学习的能力。
但是儿童有一种大语言模型缺乏的超能力。从一开始,儿童的语言学习就是社会性的,是在与教他们的人的密切关系中发展起来的。这就提高了儿童学习的效率。人们有意识地使用语言,努力使彼此的想法保持一致,即使最小的孩子对此也深有体会。
有一个很经典的实验,给 16 到 19 个月大的幼儿玩一个玩具,同时把另一个物体塞进一个桶里,藏在幼儿看不见的地方。当孩子注视着手中的玩具时,大人说:“这是一个玩具 ——Modi”正常的孩子不会认为这个人说的是他手里拿着的这个玩具,而是会根据说话者的视线去寻找,将说话者注意的东西和这句话联系起来。
宝宝们明白说话者的目的在于把他们的注意力吸引到说话者关注的东西上面。之后再让他们辨认“Modi”时,他们更多地是选择桶里的东西,这说明他们已经把这个词和这个东西联系起来了。
在没有明显交流意图的情况下,孩子们很难把听到的词和看到的东西联系起来。例如当孩子注视着一个物体时,扬声器里传来一个单词,孩子就不会把这个词映射到这个物体上。仅有相关性是不够的,儿童需要的是正面的反馈。在这方面,即使是机器人做的可能也不够好。一项研究报告指出,虽然儿童能够跟随机器人目光所及之处,并注意到机器人观察的对象,但是却很难记住机器人观察的对象的名称。
不难看出,判断说话者交流意图的能力对提高语言学习的效率多么有帮助。它能让儿童缩小注意力的范围,忽略眼中的世界与听到的语言之间的许多虚假关联,而这正是人工智能目前必须通过蛮力计算才能解决的问题。
但是,这种社会性很强的学习形式也有风险。有些说话者并不可靠,他们可能会误导或直接欺骗你。如果你的大部分认知都是基于他人的言行,而不是你自己的所见所闻,那么明智的做法是对这些东西进行一些过滤。
尽管孩子们渴望向身边能说会道的大人们学习,但他们在学习过程中也会带着一些怀疑态度。如果说话者之前犯了一个明显的错误,比如把苹果叫做“狗”,那么他们就不太可能接受一个新词或新事实。如果说话者在表达不确定性时说:“嗯,我以前从没见过这种东西。我觉得这叫‘blick’”,他们就会不愿意向这样的人学习。比起从未见过的老师,他们更愿意向熟悉的老师学习。
简但来说,他们不会一味地吸收周围的语言,而是会衡量说话者的水平 —— 我能相信这个人有能力吗?无论是从年龄、自信心,或是句子的复杂程度,穿着打扮来判断,说话者越有权威,孩子就越容易向他们学习。有证据表明,说话者与孩子属于同一个社会群体 —— 属于同一个民族、有着同样的口音,甚至有着相同的肤色 —— 都会增加孩子向他们学习的意愿。
当孩子们与一个听起来像人类,但却无法准确辨别其善恶的人工智能互动时,会发生什么?基于大语言模型的人工智能在根本上不存在意识或情感,但是这些人工智能交流的过程中却又好像充满情感,这是因为训练这些人工智能的语言数据总是具有人类的情感的。但是,人工智能的语言和内心状态之间存在着根本性的脱节。
目前正在开发的一些人工智能工具认识到,儿童需要的是互动,而不仅仅是语言环境。语言与技术学者徐颖和她的同事们开发了一款为儿童讲述图书的机器人,同时还能与儿童进行对话,讨论人物的动机或者接下来剧情的发展方向。
但是,我们对儿童与人工智能互动的理解还处于早期阶段,落后于技术本身的发展。大部分研究都是针对 Siri 等不太复杂的语音助手,或根据脚本工作的“社交”机器人进行的,对于儿童如何回应由大语言模型驱动的更复杂的对话机器人,几乎还没有任何研究。
语言的分配并不公平
随着孩子们语言环境的改变,新的问题产生了。就像我们社会中的很多东西一样,语言的分配并不公平。富裕的父母往往有更多的时间与孩子交谈,他们可以负担得起更高质量的托儿服务。几十年的研究表明,许多家庭经济条件较差的孩子不太可能接触到丰富多彩的互动性的语言。
这些差异对孩子发展是有影响的。儿童的语言发展依赖于他们所处的环境,反过来,根据儿童词汇量和所掌握语法的复杂程度来衡量他们进入幼儿园时的语言技能,也能预测他们日后的学业成绩。
语言学习是社会性的,根植于人与人的关系中
不过研究表明,儿童对人工智能的理解与成年人不同,他们倾向于把机器人人格化,并赋予它们意识。这样做实际上有助于强化学习。
想做朋友吗?孩子们不会像成年人那样理解人工智能。一些研究表明孩子们倾向于把机器人人格化,并赋予它们意识。图源:Chadd Balfour / Shutterstock这就让人们陷入了伦理困境。如果孩子们对人工智能建立了信任关系,他们可以更好地学习,但同时,人们也要保护孩子们不受人工智能不可靠和缺乏关爱本能的伤害。他们可能需要学习,在把人工智能当作乐于助人的人类来对待的同时又能意识到它们并不是真正的人类。这对于许多成年人来说都很困难,更不用说儿童了。
一个真实的人,尤其是一个非常了解孩子的人,在讲故事时,就不仅仅是对故事进行评论或检查孩子对概念的理解。善于察言观色的父母在给孩子读书时,可能会把故事与孩子的亲身经历联系起来,或者对意想不到的情节或令人愉悦的语句表达喜悦之情。当孩子感到无聊或烦躁不安时,他们也可能会通过增加阅读的趣味性或通过提一些问题来转移孩子的注意力。这些人类的第二天性可能即可以加深父母与孩子之间的联系,又能提高孩子的学习效果。
无论对于哪一个年龄段的人来说,采用人工智能辅助教学,首选要考虑的一点因素就是人与人之间的交流,无论是眼神交流还是对话交流,是如何以及为何对学习起到如此大的促进作用的,这是一个最近引起了很大关注,但是仍然没有被理解的现象。越来越多的研究表明,有其他人在场的情况下,对某见事物的认知会被放大。例如,和相识的人一起品尝如巧克力一类的甜点,会有更加浓郁的味觉体验。人似乎能从与他人的互动中获得巨大的增益,这一点是不能被人工智能替代的。
在人工智能万能论的宣传甚嚣尘上的今天,我们必须牢记,人类的学习方式与机器不同,对于我们来说,重要的不仅仅是信息的可获得性,还有接收信息的社会环境。
作者:JULIE SEDIVY
翻译:小聪
审校:* 0
原文链接:When Kids Talk to Machines
本文来自微信公众号:中科院物理所(ID:cas-iop),作者:JULIE SEDIVY
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/780/068.htm]