IT之家 9 月 20 日消息,丰田研究院(TRI)利用生成式 AI 在一个“机器人幼儿园”中教机器人如何做早餐,或者至少是做早餐所需的各个任务。他们并不需要花费数百小时的编码和调试,而是通过给机器人一个触觉感知器,将它们接入一个 AI 模型,然后像教一个人类一样,向它们展示如何做。
研究人员表示,触觉感知是“一个关键的推动因素”。通过给机器人安装一个“大而软的拇指”,模型可以“感受”它正在做的事情,从而获得更多的信息,这使得一些困难的任务比仅靠视觉更容易完成。
该实验室的灵巧操作经理本・伯奇菲尔德(Ben Burchfiel)称,看到它们与环境互动是“令人兴奋的”。首先一个“老师”会展示一系列技能,然后在“几个小时内”,模型就在后台学习。他补充说,“我们经常在下午教一个机器人,让它在夜间学习,然后第二天早上就能看到一个新的行为。”
研究人员称,他们试图为机器人创建“大行为模型”(LBMs)。类似于 LLMs 是通过注意人类写作中的模式来训练的,丰田的 LBMs 将通过观察来学习,然后“泛化”,执行它们从未被教过的新技能。
使用这种方法,研究人员说他们已经训练了 60 多个具有挑战性的技能,如“倒液体、使用工具和操纵可变形物体”,他们希望到 2024 年底将这个数字提高到 1000。
IT之家注意到,谷歌也在进行类似的研究,与丰田研究人员采用的方法类似,他们的机器人 RT-2 利用自己获得的经验来推断如何做事情。理论上,经过 AI 训练的机器人最终可以不需要太多的指令就能执行一些任务。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/720/415.htm]