IT之家 7 月 17 日消息,生成式 AI 的迅猛发展和广泛应用引发了诸多担忧,从隐私安全到潜在的失业危机。虽然 AI 聊天机器人如 ChatGPT 和微软 Copilot 在短短时间内取得了惊人进步,能够写代码、纠错甚至挑战人类创意,但它们真的像表面看起来那么聪明吗?
麻省理工学院计算机科学与人工智能实验室(CSAIL)的一项最新研究指出,这些强大的大型语言模型(LLM)似乎更依赖记忆而不是真正的推理能力。它们在熟悉的任务上表现出色,但在面对新问题时却显得力不从心。
IT之家注意到,研究人员通过对比 AI 在不同任务上的表现得出这一结论。例如,GPT-4 在十进制算术方面表现优异,但在其他进制下却难以应对,类似的现象也出现在棋类游戏和空间推理等领域。研究人员认为,AI 更像是记忆力超群的“鹦鹉”,而非具备真正推理能力的“智者”。
研究结果表明,AI 在训练有素的领域内可以达到甚至超越人类水平,但这更多的是一种“记忆力”的体现。一旦面对全新的挑战,需要真正的推理能力时,AI 的优势便不再明显。
这一发现对 AI 的未来发展提出了新的挑战。虽然 AI 在某些领域已经展现出超越人类的能力,例如自动化大量重复性工作,但在创意、解决复杂问题等方面仍有巨大的提升空间。例如,一些媒体机构尝试用 AI 取代记者,结果却发现 AI 生成的新闻错误百出,反而增加了编辑的工作量。
游戏行业也面临类似的问题,AI 工具虽然能辅助开发过程,但核心创意和游戏体验的打造仍然离不开人类的智慧和创造力。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/782/419.htm]