Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,727,633字

该文章投稿至Nemo社区   资讯  板块 复制链接


微软副总裁 Vik Singh:AI 聊天机器人需“学会求助”而非“制造幻觉”

发布于 2024/09/02 09:48 122浏览 0回复 632

IT之家 9 月 2 日消息,当地时间 9 月 1 日,据法新社报道,微软公司副总裁 Vik Singh 在接受采访时说,“坦率地说,如今(生成式 AI)真正缺少的能力,即是当模型无法确定(自身答案是否准确)时,能够主动说‘嘿,我不确定,我需要帮助’。”

自去年以来,微软、谷歌及其竞争对手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 应用,这些应用可以按需生成各种内容,并给用户一种“无所不知”的错觉。尽管生成式 AI 的开发取得了进展,它们仍然会出现“幻觉”或编造答案

图源 Pexels

Vik Singh 坚持认为,“真正聪明的人”正在努力找到方法,让聊天机器人在不知道正确答案时“承认并寻求帮助”

与此同时,云端软件巨头 Salesforce 的首席执行官 Marc Benioff 也在上周表示,他看到许多客户对微软 Copilot 的误导性表现越来越感到沮丧。

IT之家获悉,近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如 ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“幻觉”问题,即提供错误的答案,有时甚至是危险的信息。造成“幻觉”的原因之一,是训练数据不准确、泛化能力不足以及数据采集过程中的副作用

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/792/768.htm]

本文标签
 {{tag}}
点了个评