Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,679,512字

该文章投稿至Nemo社区   资讯  板块 复制链接


员工称亚马逊 AI 聊天机器人 Q “幻觉”严重,且泄露公司机密数据

发布于 2023/12/02 15:13 242浏览 0回复 794

IT之家 12 月 2 日消息,亚马逊于今年 11 月底推出名为 Q 的 AI 聊天机器人,不过根据国外科技媒体 Platformer 披露的一份内部文件,亚马逊员工称 Q 存在严重的“幻觉”问题,并泄露了包括 AWS 数据中心位置、内部折扣计划等诸多机密信息。

IT之家 11 月 17 日报道,剑桥词典(Cambridge Dictionary)近日宣布 2023 年年度词汇为“hallucinate”(产生幻觉)。

hallucinate 原意为似乎看到、听到、感觉到或闻到“一些不存在的东西”,通常是指用户在不良健康或者服用药物状态下产生的幻觉。

伴随着 AI 的崛起,hallucinate 延伸为 AI 产生幻觉,生成错误的信息。

报告文件显示,亚马逊 Q 会产生幻觉,返回有害或不适当的聊天内容。例如,亚马逊 Q 会返回过时的安全信息,可能会让客户面临风险。

亚马逊淡化了员工讨论的重要性,并声称没有发现任何安全问题。然而,泄露的文件引发了人们对 Q 准确性和安全性的担忧,Q 仍处于预览阶段,尚未正式发布。

一名员工将该事件标记为“sev 2”,这意味着该事件非常严重,需要工程师加班第一时间修复。

Q 被定位为 ChatGPT 的企业级版本,旨在比消费级工具更安全。然而,内部文件强调了 Q 提供不准确或有害信息的风险。

报道称 Q 除了存在严重的幻觉之外,还泄露了公司机密数据,包括 AWS 数据中心的位置、内部折扣计划和未发布的功能。

文章发表后,该发言人发布一份声明,反驳了员工的说法,称亚马逊 Q 没有泄露机密信息。

相关阅读:

亚马逊 AWS 推出 AI 聊天机器人 Amazon Q 为企业提供服务

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/736/590.htm]

本文标签
 {{tag}}
点了个评