IT之家 8 月 30 日消息,OpenAI 一直致力于开发能够造福全人类的人工智能技术,然而最近的一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 AI 长期风险的研究人员已经离开了这家公司。
图源 Pexels据 Fortune 报道,OpenAI 前治理研究员 Daniel Kokotajlo 表示,在过去几个月里,OpenAI 几乎一半的 AGI 安全团队成员已经离职。这引发了外界对公司是否正在忽视 AI 安全性的担忧。
AGI 安全研究人员主要负责确保未来开发的 AGI 系统不会对人类构成生存威胁。然而,随着 OpenAI 越来越专注于产品和商业化,研究人员的离职意味着公司的安全研究团队正在逐渐缩减。
Kokotajlo 指出,自 2024 年以来,OpenAI 的 AGI 安全团队已经从约 30 人减少到 16 人左右。他认为,这并不是一个有组织的行动,而是个人逐渐失去信心而离职。
OpenAI 发言人对此表示,公司为能够提供最有能力、最安全的人工智能系统感到自豪,并相信自己具有解决风险的科学方法。
IT之家注意到,今年早些时候,OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布辞去 OpenAI 职务,其领导的负责安全问题的“超级对齐”团队也遭到解散。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/792/177.htm]