IT之家 7 月 21 日消息,专门推动全球结构化信息标准的非营利组织 OASIS Open(由微软、英伟达、英特尔、谷歌、OpenAI、IBM、亚马逊、思科等厂商组建)在 7 月 18 日宣布建立 CoSAI 安全联盟(Coalition for Secure AI,安全 AI 联盟)。
IT之家获悉,该联盟计划与学术界共同解决三大重点领域,分别是 AI 软件供应链安全性、网络领域安全性及 AI 安全治理性。同时将与 Frontier Model Forum、Partnership on AI、Open Source Security Foundation、ML Commons 等 AI 安全组织合作,以共同推动“负责任的 AI”。
具体来说,CoSAI 计划建立一个协作生态体系分享与 AI 安全设计有关的“方法、标准化框架及工具”,并通过一系列被认证为“安全”的 AI 系统来构建、部署运营环境,以降低“模型操纵、模型盗窃、恶意训练数据、提示词‘越狱’”等情况发生的可能性,从而为 B 端市场提供安全的解决方案。
OASIS 组织表示,安全需要“集体行动”,为了安全地参与数字生态体系,大家都应该采用通用的安全标准,在 AI 方面“也并不例外”。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/783/241.htm]