Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,677,830字

该文章投稿至Nemo社区   资讯  板块 复制链接


填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

发布于 2024/10/26 08:30 74浏览 0回复 650

感谢IT之家网友 咩咩洋Diixx 的线索投递!

IT之家 10 月 26 日消息,谷歌公司于 10 月 24 日发布博文,宣布推出 SAIF 风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。

SAIF 简介

IT之家注:谷歌去年发布了安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署 AI 模型,SAIF 不仅分享了最佳实践,还为行业提供了一个安全设计的框架。

为了推广这一框架,谷歌与行业伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的 AI 安全措施。

SAIF 风险评估工具

谷歌目前已经在新网站 SAIF.Google 上提供 SAIF 风险评估工具,该工具以问卷形式运行,用户回答后会生成定制化的检查清单,指导他们确保 AI 系统的安全。

工具涵盖多个主题,包括:

  • AI 系统的训练、调优和评估

  • 对模型和数据集的访问控制

  • 防止攻击和对抗性输入

  • 生成性 AI 的安全设计与编码框架

用户在回答问题后,工具会立即生成一份报告,突出 AI 系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。

每个风险都附有详细解释及建议的缓解措施,此外用户还可以通过互动 SAIF 风险地图了解在 AI 开发过程中如何引入与缓解不同的安全风险。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/805/347.htm]

本文标签
 {{tag}}
点了个评