谷歌加码开源安全,筑牢AI时代防护墙

在AI技术迅猛发展的当下,模型训练数据泄露、提示词注入、供应链污染等新型安全风险日益凸显。谷歌近日宣布加大对开源安全生态的投入,重点支持关键基础设施项目——包括OSV漏洞数据库、deps.dev依赖分析平台,以及Supply-chain Levels for Software Artifacts (SLSA)可信构建框架。这些工具并非面向终端用户的“AI应用”,而是为开发者提供底层安全能力:比如自动识别AI依赖库中的已知漏洞、验证模型权重文件是否被篡改、追踪从代码到部署的全链路可审计性。谷歌强调,真正的AI安全不能只靠黑盒检测,而需从开源生态根部加固。此次投资也推动了与Linux基金会、OpenSSF等组织的深度协作,将安全实践前移至开发早期。对国内AI团队而言,这意味着更可靠的开源基座和更透明的风险应对路径。

来源:Google-AI-Blog

© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片快捷回复

    请登录后查看评论内容