在AI技术迅猛发展的当下,模型训练数据泄露、提示词注入、供应链污染等新型安全风险日益凸显。谷歌近日宣布加大对开源安全生态的投入,重点支持关键基础设施项目——包括OSV漏洞数据库、deps.dev依赖分析平台,以及Supply-chain Levels for Software Artifacts (SLSA)可信构建框架。这些工具并非面向终端用户的“AI应用”,而是为开发者提供底层安全能力:比如自动识别AI依赖库中的已知漏洞、验证模型权重文件是否被篡改、追踪从代码到部署的全链路可审计性。谷歌强调,真正的AI安全不能只靠黑盒检测,而需从开源生态根部加固。此次投资也推动了与Linux基金会、OpenSSF等组织的深度协作,将安全实践前移至开发早期。对国内AI团队而言,这意味着更可靠的开源基座和更透明的风险应对路径。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END


请登录后查看评论内容