大模型安全共2篇
OpenAI新突破:让大模型更懂“谁的话该听”-象者信息AI集锦

OpenAI新突破:让大模型更懂“谁的话该听”

你有没有试过给AI下指令,结果它却优先执行了你无意中夹带的恶意提示?OpenAI最新发布的IH-Challenge(指令层级挑战)正是为解决这一顽疾而生。它不是简单地“堵漏洞”,而是从根本上重塑大模型...
daxiang的头像-象者信息AI集锦daxiang28天前
0476
ChatGPT如何智防“提示词注入”攻击?-象者信息AI集锦

ChatGPT如何智防“提示词注入”攻击?

你是否担心,一句精心设计的诱导性指令,就能让AI助手泄露隐私、执行越权操作,甚至被操控为“数字傀儡”?OpenAI近日在博客中详解了ChatGPT背后的关键防护机制——并非依赖单一过滤器,而是通...
daxiang的头像-象者信息AI集锦daxiang28天前
0306