AI 系统的安全风险和挑战
《AI系统的安全风险和挑战》由CertiK AI安全监管与治理专家李康撰写,聚焦大模型时代“系统级”威胁。报告先以欧盟AI法案风险金字塔为框架,剖析近期字节跳动实习生投毒、DeepSeek数据库泄露、ShadowRay等真实事件,指出AI Agent浪潮下传统漏洞(RCE、供应链投毒、对抗样本)与新型风险(沙箱逃逸、物理世界攻击)并存。通过GPT-Academic、Invoke AI等沙箱绕过案例,演示攻击者如何利用模型加载、文件解析、任务执行链实现远程控制;并以Tesla FSD闯红灯攻击为例,警示物理AI Agent的安全边界。最后呼吁在“AI平权”趋势下,安全监管必须超越传统网络安全假设,建立覆盖模型、数据、运行环境、物理交互的全栈治理体系。
Certik 首席安全官 李康在《AI 系统的安全风险和挑战》的主题演讲中,谈到目前 AI 安全讨论通常集中在抽象层面(如 AI 对人类社会的威胁)和算法层面,但忽略系统安全层面的重要性和紧迫性,如今,AI 智能体的普及带来新的安全挑战,这些智能体带有执行环境,允许代码执行,这为攻击者提供机会。李康举例如何利用传统安全手段攻击 AI 智能体,通过简单的手段如命令注入、越权访问等,可轻易地对 AI 智能体进行攻击。
“攻击者并不一定针对AI的偏见或利用Prompt和幻觉进行攻击智能体,而是寻找有价值的目标,并用最简单的方式达成目的,当前AI的安全监管和检测尚未充分考虑这一点,未来需关注具体事件的爆发以应对这些潜在威胁。”李康提醒说。
随后,李康进一步分析物理世界中的 AI Agent 同样面临安全风险,阐述 AI 系统在现实世界中的安全隐患。李康表示,AI Agent 为安全研究带来机会与责任,既让我们重新审视和应用过去的安全手段进行防护,同时也要求我们在发现攻击路径和方法上进行创新,尤其是在面对真实场景时,不依赖传统的直接互动方式。
李康提醒道,AI 的普及不仅带来技术平权,也引入新的安全风险,希望安全从业者获得更多话语权和重视,尤其是在监管层面应更加关注底层安全问题。最后,李康呼吁更多人参与到 AI 安全的研究和实践中来。