图文
最新研究揭开了一个令人不安的真相:仅需250份恶意文档,就能让研究中的AI模型“中毒”,成功植入后门!这颠覆了“模型越大越安全”的基本假设。更可怕的是,这意味着攻击成本与训练集规模无关。
后门攻击 数据投毒 模型安全
返朴 2025-12-08