对于“龙虾”(OpenClaw)的爆火以及其有可能引发的安全问题,全国政协委员、奇安信集团董事长齐向东在接受记者采访时表示,AI正在向“超人化”演进,而这之中存在危机。
他提到了AI安全领域关于OpenClaw的一则安全事件:Meta的安全总监在使用OpenClaw清理邮箱的过程中,发现它忽视了“未经批准不得操作”的安全指令,紧急叫停3次OpenClaw都没有停止,直到工作邮件被全部清空,损失惨重。马斯克转发这件事并配了一句话“人们把自己整个人生的root权限交给OpenClaw”,我认为非常贴切。
齐向东表示,“AI超人”拥有超级权限、超级能力,很可能脱离控制,安全隐患巨大。概括来说,它加剧了三大危机:首先加剧了数据安全危机。AI要代替多少人去工作,就要被赋予多少人的数据权限,彻底突破了原有的权限管理和安全措施。加上现在越来越多企业,为了让AI作用最大化,把积累多年、分散各处的关键数据“去粗取精”形成“精华小数据”。一旦AI被攻破,企业多年积累的核心竞争力会瞬间化为乌有。
其次,它还加剧了安全“易攻难守”的危机。AI“超人”无所不能、什么都会,大幅降低了网络攻击成本和攻击门槛,安全防护难度陡增。
最后,加剧了网络安全“链式”危机。一些政企机构在AI应用上跑得快,但安全防护跟不上,不少AI“裸奔”上线,攻击者可以通过漏洞利用、外部渗透、提权、投毒等方式间接干扰和控制大模型或智能体,影响业务和系统的正常运行。
齐向东告诉记者,没有安全的创新走不远,也走不稳。从这两年,大模型、智能体、具身智能等各种AI形态遭受的网络攻击来看,为AI预设“安全护栏”是非常有必要的。
“要实现‘创新和安全的动态平衡’,就要把安全能力嵌入AI应用的全生命周期,做到纵深防御。明确合规红线,夯实安全主体责任,强化权限与内容管控。以及用AI对抗AI,让安全能力始终比安全风险快一步。”齐向东说。













