“养龙虾”是近来科技圈最热闹的话题。“龙虾”是开源AI智能体OpenClaw的别称,因其图标是红色龙虾而得名。该工具通过整合通信软件与大语言模型,能在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力,在很多体验过的网友看来,简直就是私人助理。
“龙虾”出现以后,受到我国产业界和广大用户广泛关注,大家积极开展实践应用,推动了我国AI智能体生态繁荣。但与此同时,“龙虾”很强的执行能力也带来严峻的安全挑战。
近期,工业和信息化部网络安全威胁和漏洞信息共享平台发布“关于防范OpenClaw开源AI智能体安全风险的预警提示”,针对存在的安全风险给出了一些防范建议。
3月10日,国家互联网应急中心发布关于OpenClaw安全应用的风险提示,指出该类智能体在运行过程中通常需要被授予较高系统权限,例如访问本地文件系统、读取环境变量、调用外部API(应用程序编程接口)以及安装扩展插件等。如果默认配置缺乏必要的安全限制,攻击者一旦利用漏洞突破防护,可能获得系统的完全控制权,进而造成数据泄露或业务系统失控等严重后果。
3月11日,360集团发布国内首份《OpenClaw安全部署与实践指南》(以下简称《指南》),总结了当前AI智能体部署面临的多类典型风险,包括公网管理接口暴露、API Key等身份凭证泄露、提示词注入攻击、第三方技能插件供应链风险以及多智能体协同失控等问题。其中,提示词注入和插件供应链攻击被认为是当前最容易被忽视却危害较大的新型攻击方式。一旦被利用,攻击者可能诱导智能体执行非预期指令,甚至长期操控其行为。
对此,中国信息通信研究院副院长魏亮表示,目前“龙虾”智能体更新迭代非常快,通过更新到官方最新版本,确实能修复已知的安全漏洞,但并不意味着完全消除安全风险。作为本地运行的AI代理,“龙虾”具有自主决策、调用系统资源等特点,加之信任边界模糊、技能包市场目前还缺乏严格审核,存在不少风险隐患。比如,在调用大语言模型时可能误解用户指令内容,导致执行删除等有害操作。使用被植入恶意代码的技能包,可能导致数据泄露或系统受控。即使升级到最新版本,如果不采取针对性的防范措施,依然存在被攻击风险。网络安全是动态的,黑客攻击手法也在不断迭代,不能把“打补丁”和“升版本”当成一劳永逸的安全保障。
360集团创始人周鸿祎认为,OpenClaw等AI智能体虽然拥有较大的创新潜力,但目前仍处于发展初期阶段,使用门槛较高、结果稳定性不足,底层安全机制仍有待进一步完善。如果缺乏有效管控,让智能体随意与外部系统交互,或在公开环境中执行复杂任务,可能导致用户密码、API密钥等敏感信息被诱导泄露。此外,OpenClaw支持通过外部技能包扩展能力,但部分技能包来源复杂,如果缺乏审核机制,存在被植入恶意代码的风险。
魏亮表示,任何网络产品的安全使用,除了及时进行升级更新外,还必须坚持“最小权限、主动防御、持续审计”的原则。结合前期发布的风险提示,想要安全使用“龙虾”智能体,他建议使用官方最新版本,切勿使用第三方镜像或旧版;严格控制互联网暴露面,定期自查是否存在互联网暴露情况,一旦发现立即下线整改;坚持最小权限原则,在容器或虚拟机中隔离运行,以形成独立的权限区域;谨慎使用技能市场;建立长效防护机制,定期关注OpenClaw官方安全公告、工业和信息化部网络安全威胁和漏洞信息共享平台等的风险预警,及时处置可能存在的安全风险。
针对个人开发者和小型团队,《指南》建议避免直接在本机高权限运行智能体,而是通过容器化技术构建隔离环境,并结合最小权限策略、密钥加密注入和关键配置文件防篡改等措施,为OpenClaw搭建安全运行基础,从而在不增加复杂度的情况下有效降低风险。对于政企级多智能体协同应用场景,《指南》建议要打造基于零信任理念的整体安全架构。
“‘龙虾’作为新生事物,不应因为潜在风险而被简单否定,而应在发展中逐步建立安全边界。普通用户在使用智能体时要特别注意账户与资金安全,不要向智能体泄露密码、口令等敏感信息。”周鸿祎说。













