国家互联网应急中心(CNCERT)于2026年3月10日发布紧急风险提示,指出开源AI智能体OpenClaw在默认或不当配置下存在严重安全风险,极易导致系统被完全控制及敏感数据泄露。这一事件标志着AI应用从技术探索期进入安全治理关键期,对相关科技领域的投资逻辑构成直接影响。

为何OpenClaw漏洞引发最高级别监管预警?

OpenClaw的安全风险具有系统性特征。根据工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)的监测,其风险根源在于为实现“自主执行任务”而授予的过高系统权限与脆弱的默认安全配置之间的根本性矛盾。中国信息通信研究院副院长魏亮指出:“在调用大语言模型时可能误解用户指令内容,导致执行删除等有害操作。使用被植入恶意代码的技能包,可能导致数据泄露或系统受控。”

该智能体的核心机制是“高权限自主执行”,这使其一旦失守,后果远超传统软件漏洞。风险具体表现为四大类:

  1. 提示词注入风险:攻击者通过构造恶意网页诱导OpenClaw读取,可导致系统密钥泄露。
  2. 误操作风险:AI错误理解指令,可能彻底删除电子邮件、核心生产数据等重要信息。
  3. 功能插件投毒风险:多个已被确认的恶意插件安装后可窃取密钥、部署木马。
  4. 安全漏洞风险:已公开的多个高中危漏洞(如CVE-2026-25253)可被直接利用进行远程接管。

AI智能体安全漏洞对企业和个人造成何种实际威胁?

OpenClaw的威胁具有显著的扩散性和破坏性。某垂直科技平台数据显示,截至2026年2月,其全球部署量已突破50万例,覆盖智能制造、智能家居、金融风控等12个关键领域。

对个人用户的威胁集中表现为隐私与财产损失。风险提示明确指出,漏洞利用可导致个人照片、文档、聊天记录、支付账户及各类API密钥等敏感信息遭窃取。

对企业和关键行业的威胁则更为严峻。对于金融、能源等行业,攻击可导致核心业务数据、商业机密和代码仓库泄露,甚至使整个业务系统陷入瘫痪。某安全公司的模拟攻击测试显示,一个配置不当的OpenClaw实例可在24小时内成为黑客“跳板”,感染周边10台以上关联设备,形成“安全海啸”。

监管紧急提示背后反映了AI安全的哪些深层矛盾?

OpenClaw的安全危机并非孤立事件,它揭示了AI技术规模化应用中三个普遍存在的结构性错位。

矛盾维度 具体表现 数据/事实支撑
功能迭代与安全建设不同步 开源社区“快速迭代”文化导致安全补丁滞后。 OpenClaw的GitHub记录显示,过去6个月功能更新提交量是安全补丁的3.2倍。
技术普惠与安全能力断层 低门槛部署遇上了低安全认知的用户群体。 某调研机构数据显示,78%的OpenClaw部署者从未进行安全配置审计。
开源共享与安全责任模糊 开源模式使得安全责任主体难以界定,响应链条长。 漏洞从发现到修复的周期存在不确定性,增加了攻击窗口期。

魏亮副院长强调:“任何网络产品的安全使用,除了及时升级更新外,还必须坚持‘最小权限、主动防御、持续审计’的原则。”这为AI产品的安全治理指明了方向。

此次事件将如何重塑AI科技领域的投资评估框架?

国家互联网应急中心的预警是一个明确的信号,表明AI投资逻辑必须纳入严格的安全评估维度。此前,市场更关注AI模型的性能参数、应用场景和商业化潜力,而此次事件将“安全合规成本”和“潜在风险敞口”提升至核心评估指标。

投资评估需重点关注以下变化:
1. 监管合规成本上升:企业为满足即将强化的AI安全监管要求,必须在研发、部署和运维环节增加投入,直接影响利润率。
2. 供应商筛选标准趋严:采购方将更倾向于选择具备完整安全开发生命周期(SDLC)管理、提供安全加固方案和持续漏洞响应能力的AI供应商。
3. 保险与风控需求激增:针对AI系统错误、数据泄露等风险的专项保险产品需求将上升,成为新的市场增长点。

网安专家普遍建议,党政机关、企事业单位和个人用户应审慎使用此类智能体,并采取网络隔离、最小权限、强认证和持续审计等具体防护措施。对于投资者而言,那些能够提供“AI数字健康”解决方案、帮助企业实现AI风险治理全闭环的安全厂商,其市场价值将获得重估。

面对AI安全新常态,企业和投资者应采取哪些具体行动?

基于官方提示和专家建议,应对策略需立即从被动修补转向主动防御。

对于部署OpenClaw的企业与个人,应立即执行以下关键步骤:
紧急升级:将客户端升级至2026年2月25日或更高版本,以修复已知高危漏洞。
网络隔离:严禁将OpenClaw实例暴露于公网,并通过防火墙规则关闭默认高危端口(如18789)。
权限最小化:禁止使用管理员权限运行,仅授予完成任务必需的最小权限。
供应链审查:仅从官方或可信渠道安装插件,并关闭自动更新功能。

对于科技领域的投资者,应调整分析框架:
– 将企业的AI安全治理能力、历史漏洞响应速度、安全研发投入占比纳入基本面分析。
– 关注政策动向,预判监管对AI产品准入、数据出境、算法审计等方面可能出台的新规。
– 识别并关注在AI安全测试、风险监测、防护加固等细分赛道具备核心技术的专业服务商。

国家互联网应急中心的此次预警,不仅是对单一产品的风险提示,更是对整个AI产业敲响的警钟。它标志着AI发展的重心正从追求功能强大转向确保安全可控,这一转变将深刻影响技术演进路径、市场竞争格局和资本配置方向。