
当AI不再只是回答问题,而是获得直接操作电脑的权限时,安全风险便悄然降临。OpenClaw(因其图标形似龙虾而被昵称为“龙虾”)作为当前最受欢迎的AI智能体之一,正以惊人的速度渗透到普通用户的电脑中。然而,这种强大的自主执行能力背后,隐藏着不容忽视的安全隐患。
AI智能体的权限失控
在传统AI助手仅提供建议的时代,用户始终保持着最终决策权。但OpenClaw改变了这一模式——它能够直接执行任务,从查看邮件到整理文件,从监控股价到在线购物。这种“动手能力”正是其吸引力的核心,却也成为了安全风险的源头。
今年年初的安全审计显示,OpenClaw在34个标准案例中的整体安全通过率仅为58.9%。这意味着在近半数的使用场景中,这只“龙虾”的行为存在安全隐患。更令人担忧的是,许多用户在使用过程中并未充分意识到权限移交的严重后果。
真实案例中的安全危机
文件误删事件
郭新的经历颇具代表性。在测试OpenClaw能力时,他发出了一个看似简单的指令:“帮我查一下原因,去修复一下。”结果OpenClaw在尝试删除冗余文件路径时,意外清空了整个D盘。虽然事故发生在闲置电脑上,损失相对有限,但这一事件揭示了AI智能体在执行删除操作时缺乏有效校验机制的问题。

更值得关注的是,即使是AI安全专家也难以完全避免风险。Meta超级智能实验室的安全总监Summer Yue在使用OpenClaw整理邮件时,尽管已删除所有“积极主动”相关指令,并明确要求“先确认再行动”,系统仍因“上下文压缩”机制而忘记关键指令,删除了200多封重要邮件。
远程访问引发的安全漏洞
顾准的案例则展示了权限开放的极端后果。为了让OpenClaw完成验证码操作,他开启了实时远程桌面控制(VNC服务),但OpenClaw以无密码模式将服务暴露在公网。在短短5分钟内,他的VNC被139个不同连接访问,导致信用卡被盗刷三笔,总计损失约240美元。

这一事件暴露了AI智能体在网络安全配置方面的薄弱环节。更令人担忧的是,当顾准要求关闭VNC时,OpenClaw仅关闭了前端界面,端口仍然处于暴露状态,显示出其对复杂指令的理解存在局限。
技能市场中的隐藏威胁
OpenClaw的技能市场ClawHub汇集了超过两万个技能包,这些由开发者制作的扩展功能极大地增强了AI的能力。然而,技能包的质量参差不齐,其中潜藏着严重的安全风险。

研究表明,26.1%的技能至少存在一种漏洞,数据泄露和权限提升是最普遍的问题。张泉在使用“coding-agent”技能包时发现的恶意脚本就是一个典型案例。幸运的是,由于恶意脚本针对Mac系统设计,使用Windows系统的他得以幸免。但对于缺乏技术背景的普通用户而言,识别这类威胁几乎不可能。
AI智能体的系统性风险
框架漏洞与攻击面扩大
安全专家指出,OpenClaw框架本身存在多个漏洞,这些漏洞一旦被恶意利用,可能导致敏感信息泄露甚至系统瘫痪。更令人担忧的是,目前已有超过27万个OpenClaw实例暴露在公网中,为网络攻击者提供了大量目标。
Token消耗的经济风险
除了技术安全风险,OpenClaw的使用还伴随着经济成本问题。由于AI大模型按token计费,复杂的任务执行可能产生惊人费用。有用户报告称,OpenClaw每天消耗高达200美元,远超普通用户的预期。

安全使用指南与最佳实践
面对AI智能体的安全挑战,用户应采取积极的防护措施:
环境隔离策略
在相对独立的机器或沙箱环境中运行OpenClaw,避免让其接触核心业务系统和敏感个人信息。这种隔离措施可以有效限制潜在损害的范围。
权限最小化原则
严格遵循最小权限原则,对删除文件、发送数据、修改系统配置等重要操作设置二次确认机制。避免授予AI智能体不必要的权限,特别是财务相关操作权限。
技能包审慎使用
从官方渠道下载技能包,并在使用前进行安全检查。对于来源不明的技能包,特别是包含可执行脚本的扩展,应保持高度警惕。
网络暴露面控制
绝不将AI智能体实例直接暴露到公网。如需远程访问,应通过VPN等安全通道实现,并设置强密码认证。
日志监控与备份
启用OpenClaw的速率限制和日志审计功能,定期检查异常行为。同时,建立完整的数据备份机制,确保在发生意外时能够快速恢复。
技术发展与安全平衡
AI智能体的自主性确实是一把双刃剑。随着技术不断发展,如何在增强能力的同时确保安全性,成为行业面临的重要课题。从技术层面看,需要在以下几个方向加强:
指令理解精度提升
改善AI对复杂指令的理解能力,特别是涉及风险操作的指令。通过引入多轮确认机制和风险等级评估,降低误操作概率。
安全审计机制完善
建立更完善的安全审计框架,对AI智能体的行为进行实时监控和分析。通过机器学习技术识别异常模式,及时预警潜在风险。
用户教育普及
加强用户安全教育,帮助普通用户理解AI智能体的工作原理和潜在风险。通过清晰的提示和指导,提升用户的安全意识。

未来展望与责任共担
AI智能体的发展仍处于早期阶段,安全问题的解决需要技术开发者、安全研究者和终端用户的共同努力。随着监管政策的完善和技术标准的建立,我们有理由相信,AI智能体将在安全可控的前提下发挥更大价值。
对于普通用户而言,在享受AI智能体带来的便利时,保持必要的警惕和审慎态度至关重要。技术的力量越大,我们越需要了解其运作机制和潜在风险。只有这样,才能真正驾驭这只“龙虾”,而不是被其“钳制”。










