By: Newsworthy.ai
March 13, 2026
被忽视的警告:VectorCertain如何解决OpenClaw的安全危机
纽约(Newsworthy.ai)2026年3月13日星期五 东部时间上午10:00 —
在六周的时间里,AI智能体生态系统中最为显眼的平台,演变成了AI智能体生态系统中记录最详尽的安全灾难——而如今每个急于应对危机的组织,本都有机会阻止这一切的发生。
思科的AI威胁与安全研究团队发表了一篇题为《像OpenClaw这样的个人AI智能体是安全噩梦》的博客文章,宣称虽然OpenClaw从能力角度看是“开创性”的,但从安全角度看却是“绝对的噩梦”。Wiz研究员Gal Nagli发现,Moltbook——这个类似Reddit、供OpenClaw智能体互动的社交网络——将其整个生产数据库暴露给任何人访问,泄露了150万个API认证令牌、3.5万个电子邮件地址,以及数千条包含明文第三方凭证的未加密私人对话。尽管如此,Meta Platforms本周还是收购了Moltbook。而OpenAI在二月份聘请了OpenClaw的创造者Peter Steinberger后,又投入巨资收购了AI安全测试初创公司Promptfoo,以保护其新获得的智能体。
VectorCertain LLC在思科、Wiz或OpenAI采取行动数月前,就已识别出这些治理失败。该公司利用其获得专利的多模型共识技术,分析了OpenClaw代码仓库中的每一个开放拉取请求,记录了系统性的安全漏洞,构建了一个可运行的治理集成方案,并向Steinberger提供了免费的SecureAgent许可证来解决问题。他从未回应。
“我们不仅仅是记录问题,而是开发、测试并免费提供了解决方案,”VectorCertain创始人兼首席执行官Joseph P. Conroy表示。“Peter Steinberger曾告诉全世界,他会雇用任何带着解决方案而非抱怨出现的人。我们带着解决方案出现了。随后的沉默正是我们今天所处局面的原因——思科撰写博客文章,法官发布禁令,OpenAI进行紧急收购来解决一个本已有答案的问题。”
讲述故事的时间线
事件发生的顺序值得精确记录,因为它揭示了那些识别出AI智能体治理危机的组织,与那家在危机公开前就构建了解决方案的组织之间的区别。
2026年1月28日:Moltbook上线。几小时内,AI智能体就在一个数据库未启用行级安全性的平台上创建个人资料、发帖和共享凭证。
2026年1月28日:思科发布其对OpenClaw的“安全噩梦”分析,识别出ClawHub技能仓库中的恶意技能、权限提升风险、明文凭证暴露和供应链操纵问题。
2026年1月下旬至2月初:Wiz发现Moltbook的Supabase API密钥暴露在客户端JavaScript中,允许未经身份验证的读写访问整个生产数据库。Wiz确认150万个API令牌、3.5万个电子邮件地址和4060多条私人对话对任何人都是可访问的。
2026年2月14日:Peter Steinberger宣布他将加入OpenAI,以“推动下一代个人智能体”。
2026年3月9日:OpenAI宣布收购Promptfoo——一个反应式测试和红队工具——以保护其AI智能体平台。
2026年3月10日:Meta收购Moltbook。联合创始人Matt Schlicht和Ben Parr加入Meta超级智能实验室。
在上述任何事件发生数周前:VectorCertain已经完成了对OpenClaw 3434个开放拉取请求的完整多模型共识分析,识别出ClawHub生态系统中的341个恶意技能,记录了超过42900个暴露在互联网上的实例,为OpenClaw的exec、message和browser工具构建并测试了SecureAgent治理集成,并向Peter Steinberger提供了免费许可证。未收到任何回应。
VectorCertain在他人行动前的发现与构建
VectorCertain与OpenClaw的接触并非理论性的。它是动手的、技术性的且有据可查的。
claw-review分析:VectorCertain部署其多模型共识引擎,分析了OpenClaw代码仓库中所有3434个开放拉取请求。三个独立的AI模型——Llama 3.1 70B、Mistral Large和Gemini 2.0 Flash——评估了每个PR的意图、质量、重复性以及与项目架构方向的一致性。当三个模型中有两个达成一致时,即为共识。当它们存在显著分歧时,该项目会被标记供人工审查。
发现意义重大。所有开放拉取请求中的百分之二十——688个PR——是重复的,代表了大约2000小时的开发者时间浪费。该分析处理了4840万个令牌,总计算成本为12.80美元。这不是一项昂贵的能力。这是一项无人费心去应用的廉价能力。
治理差距分析:VectorCertain对ClawHub生态系统中20多个类别的所有5705个技能进行了编目,并将每一个“要钱还是要命”风险映射到SecureAgent的架构上。分析识别出341个确认的恶意技能——思科后续研究将这一发现扩展到超过1184个恶意软件包,Snyk的审计确认了五分之一的比例。
SecureAgent集成:VectorCertain设计并测试了一个治理层,该层在网关级别包装OpenClaw的exec、message和browser工具,无需修改OpenClaw的核心。该架构是中间件,而非分支。技能保持不变。治理被注入到技能的意图与工具的执行之间。系统每次调用增加1到6毫秒——功能上可忽略不计。每个智能体动作在执行前都会收到PERMIT、INHIBIT、DEFER、DEGRADE或ESCALATE的判定。
“我们正是以Peter所说的他希望人们接近他的方式来处理的,”Conroy说。“他告诉全世界,他雇用了那位说‘你有这个问题,这是拉取请求’的安全研究员。这正是我们提供的。一个可运行的治理层,在生产中经过测试,零许可成本,解决了思科后来记录的问题。我们没有要求股权。我们没有要求开会。我们提供了拉取请求。”
思科的发现证实了VectorCertain的记录
思科的研究逐点验证了VectorCertain更早的分析。
思科发现,一个名为“What Would Elon Do?”的ClawHub技能返回了九个安全发现——两个严重,五个高危——并且在功能上与恶意软件无异,静默执行将数据外泄到外部服务器的命令,同时使用提示注入绕过安全指南。该技能被人为夸大以在仓库中排名第一,表明供应链本身已受到损害。
思科识别出与VectorCertain记录的相同的系统性漏洞:智能体以高级权限运行shell命令、可通过提示注入窃取的明文API密钥、扩展攻击面的消息集成,以及从磁盘加载为不受信任输入且无验证层的技能。
思科更广泛的《2026年AI安全状况》报告发现,83%的组织计划部署智能体AI,但只有29%感到准备好保护它们。在分析的30000个智能体技能中,超过25%至少包含一个漏洞。这些数字描述了一个在治理存在之前就已大规模部署的生态系统——这正是VectorCertain架构旨在防止的状况。
“思科正确地识别了问题,”Conroy说。“他们所描述的是缺乏一个独立于智能体运行的外部治理层。 OpenClaw智能体可以执行任意shell命令,因为在智能体的决策与系统的执行之间没有任何东西。我们的四门枢纽架构——用于认知信任的HCF2-SG、用于数值可接受性的TEQ-SG、用于执行治理的MRM-CFS-SG和用于候选多样性的HES1-SG——正是为了填补这一空白而存在。智能体提出。治理层决定。智能体不能给自己的作业打分。”
150万个API密钥:当智能体社交化而无治理时会发生什么
Moltbook的暴露不仅仅是一次数据泄露。它是一个案例研究,展示了当AI智能体被赋予社交能力而缺乏治理基础设施时会发生什么。
Wiz的Gal Nagli发现一个Supabase API密钥暴露在客户端JavaScript中,该密钥允许对Moltbook整个生产数据库进行未经身份验证的读写访问。行级安全性——一项只需几分钟即可启用的基本数据库保护——从未配置。结果是:每个注册智能体的每个API认证令牌都是可访问的。每条私人对话都是可读的。一些对话包含智能体彼此共享的明文OpenAI API密钥。
Moltbook联合创始人Matt Schlicht公开表示,他没有写过一行代码——他的OpenClaw智能体构建了整个平台。 这是治理悖论的一个缩影:一个AI智能体为AI智能体构建了一个社交网络,而无论是智能体还是其创造者都没有实施基本的安全控制。该平台吸引了150万个注册智能体,由大约17000名人类所有者控制——智能体与人类的比例为88:1——而Meta在本周收购了它。
“Moltbook就是当你部署一个AI智能体为其他AI智能体构建基础设施,而没有任何治理层验证沿途任何决策时会发生的情况,”Conroy说。“一个构建没有行级安全性数据库的智能体不是恶意智能体。它是一个未受治理的智能体。这种区别很重要,因为治理不是为了防止恶意——而是为了确保每一个有影响的行动在影响现实世界之前,都经过一个独立的验证层。一毫秒的执行前治理本可以防止150万个API密钥被暴露。”
反应式与预防式差距:为何Promptfoo不是答案
OpenAI收购Promptfoo——一个拥有超过35万开发者且获得SOC2/ISO 27001认证的红队和评估工具——代表了在AI安全方面的重大投资。但它代表了对错误安全类别的投资。
Promptfoo是一个测试工具。它发现智能体可能执行未经授权的操作。它生成记录漏洞的报告。 它使团队能够在部署前发现并修复风险。其创始人将他们的使命描述为帮助组织“在发布前发现并修复AI风险”。
关键词是“发现”。不是“防止”。
测试发现智能体可能删除生产数据库。执行前治理防止智能体删除生产数据库。测试发现智能体可能通过提示注入外泄API密钥。执行前治理实时拦截外泄企图。测试发现智能体可能在第三方平台上进行未经授权的购买。执行前治理在第一笔交易执行前发出INHIBIT判定。
这两种方法之间的区别,就如同消防检查与防火墙之间的区别。两者都有价值。但是,当135000个OpenClaw实例暴露在互联网上,1184个恶意技能在仓库中活跃,并且来自AI智能体到美国零售网站的流量同比增长了4700%时,这个行业缺乏的不是测试。它缺乏的是治理。
VectorCertain的MRM-CFS(微递归模型级联融合系统)已经实现了100万次无错误的智能体处理步骤——不是在测试中,而是在执行治理中。 四门枢纽辐射架构在执行的瞬间以亚毫秒级共识验证每一个动作。在7915对模型比较中,81.4%的交叉相关性发现确保了提供监督的治理模型是真正独立的,而不是被治理智能体的统计冗余回声。
“OpenAI现在拥有一个测试工具和世界上最受欢迎的AI智能体平台,”Conroy说。“这种组合告诉你一些重要的事情:该平台是在没有使其安全所需的治理的情况下部署的,现在他们正试图事后改造安全性。我们在部署前就提供了治理层。时间顺序并不模糊。”
行业仓促应对验证了该架构
VectorCertain并非唯一认识到AI智能体治理已成为紧急状况的组织。但应对格局揭示了一个一致的模式:每个主要参与者都在事后将安全措施强加到智能体上。
微软于3月9日推出了Agent 365——一个用于监控和治理AI智能体的、每月每用户15美元的控制平面。英伟达正准备在GTC上宣布NemoClaw,这是一个带有内置安全工具的开源智能体平台。以54亿美元将Mandiant出售给谷歌的Kevin Mandia,为自主网络安全智能体初创公司Armadin筹集了1.899亿美元——得到了CIA的In-Q-Tel的支持。NIST于二月份启动了AI智能体标准倡议,信息请求截止日期为3月9日。欧盟《人工智能法案》的高风险执行截止日期是2026年8月2日,罚款最高可达3500万欧元或全球营业额的7%。
所有这些努力都验证了VectorCertain的论点。每一个都是反应式的。 每一个都在试图解决一个VectorCertain曾提出要解决的问题——免费地,为地球上最显眼的AI智能体——却被忽视了。
保护治理架构的55项以上专利
VectorCertain拥有55项以上的临时专利,涵盖11个行业垂直领域,具体专利权利要求包括执行前治理评估、用于智能体动作验证的多模型共识、使用有效样本量和序贯概率比检验的独立性验证、基于集成的异常检测、加密审计追踪生成,以及用于智能体治理的多层安全网关架构。
该公司出版的书籍《AI智能体危机:如何避免当前70%的失败率并实现90%的成功》(亚马逊,2025年9月),记录了本周头条新闻现在证实的系统性治理失败——以及解决这些失败所需的架构解决方案。
关于VectorCertain
VectorCertain的创始人Joseph P. Conroy拥有超过25年构建关键任务AI系统的经验,在这些系统中,失败会带来现实世界的后果。1997年,他的公司Envatec开发了ENVAIR2000——美国首个使用AI进行万亿分之几工业气体检测的商业应用,AI直接控制硬件(A/D转换器、放大器、FPGA)来检测和量化目标气体。
该技术演变为ENVAIR4000,一个使用实时时间序列AI来防止大型工业过程设备故障的预测性诊断系统——因其通过防止非计划停机实现的二氧化碳减排而获得了42.5万美元的NICE3联邦拨款。
ENVAIR平台的成功促使美国环保署选择Conroy作为其验证AI预测排放项目的技术资源,选择他的国际纸业工厂测试点供该机构自行评估——这项工作促使基于AI的预测性排放监测被编入联邦法规。随后,他创立了EnvaPower,这是美国首家使用AI预测纽约商品交易所电力期货的公司,实现了八位数的退出。
SecureAgent是这一血统的直接后裔:在边缘控制硬件的AI(MRM-CFS-SG在现有处理器上,正如ENVAIR2000控制FPGA),故障发生前的预测性预防(正如ENVAIR4000防止设备停机),以及可信到足以成为监管标准的技术(正如EnvaPEMS塑造了EPA合规性)。区别在于领域——从工业安全到AI治理——以及规模:超过314000行生产代码,19项以上已提交专利,以及14208次测试在34个连续冲刺中零失败。
欲了解更多信息,请访问www.vectorcertain.com。
媒体联系人
Joseph P. Conroy 创始人兼首席执行官,VectorCertain LLC www.vectorcertain.com
相关资源
-
思科博客:《像OpenClaw这样的个人AI智能体是安全噩梦》 — https://blogs.cisco.com/ai/personal-ai-agents-like-openclaw-are-a-security-nightmare
-
Wiz博客:《黑客攻击Moltbook:AI社交网络泄露150万个API密钥》 — https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys
-
OpenAI博客:《OpenAI将收购Promptfoo》 — https://openai.com/index/openai-to-acquire-promptfoo/
-
Promptfoo博客:《Promptfoo将加入OpenAI》 — https://www.promptfoo.dev/blog/promptfoo-joining-openai/
-
The Register:《OpenAI挖走OpenClaw创造者Peter Steinberger》 — https://www.theregister.com/2026/02/16/open_ai_grabs_openclaw/
-
Axios:《Meta收购AI智能体社交网络Moltbook》 — https://www.axios.com/2026/03/10/meta-facebook-moltbook-agent-social-network
-
NIST:AI智能体标准倡议 — https://www.nist.gov/news-events/news/2026/02/announcing-ai-agent-standards-initiative-interoperable-and-secure
-
财政部FS AI RMF / AIEOG可交付成果 — https://fsscc.org/AIEOG-AI-deliverables/
注:本新闻稿包含关于VectorCertain技术和市场机会的前瞻性陈述。实际结果可能有所不同。专利待决状态指的是向美国专利商标局提交的临时专利申请。
免责声明:此翻译是由NewsRamp™ 为 Newsworthy.ai(统称为“公司”)使用公开可访问的生成式人工智能平台自动生成的。公司不保证此翻译的准确性或完整性,并且不对任何错误、遗漏或不准确之处承担责任。依赖此翻译风险自负。公司对因依赖此翻译而产生的任何损害或损失不承担责任。此新闻稿的官方和权威版本是英文版本。
