Publishers

Need unique free news content for your site customized to your audience?

Let's Discuss

By: Newsworthy.ai
March 13, 2026

被忽视的警告:VectorCertain如何解决OpenClaw的安全危机

纽约(Newsworthy.ai)2026年3月13日星期五 东部时间上午10:00 —

在六周的时间里,AI智能体生态系统中最为显眼的平台,演变成了AI智能体生态系统中记录最详尽的安全灾难——而如今每个急于应对危机的组织,本都有机会阻止这一切的发生。

思科的AI威胁与安全研究团队发表了一篇题为《像OpenClaw这样的个人AI智能体是安全噩梦》的博客文章,宣称虽然OpenClaw从能力角度看是“开创性”的,但从安全角度看却是“绝对的噩梦”。Wiz研究员Gal Nagli发现,Moltbook——这个类似Reddit、供OpenClaw智能体互动的社交网络——将其整个生产数据库暴露给任何人访问,泄露了150万个API认证令牌、3.5万个电子邮件地址,以及数千条包含明文第三方凭证的未加密私人对话。尽管如此,Meta Platforms本周还是收购了Moltbook。而OpenAI在二月份聘请了OpenClaw的创造者Peter Steinberger后,又投入巨资收购了AI安全测试初创公司Promptfoo,以保护其新获得的智能体。

VectorCertain LLC在思科、Wiz或OpenAI采取行动数月前,就已识别出这些治理失败。该公司利用其获得专利的多模型共识技术,分析了OpenClaw代码仓库中的每一个开放拉取请求,记录了系统性的安全漏洞,构建了一个可运行的治理集成方案,并向Steinberger提供了免费的SecureAgent许可证来解决问题。他从未回应。

“我们不仅仅是记录问题,而是开发、测试并免费提供了解决方案,”VectorCertain创始人兼首席执行官Joseph P. Conroy表示。“Peter Steinberger曾告诉全世界,他会雇用任何带着解决方案而非抱怨出现的人。我们带着解决方案出现了。随后的沉默正是我们今天所处局面的原因——思科撰写博客文章,法官发布禁令,OpenAI进行紧急收购来解决一个本已有答案的问题。”

讲述故事的时间线

事件发生的顺序值得精确记录,因为它揭示了那些识别出AI智能体治理危机的组织,与那家在危机公开前就构建了解决方案的组织之间的区别。

2026年1月28日:Moltbook上线。几小时内,AI智能体就在一个数据库未启用行级安全性的平台上创建个人资料、发帖和共享凭证。

2026年1月28日:思科发布其对OpenClaw的“安全噩梦”分析,识别出ClawHub技能仓库中的恶意技能、权限提升风险、明文凭证暴露和供应链操纵问题。

2026年1月下旬至2月初:Wiz发现Moltbook的Supabase API密钥暴露在客户端JavaScript中,允许未经身份验证的读写访问整个生产数据库。Wiz确认150万个API令牌、3.5万个电子邮件地址和4060多条私人对话对任何人都是可访问的。

2026年2月14日:Peter Steinberger宣布他将加入OpenAI,以“推动下一代个人智能体”。

2026年3月9日:OpenAI宣布收购Promptfoo——一个反应式测试和红队工具——以保护其AI智能体平台。

2026年3月10日:Meta收购Moltbook。联合创始人Matt Schlicht和Ben Parr加入Meta超级智能实验室。

在上述任何事件发生数周前:VectorCertain已经完成了对OpenClaw 3434个开放拉取请求的完整多模型共识分析,识别出ClawHub生态系统中的341个恶意技能,记录了超过42900个暴露在互联网上的实例,为OpenClaw的exec、message和browser工具构建并测试了SecureAgent治理集成,并向Peter Steinberger提供了免费许可证。未收到任何回应。

VectorCertain在他人行动前的发现与构建

VectorCertain与OpenClaw的接触并非理论性的。它是动手的、技术性的且有据可查的。

claw-review分析:VectorCertain部署其多模型共识引擎,分析了OpenClaw代码仓库中所有3434个开放拉取请求。三个独立的AI模型——Llama 3.1 70B、Mistral Large和Gemini 2.0 Flash——评估了每个PR的意图、质量、重复性以及与项目架构方向的一致性。当三个模型中有两个达成一致时,即为共识。当它们存在显著分歧时,该项目会被标记供人工审查。

发现意义重大。所有开放拉取请求中的百分之二十——688个PR——是重复的,代表了大约2000小时的开发者时间浪费。该分析处理了4840万个令牌,总计算成本为12.80美元。这不是一项昂贵的能力。这是一项无人费心去应用的廉价能力。

治理差距分析:VectorCertain对ClawHub生态系统中20多个类别的所有5705个技能进行了编目,并将每一个“要钱还是要命”风险映射到SecureAgent的架构上。分析识别出341个确认的恶意技能——思科后续研究将这一发现扩展到超过1184个恶意软件包,Snyk的审计确认了五分之一的比例。

SecureAgent集成:VectorCertain设计并测试了一个治理层,该层在网关级别包装OpenClaw的exec、message和browser工具,无需修改OpenClaw的核心。该架构是中间件,而非分支。技能保持不变。治理被注入到技能的意图与工具的执行之间。系统每次调用增加1到6毫秒——功能上可忽略不计。每个智能体动作在执行前都会收到PERMIT、INHIBIT、DEFER、DEGRADE或ESCALATE的判定。

“我们正是以Peter所说的他希望人们接近他的方式来处理的,”Conroy说。“他告诉全世界,他雇用了那位说‘你有这个问题,这是拉取请求’的安全研究员。这正是我们提供的。一个可运行的治理层,在生产中经过测试,零许可成本,解决了思科后来记录的问题。我们没有要求股权。我们没有要求开会。我们提供了拉取请求。”

思科的发现证实了VectorCertain的记录

思科的研究逐点验证了VectorCertain更早的分析。

思科发现,一个名为“What Would Elon Do?”的ClawHub技能返回了九个安全发现——两个严重,五个高危——并且在功能上与恶意软件无异,静默执行将数据外泄到外部服务器的命令,同时使用提示注入绕过安全指南。该技能被人为夸大以在仓库中排名第一,表明供应链本身已受到损害。

思科识别出与VectorCertain记录的相同的系统性漏洞:智能体以高级权限运行shell命令、可通过提示注入窃取的明文API密钥、扩展攻击面的消息集成,以及从磁盘加载为不受信任输入且无验证层的技能。

思科更广泛的《2026年AI安全状况》报告发现,83%的组织计划部署智能体AI,但只有29%感到准备好保护它们。在分析的30000个智能体技能中,超过25%至少包含一个漏洞。这些数字描述了一个在治理存在之前就已大规模部署的生态系统——这正是VectorCertain架构旨在防止的状况。

“思科正确地识别了问题,”Conroy说。“他们所描述的是缺乏一个独立于智能体运行的外部治理层。 OpenClaw智能体可以执行任意shell命令,因为在智能体的决策与系统的执行之间没有任何东西。我们的四门枢纽架构——用于认知信任的HCF2-SG、用于数值可接受性的TEQ-SG、用于执行治理的MRM-CFS-SG和用于候选多样性的HES1-SG——正是为了填补这一空白而存在。智能体提出。治理层决定。智能体不能给自己的作业打分。”

150万个API密钥:当智能体社交化而无治理时会发生什么

Moltbook的暴露不仅仅是一次数据泄露。它是一个案例研究,展示了当AI智能体被赋予社交能力而缺乏治理基础设施时会发生什么。

Wiz的Gal Nagli发现一个Supabase API密钥暴露在客户端JavaScript中,该密钥允许对Moltbook整个生产数据库进行未经身份验证的读写访问。行级安全性——一项只需几分钟即可启用的基本数据库保护——从未配置。结果是:每个注册智能体的每个API认证令牌都是可访问的。每条私人对话都是可读的。一些对话包含智能体彼此共享的明文OpenAI API密钥。

Moltbook联合创始人Matt Schlicht公开表示,他没有写过一行代码——他的OpenClaw智能体构建了整个平台。 这是治理悖论的一个缩影:一个AI智能体为AI智能体构建了一个社交网络,而无论是智能体还是其创造者都没有实施基本的安全控制。该平台吸引了150万个注册智能体,由大约17000名人类所有者控制——智能体与人类的比例为88:1——而Meta在本周收购了它。

“Moltbook就是当你部署一个AI智能体为其他AI智能体构建基础设施,而没有任何治理层验证沿途任何决策时会发生的情况,”Conroy说。“一个构建没有行级安全性数据库的智能体不是恶意智能体。它是一个未受治理的智能体。这种区别很重要,因为治理不是为了防止恶意——而是为了确保每一个有影响的行动在影响现实世界之前,都经过一个独立的验证层。一毫秒的执行前治理本可以防止150万个API密钥被暴露。”

反应式与预防式差距:为何Promptfoo不是答案

OpenAI收购Promptfoo——一个拥有超过35万开发者且获得SOC2/ISO 27001认证的红队和评估工具——代表了在AI安全方面的重大投资。但它代表了对错误安全类别的投资。

Promptfoo是一个测试工具。它发现智能体可能执行未经授权的操作。它生成记录漏洞的报告。 它使团队能够在部署前发现并修复风险。其创始人将他们的使命描述为帮助组织“在发布前发现并修复AI风险”。

关键词是“发现”。不是“防止”。

测试发现智能体可能删除生产数据库。执行前治理防止智能体删除生产数据库。测试发现智能体可能通过提示注入外泄API密钥。执行前治理实时拦截外泄企图。测试发现智能体可能在第三方平台上进行未经授权的购买。执行前治理在第一笔交易执行前发出INHIBIT判定。

这两种方法之间的区别,就如同消防检查与防火墙之间的区别。两者都有价值。但是,当135000个OpenClaw实例暴露在互联网上,1184个恶意技能在仓库中活跃,并且来自AI智能体到美国零售网站的流量同比增长了4700%时,这个行业缺乏的不是测试。它缺乏的是治理。

VectorCertain的MRM-CFS(微递归模型级联融合系统)已经实现了100万次无错误的智能体处理步骤——不是在测试中,而是在执行治理中。 四门枢纽辐射架构在执行的瞬间以亚毫秒级共识验证每一个动作。在7915对模型比较中,81.4%的交叉相关性发现确保了提供监督的治理模型是真正独立的,而不是被治理智能体的统计冗余回声。

“OpenAI现在拥有一个测试工具和世界上最受欢迎的AI智能体平台,”Conroy说。“这种组合告诉你一些重要的事情:该平台是在没有使其安全所需的治理的情况下部署的,现在他们正试图事后改造安全性。我们在部署前就提供了治理层。时间顺序并不模糊。”

行业仓促应对验证了该架构

VectorCertain并非唯一认识到AI智能体治理已成为紧急状况的组织。但应对格局揭示了一个一致的模式:每个主要参与者都在事后将安全措施强加到智能体上。

微软于3月9日推出了Agent 365——一个用于监控和治理AI智能体的、每月每用户15美元的控制平面。英伟达正准备在GTC上宣布NemoClaw,这是一个带有内置安全工具的开源智能体平台。以54亿美元将Mandiant出售给谷歌的Kevin Mandia,为自主网络安全智能体初创公司Armadin筹集了1.899亿美元——得到了CIA的In-Q-Tel的支持。NIST于二月份启动了AI智能体标准倡议,信息请求截止日期为3月9日。欧盟《人工智能法案》的高风险执行截止日期是2026年8月2日,罚款最高可达3500万欧元或全球营业额的7%。

所有这些努力都验证了VectorCertain的论点。每一个都是反应式的。 每一个都在试图解决一个VectorCertain曾提出要解决的问题——免费地,为地球上最显眼的AI智能体——却被忽视了。

保护治理架构的55项以上专利

VectorCertain拥有55项以上的临时专利,涵盖11个行业垂直领域,具体专利权利要求包括执行前治理评估、用于智能体动作验证的多模型共识、使用有效样本量和序贯概率比检验的独立性验证、基于集成的异常检测、加密审计追踪生成,以及用于智能体治理的多层安全网关架构。

该公司出版的书籍《AI智能体危机:如何避免当前70%的失败率并实现90%的成功》(亚马逊,2025年9月),记录了本周头条新闻现在证实的系统性治理失败——以及解决这些失败所需的架构解决方案。

关于VectorCertain

VectorCertain的创始人Joseph P. Conroy拥有超过25年构建关键任务AI系统的经验,在这些系统中,失败会带来现实世界的后果。1997年,他的公司Envatec开发了ENVAIR2000——美国首个使用AI进行万亿分之几工业气体检测的商业应用,AI直接控制硬件(A/D转换器、放大器、FPGA)来检测和量化目标气体。

该技术演变为ENVAIR4000,一个使用实时时间序列AI来防止大型工业过程设备故障的预测性诊断系统——因其通过防止非计划停机实现的二氧化碳减排而获得了42.5万美元的NICE3联邦拨款。

ENVAIR平台的成功促使美国环保署选择Conroy作为其验证AI预测排放项目的技术资源,选择他的国际纸业工厂测试点供该机构自行评估——这项工作促使基于AI的预测性排放监测被编入联邦法规。随后,他创立了EnvaPower,这是美国首家使用AI预测纽约商品交易所电力期货的公司,实现了八位数的退出。

SecureAgent是这一血统的直接后裔:在边缘控制硬件的AI(MRM-CFS-SG在现有处理器上,正如ENVAIR2000控制FPGA),故障发生前的预测性预防(正如ENVAIR4000防止设备停机),以及可信到足以成为监管标准的技术(正如EnvaPEMS塑造了EPA合规性)。区别在于领域——从工业安全到AI治理——以及规模:超过314000行生产代码,19项以上已提交专利,以及14208次测试在34个连续冲刺中零失败。

欲了解更多信息,请访问www.vectorcertain.com

媒体联系人

Joseph P. Conroy 创始人兼首席执行官,VectorCertain LLC www.vectorcertain.com

相关资源

  • 思科博客:《像OpenClaw这样的个人AI智能体是安全噩梦》 — https://blogs.cisco.com/ai/personal-ai-agents-like-openclaw-are-a-security-nightmare

  • Wiz博客:《黑客攻击Moltbook:AI社交网络泄露150万个API密钥》 — https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys

  • OpenAI博客:《OpenAI将收购Promptfoo》 — https://openai.com/index/openai-to-acquire-promptfoo/

  • Promptfoo博客:《Promptfoo将加入OpenAI》 — https://www.promptfoo.dev/blog/promptfoo-joining-openai/

  • The Register:《OpenAI挖走OpenClaw创造者Peter Steinberger》 — https://www.theregister.com/2026/02/16/open_ai_grabs_openclaw/

  • Axios:《Meta收购AI智能体社交网络Moltbook》 — https://www.axios.com/2026/03/10/meta-facebook-moltbook-agent-social-network

  • NIST:AI智能体标准倡议 — https://www.nist.gov/news-events/news/2026/02/announcing-ai-agent-standards-initiative-interoperable-and-secure

  • 财政部FS AI RMF / AIEOG可交付成果 — https://fsscc.org/AIEOG-AI-deliverables/

注:本新闻稿包含关于VectorCertain技术和市场机会的前瞻性陈述。实际结果可能有所不同。专利待决状态指的是向美国专利商标局提交的临时专利申请。

免责声明:此翻译是由NewsRamp™Newsworthy.ai(统称为“公司”)使用公开可访问的生成式人工智能平台自动生成的。公司不保证此翻译的准确性或完整性,并且不对任何错误、遗漏或不准确之处承担责任。依赖此翻译风险自负。公司对因依赖此翻译而产生的任何损害或损失不承担责任。此新闻稿的官方和权威版本是英文版本

Blockchain Registration, Verification & Enhancement provided by NewsRamp™

{site_meta && site_meta.display_name} Logo

Newsworthy.ai

Newsworthy.ai is a different kind of newswire, built for the way news is consumed today. Created by the founders of PRWeb, Newsworthy.ai combines traditional newswire distribution features with influencer marketing, blockchain technology and machine learning to increase the visibility, engagement and promotion of your news.