By: Newsworthy.ai
March 13, 2026
Avertissements Ignorés : Comment VectorCertain a Résolu la Crise de Sécurité d'OpenClaw
New York (Newsworthy.ai) Vendredi 13 mars 2026 @ 10:00 AM Heure de l'Est —
En l'espace de six semaines, la plateforme la plus visible de l'écosystème des agents IA est devenue la catastrophe de sécurité la plus documentée de l'écosystème des agents IA — et chaque organisation qui se démène aujourd'hui pour faire face à la crise avait reçu une offre permanente pour l'éviter.
L'équipe de recherche sur les menaces et la sécurité IA de Cisco a publié un billet de blog intitulé « Les agents IA personnels comme OpenClaw sont un cauchemar de sécurité », déclarant que si OpenClaw est « révolutionnaire » d'un point de vue capacitaire, d'un point de vue sécurité, c'est « un cauchemar absolu ». Le chercheur de Wiz, Gal Nagli, a découvert que Moltbook — le réseau social de type Reddit où interagissent les agents OpenClaw — avait laissé l'intégralité de sa base de données de production accessible à tous, exposant 1,5 million de jetons d'authentification API, 35 000 adresses e-mail et des milliers de conversations privées non chiffrées contenant des identifiants en clair de tiers. Meta Platforms a malgré tout acquis Moltbook cette semaine. Et OpenAI, ayant embauché le créateur d'OpenClaw Peter Steinberger en février, a investi massivement dans l'acquisition de Promptfoo, une startup de tests de sécurité IA, pour sécuriser ses agents nouvellement acquis.
VectorCertain LLC avait identifié ces défaillances de gouvernance des mois avant que Cisco, Wiz ou OpenAI n'agissent. L'entreprise a analysé chaque demande de tirage (pull request) ouverte dans le dépôt OpenClaw en utilisant sa technologie brevetée de consensus multi-modèles, a documenté les lacunes de sécurité systémiques, a construit une intégration de gouvernance fonctionnelle et a proposé à Steinberger une licence SecureAgent gratuite pour résoudre les problèmes. Il n'a jamais répondu.
« Au lieu de simplement documenter les problèmes, nous avons développé, testé et proposé la solution gratuitement », a déclaré Joseph P. Conroy, Fondateur et PDG de VectorCertain. Peter Steinberger a dit au monde qu'il embaucherait toute personne qui se présenterait avec une solution plutôt qu'une plainte. Nous nous sommes présentés avec la solution. Le silence qui a suivi est la raison pour laquelle nous en sommes là aujourd'hui — avec Cisco qui écrit des billets de blog, des juges qui émettent des injonctions et OpenAI qui fait des acquisitions d'urgence pour résoudre un problème qui avait déjà une réponse. »
La chronologie qui raconte l'histoire
La séquence des événements mérite d'être documentée avec précision, car elle révèle la différence entre les organisations qui ont identifié la crise de gouvernance des agents IA et l'organisation unique qui a construit la solution avant que la crise ne devienne publique.
28 janvier 2026 : Lancement de Moltbook. En quelques heures, des agents IA créent des profils, publient et partagent des identifiants sur une plateforme sans sécurité au niveau des lignes (Row Level Security) activée sur sa base de données.
28 janvier 2026 : Cisco publie son analyse « Cauchemar de sécurité » d'OpenClaw, identifiant des compétences malveillantes, des risques d'élévation de privilèges, l'exposition d'identifiants en clair et la manipulation de la chaîne d'approvisionnement dans le référentiel de compétences ClawHub.
Fin janvier – début février 2026 : Wiz découvre que la clé API Supabase de Moltbook est exposée dans le JavaScript côté client, accordant un accès en lecture et écriture non authentifié à l'intégralité de la base de données de production. Wiz confirme que 1,5 million de jetons API, 35 000 adresses e-mail et plus de 4 060 conversations privées sont accessibles à tous.
14 février 2026 : Peter Steinberger annonce qu'il rejoint OpenAI pour « conduire la prochaine génération d'agents personnels ».
9 mars 2026 : OpenAI annonce l'acquisition de Promptfoo — un outil de test réactif et de red teaming — pour sécuriser sa plateforme d'agents IA.
10 mars 2026 : Meta acquiert Moltbook. Les fondateurs Matt Schlicht et Ben Parr rejoignent les Meta Superintelligence Labs.
Des semaines avant tout cela : VectorCertain avait déjà terminé une analyse complète par consensus multi-modèles des 3 434 demandes de tirage ouvertes d'OpenClaw, identifié 341 compétences malveillantes dans l'écosystème ClawHub, documenté plus de 42 900 instances exposées sur Internet, construit et testé une intégration de gouvernance SecureAgent pour les outils exec, message et browser d'OpenClaw, et proposé à Peter Steinberger une licence gratuite. Aucune réponse n'a été reçue.
Ce que VectorCertain a trouvé — et construit — avant que quiconque n'agisse
L'implication de VectorCertain avec OpenClaw n'était pas théorique. Elle était pratique, technique et documentée.
L'analyse claw-review : VectorCertain a déployé son moteur de consensus multi-modèles pour analyser les 3 434 demandes de tirage ouvertes du dépôt OpenClaw. Trois modèles d'IA indépendants — Llama 3.1 70B, Mistral Large et Gemini 2.0 Flash — ont évalué chaque PR pour l'intention, la qualité, la duplication et l'alignement avec la direction architecturale du projet. Lorsque deux modèles sur trois étaient d'accord, c'était le consensus. Lorsqu'ils divergeaient significativement, l'élément était signalé pour examen humain.
Les résultats étaient significatifs. Vingt pour cent de toutes les demandes de tirage ouvertes — 688 PR — étaient des doublons représentant environ 2 000 heures de temps développeur gaspillé. L'analyse a traité 48,4 millions de tokens pour un coût de calcul total de 12,80 $. Ce n'est pas une capacité coûteuse. C'est une capacité peu coûteuse que personne n'avait pris la peine d'appliquer.
L'analyse des lacunes de gouvernance : VectorCertain a catalogué les 5 705 compétences de l'écosystème ClawHub dans plus de 20 catégories et a cartographié chaque risque « Your Money or Your Life » (YMYL) sur l'architecture de SecureAgent. L'analyse a identifié 341 compétences malveillantes confirmées — une découverte que les recherches ultérieures de Cisco ont étendue à plus de 1 184 paquets malveillants, et que l'audit de Snyk a confirmé à raison d'un sur cinq.
L'intégration SecureAgent : VectorCertain a conçu et testé une couche de gouvernance qui enveloppe les outils exec, message et browser d'OpenClaw au niveau de la passerelle sans modifier le cœur d'OpenClaw. L'architecture est un middleware, pas un fork. Les compétences restent intactes. La gouvernance est injectée entre l'intention de la compétence et l'exécution de l'outil. Le système ajoute 1 à 6 millisecondes par appel — négligeable en pratique. Chaque action de l'agent reçoit une détermination PERMETTRE, INTERDIRE, DIFFÉRER, DÉGRADER ou ESCALADER avant exécution.
« Nous avons abordé cela exactement comme Peter a dit qu'il voulait que les gens l'abordent », a déclaré Conroy. « Il a dit au monde qu'il avait embauché le seul chercheur en sécurité qui a dit « vous avez ce problème, voici la demande de tirage ». C'est précisément ce que nous avons proposé. Une couche de gouvernance fonctionnelle, testée en production, sans coût de licence, qui résout les problèmes que Cisco a documentés plus tard. Nous n'avons pas demandé d'actions. Nous n'avons pas demandé de réunion. Nous avons proposé la demande de tirage. »
Les conclusions de Cisco confirment ce que VectorCertain a documenté
La recherche de Cisco a validé point par point l'analyse antérieure de VectorCertain.
Cisco a découvert qu'une compétence ClawHub appelée « What Would Elon Do? » retournait neuf résultats de sécurité — deux critiques, cinq de haute sévérité — et était fonctionnellement indiscernable d'un logiciel malveillant, exécutant silencieusement des commandes qui exfiltraient des données vers des serveurs externes tout en utilisant l'injection de prompt pour contourner les directives de sécurité. La compétence avait été artificiellement gonflée pour se classer numéro un dans le référentiel, démontrant que la chaîne d'approvisionnement elle-même est compromise.
Cisco a identifié les mêmes vulnérabilités systémiques que VectorCertain avait documentées : des agents exécutant des commandes shell avec des privilèges élevés, des clés API en clair volables via injection de prompt, des intégrations de messagerie étendant la surface d'attaque, et des compétences chargées depuis le disque en tant qu'entrées non fiables sans couche de validation.
Le rapport plus large de Cisco, « State of AI Security 2026 », a révélé que 83 % des organisations prévoyaient de déployer une IA agentique mais seulement 29 % se sentaient prêtes à les sécuriser. Parmi 30 000 compétences d'agents analysées, plus de 25 % contenaient au moins une vulnérabilité. Ces chiffres décrivent un écosystème qui a été déployé à grande échelle avant que la gouvernance n'existe — exactement la condition que l'architecture de VectorCertain était conçue pour prévenir.
« Cisco a correctement identifié le problème », a déclaré Conroy. « Ce qu'ils ont décrit, c'est l'absence d'une couche de gouvernance externe qui fonctionne indépendamment de l'agent. Les agents OpenClaw peuvent exécuter des commandes shell arbitraires parce que rien ne se situe entre la décision de l'agent et l'exécution du système. Notre architecture Hub à quatre portes — HCF2-SG pour la confiance épistémique, TEQ-SG pour l'admissibilité numérique, MRM-CFS-SG pour la gouvernance d'exécution, et HES1-SG pour la diversité des candidats — existe précisément pour combler cette lacune. L'agent propose. La couche de gouvernance dispose. L'agent ne peut pas noter ses propres devoirs. »
1,5 million de clés API : ce qui se passe lorsque les agents socialisent sans gouvernance
L'exposition de Moltbook n'est pas seulement une fuite de données. C'est une étude de cas sur ce qui se passe lorsque des agents IA reçoivent des capacités sociales sans infrastructure de gouvernance.
Gal Nagli de Wiz a trouvé une clé API Supabase exposée dans le JavaScript côté client qui accordait un accès en lecture et écriture non authentifié à l'intégralité de la base de données de production de Moltbook. La sécurité au niveau des lignes (Row Level Security) — une protection de base de la base de données qui prend quelques minutes à activer — n'avait jamais été configurée. Le résultat : chaque jeton d'authentification API pour chaque agent enregistré était accessible. Chaque conversation privée était lisible. Certaines conversations contenaient des clés API OpenAI en clair que les agents s'étaient partagées.
Matt Schlicht, co-fondateur de Moltbook, a déclaré publiquement qu'il n'avait pas écrit une seule ligne de code — son agent OpenClaw a construit l'intégralité de la plateforme. C'est le paradoxe de la gouvernance en miniature : un agent IA a construit un réseau social pour des agents IA, et ni l'agent ni son créateur n'ont mis en œuvre des contrôles de sécurité de base. La plateforme a attiré 1,5 million d'agents enregistrés contrôlés par environ 17 000 propriétaires humains — un ratio agent/humain de 88:1 — et Meta l'a acquise cette semaine.
« Moltbook est ce qui se passe lorsque vous déployez un agent IA pour construire une infrastructure pour d'autres agents IA et qu'aucune couche de gouvernance ne valide aucune des décisions en cours de route », a déclaré Conroy. « Un agent qui construit une base de données sans sécurité au niveau des lignes n'est pas un agent malveillant. C'est un agent non gouverné. La distinction est importante car la gouvernance ne consiste pas à prévenir la malveillance — elle consiste à s'assurer que chaque action conséquente passe par une couche de validation indépendante avant d'affecter le monde réel. Une milliseconde de gouvernance pré-exécution aurait empêché 1,5 million de clés API d'être exposées. »
L'écart réactif vs préventif : pourquoi Promptfoo n'est pas la réponse
L'acquisition de Promptfoo par OpenAI — un outil de red teaming et d'évaluation avec plus de 350 000 développeurs et des certifications SOC2/ISO 27001 — représente un investissement significatif dans la sécurité IA. Mais il représente un investissement dans la mauvaise catégorie de sécurité.
Promptfoo est un outil de test. Il découvre qu'un agent pourrait exécuter une action non autorisée. Il génère des rapports documentant les vulnérabilités. Il permet aux équipes de trouver et de corriger les risques avant le déploiement. Ses fondateurs ont décrit leur mission comme aidant les organisations à « trouver et corriger les risques IA avant de les livrer ».
Le mot clé est « trouver ». Pas « prévenir ».
Les tests découvrent qu'un agent pourrait supprimer une base de données de production. La gouvernance pré-exécution empêche l'agent de supprimer la base de données de production. Les tests découvrent qu'un agent pourrait exfiltrer des clés API via injection de prompt. La gouvernance pré-exécution intercepte la tentative d'exfiltration en temps réel. Les tests découvrent qu'un agent pourrait effectuer des achats non autorisés sur une plateforme tierce. La gouvernance pré-exécution émet une détermination INTERDIRE avant que la première transaction ne s'exécute.
La différence entre ces deux approches est la différence entre une inspection incendie et un pare-feu. Les deux ont de la valeur. Mais lorsque 135 000 instances OpenClaw sont exposées sur Internet, que 1 184 compétences malveillantes sont actives dans le référentiel et que le trafic des agents IA vers les sites de vente au détail américains a bondi de 4 700 % sur un an, l'industrie n'a pas un déficit de tests. Elle a un déficit de gouvernance.
Le MRM-CFS (Micro-Recursive Model Cascading Fusion System) de VectorCertain a atteint 1 000 000 d'étapes de processus d'agent sans erreur — pas en test, mais en gouvernance d'exécution. L'architecture Hub-and-Spoke à quatre portes valide chaque action au point d'exécution avec un consensus en sub-milliseconde. Le résultat de corrélation croisée de 81,4 % sur 7 915 comparaisons par paires de modèles garantit que les modèles de gouvernance assurant la supervision sont véritablement indépendants, et non des échos statistiquement redondants de l'agent gouverné.
« OpenAI possède maintenant un outil de test et la plateforme d'agents IA la plus populaire au monde », a déclaré Conroy. « Cette combinaison vous dit quelque chose d'important : la plateforme a été déployée sans la gouvernance pour la rendre sûre, et maintenant ils essaient de rétrofiter la sécurité après coup. Nous avons proposé la couche de gouvernance avant le déploiement. La chronologie n'est pas ambiguë. »
La ruée de l'industrie valide l'architecture
VectorCertain n'est pas la seule organisation à reconnaître que la gouvernance des agents IA est devenue une urgence. Mais le paysage des réponses révèle un schéma constant : chaque acteur majeur boulonne la sécurité aux agents après coup.
Microsoft a lancé Agent 365 le 9 mars — un plan de contrôle à 15 $ par utilisateur et par mois pour surveiller et gouverner les agents IA. Nvidia se prépare à annoncer NemoClaw au GTC, une plateforme d'agents open source avec des outils de sécurité intégrés. Kevin Mandia, qui a vendu Mandiant à Google pour 5,4 milliards de dollars, a levé 189,9 millions de dollars — soutenu par In-Q-Tel de la CIA — pour Armadin, une startup d'agents de cybersécurité autonomes. Le NIST a lancé une initiative de normes pour les agents IA en février avec une demande d'information due le 9 mars. La date limite d'application pour les risques élevés de l'Acte IA de l'UE est le 2 août 2026, avec des pénalités allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial.
Chacun de ces efforts valide la thèse de VectorCertain. Chacun d'eux est réactif. Chacun d'eux essaie de résoudre un problème que VectorCertain a proposé de résoudre — gratuitement, pour l'agent IA le plus visible sur Terre — et a été ignoré.
Plus de 55 brevets protégeant l'architecture de gouvernance
VectorCertain détient plus de 55 brevets provisoires couvrant 11 secteurs verticaux, avec des revendications de brevet spécifiques couvrant l'évaluation de gouvernance pré-exécution, le consensus multi-modèles pour la validation des actions des agents, la vérification de l'indépendance en utilisant la taille d'échantillon effective et les tests de probabilité séquentielle, la détection d'anomalies basée sur l'ensemble, la génération de piste d'audit cryptographique et les architectures de passerelle de sécurité multicouches pour la gouvernance des agents.
Le livre publié par l'entreprise, « The AI Agent Crisis: How To Avoid The Current 70% Failure Rate & Achieve 90% Success » (Amazon, septembre 2025), a documenté les défaillances systémiques de gouvernance que les titres de cette semaine confirment maintenant — et les solutions architecturales requises pour y remédier.
À propos de VectorCertain
Le fondateur de VectorCertain, Joseph P. Conroy, a passé plus de 25 ans à construire des systèmes d'IA critiques où l'échec a des conséquences réelles. En 1997, son entreprise Envatec a développé l'ENVAIR2000 — la première application commerciale aux États-Unis à utiliser l'IA pour la détection de gaz industriels à l'échelle de parties par billion, avec l'IA contrôlant directement le matériel (convertisseurs A/N, amplificateurs, FPGA) pour détecter et quantifier les gaz cibles.
Cette technologie a évolué vers l'ENVAIR4000, un système de diagnostic prédictif qui utilisait l'IA en série temporelle en temps réel pour prévenir les pannes d'équipement sur de grands processus industriels — obtenant une subvention fédérale NICE3 de 425 000 $ pour les économies de CO2 réalisées en évitant les arrêts non planifiés.
Le succès de la plateforme ENVAIR a conduit l'EPA à sélectionner Conroy comme ressource technique pour son programme de validation des émissions prédites par l'IA, choisissant son site de test de l'usine International Paper pour l'évaluation propre de l'agence — un travail qui a contribué à ce que la surveillance prédictive des émissions basée sur l'IA soit codifiée dans les réglementations fédérales. Il a ensuite construit EnvaPower, la première entreprise américaine à utiliser l'IA pour prédire les contrats à terme sur l'électricité sur le NYMEX, réalisant une sortie à huit chiffres.
SecureAgent est le descendant direct de cette lignée : l'IA qui contrôle le matériel à la périphérie (MRM-CFS-SG sur les processeurs existants, tout comme l'ENVAIR2000 contrôlait les FPGA), la prévention prédictive avant que les pannes ne surviennent (tout comme l'ENVAIR4000 prévenait les arrêts d'équipement), et une technologie suffisamment fiable pour devenir la norme réglementaire (tout comme EnvaPEMS a façonné la conformité EPA). La différence est le domaine — de la sécurité industrielle à la gouvernance IA — et l'échelle : plus de 314 000 lignes de code en production, plus de 19 brevets déposés et 14 208 tests sans échec sur 34 sprints consécutifs.
Pour plus d'informations, visitez www.vectorcertain.com.
Contact presseJoseph P. Conroy Fondateur & PDG, VectorCertain LLC www.vectorcertain.com
Ressources connexes-
Blog Cisco : « Les agents IA personnels comme OpenClaw sont un cauchemar de sécurité » — https://blogs.cisco.com/ai/personal-ai-agents-like-openclaw-are-a-security-nightmare
-
Blog Wiz : « Piratage de Moltbook : le réseau social IA révèle 1,5 million de clés API » — https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys
-
Blog OpenAI : « OpenAI va acquérir Promptfoo » — https://openai.com/index/openai-to-acquire-promptfoo/
-
Blog Promptfoo : « Promptfoo rejoint OpenAI » — https://www.promptfoo.dev/blog/promptfoo-joining-openai/
-
The Register : « OpenAI s'empare du créateur d'OpenClaw Peter Steinberger » — https://www.theregister.com/2026/02/16/open_ai_grabs_openclaw/
-
Axios : « Meta acquiert Moltbook, le réseau social pour agents IA » — https://www.axios.com/2026/03/10/meta-facebook-moltbook-agent-social-network
-
NIST : Initiative de normes pour les agents IA — https://www.nist.gov/news-events/news/2026/02/announcing-ai-agent-standards-initiative-interoperable-and-secure
-
Treasury FS AI RMF / AIEOG Deliverables — https://fsscc.org/AIEOG-AI-deliverables/
Note : Ce communiqué de presse contient des déclarations prospectives concernant la technologie et les opportunités de marché de VectorCertain. Les résultats réels peuvent varier. Le statut de brevet en instance fait référence aux demandes de brevet provisoires déposées auprès de l'USPTO.
Avertissement : Cette traduction a été générée automatiquement par NewsRamp™ pour Newsworthy.ai (collectivement désignés sous le nom de "LES ENTREPRISES") en utilisant des plateformes d'intelligence artificielle génératives accessibles au public. LES ENTREPRISES ne garantissent pas l'exactitude ni l'intégralité de cette traduction et ne seront pas responsables des erreurs, omissions ou inexactitudes. Vous vous fiez à cette traduction à vos propres risques. LES ENTREPRISES ne sont pas responsables des dommages ou pertes résultant de cette confiance. La version officielle et faisant autorité de ce communiqué de presse est la version anglaise.
