Publishers

Need unique free news content for your site customized to your audience?

Let's Discuss

By: News Direct
May 6, 2024

Enkrypt AI Dévoile le Classement des Leaders en Matière de Sécurité LLM Pour Permettre aux Entreprises d'Adopter l'IA Générative en Toute Sécurité et Responsabilité

--News Direct-- La rapide adoption de l'IA générative, y compris dans des environnements réglementés, a continué de faire de la sécurité et de la sûreté des Modèles de Langage Large (LLM) une préoccupation majeure parmi les professionnels de la cybersécurité. Les décideurs politiques et les professionnels de la sécurité du monde entier continuent de chercher de nouvelles technologies pour aider à atténuer les risques des technologies d'IA générative. Par exemple, il y a seulement quelques jours, le département de la sécurité intérieure du gouvernement américain a nommé un conseil consultatif pour conseiller sur le rôle de l'intelligence artificielle dans les infrastructures critiques. a commenté : "Les LLM sont de plus en plus perçus comme des piliers potentiels en back-office pour les entreprises, traitant des données et permettant une prise de décision plus rapide en front-office. Pensez à une fintech où une application alimentée par un LLM est essentielle pour rejeter une demande de prêt d'une personne de couleur sans explication claire. Cela soulève des inquiétudes concernant les biais implicites, car les LLM reflètent souvent les inégalités sociales présentes dans leurs données d'entraînement provenant d'Internet. De plus, des cas comme celui du LLM de Google qui semble "éveillé" mettent en évidence les risques de corriger trop fortement ces biais. Dans quelle mesure le modèle Claude3 d'Anthropic est-il sûr ? Le LLM Command R+ de Cohere est-il vraiment prêt pour une utilisation en entreprise ? Ces scénarios soulignent la nécessité urgente de vérifications soigneuses de ces modèles pour éviter d'exacerber les inégalités sociales et de causer des dommages." LLM Safety Leaderboard by Enkrypt AI À la très attendue conférence RSA, Enkrypt AI, leader dans la sécurisation des technologies d'IA générative, présentera sa dernière innovation, le Tableau de bord sur la sécurité des LLM. Ce produit fait partie de la suite complète Sentry d'Enkrypt AI, conçue pour permettre aux entreprises de déployer des LLM avec une sécurité renforcée et la tranquillité d'esprit. Le tableau de bord sur la sécurité des LLM fournira des informations essentielles sur les vulnérabilités et les risques d'hallucinations de différents LLM, permettant aux équipes technologiques de prendre des décisions éclairées sur les modèles les plus adaptés à leurs besoins spécifiques. Cet outil vise à éduquer et à sensibiliser sur les forces relatives et les faiblesses potentielles de différents LLM, afin que les ingénieurs en IA puissent prendre des décisions éclairées sur les forces uniques de chacun. Les points saillants du Tableau de bord sur la sécurité des LLM incluent : Informations complètes sur les vulnérabilités qui fournissent des évaluations détaillées des risques potentiels en matière de sécurité, y compris les fuites de données, les violations de la vie privée et la susceptibilité aux cyberattaques. Évaluation des risques éthiques et de conformité qui teste les biais, la toxicité et la conformité aux normes éthiques et aux exigences réglementaires, en veillant à ce que les modèles soient conformes aux valeurs de l'entreprise et de la marque. Le Tableau de bord sur la sécurité des LLM est un nouvel élément de la suite Sentry d'Enkrypt, qui comprend Sentry Red Team, Sentry Guardrails et Sentry Compliance. Cette suite offre une approche globale de la gestion et de la sécurisation des LLM, conforme aux normes les plus strictes en matière de confidentialité, de sécurité et de conformité dans l'environnement de l'entreprise. L'annonce survient alors qu'un nouvel article préimprimé d'Enkrypt AI, "Les vulnérabilités accrues des LLM dues à l'ajustement fin et à la quantification", a révélé que les pratiques courantes utilisées pour mettre en œuvre des LLM dans des contextes commerciaux, à savoir l'ajustement fin et la quantification, entraînent un risque accru de vulnérabilités en matière de sécurité, notamment du jailbreaking. Cependant, la mise en œuvre de plateformes de garde-corps externes comme la solution Sentry Guardrails d'Enkrypt a réussi à atténuer de telles vulnérabilités. Sur un modèle, les garde-corps Sentry d'Enkrypt ont permis une réduction de 9 fois de la vulnérabilité aux attaques de jailbreaking. a déclaré : "Avec le lancement du Tableau de bord sur la sécurité des LLM, nous renforçons notre engagement à permettre l'utilisation sûre, sécurisée et responsable de l'IA générative dans l'entreprise. Cet outil servira de ressource critique pour les organisations visant à naviguer dans les complexités de la mise en œuvre de l'IA en toute confiance en matière de sécurité." , a ajouté : "Au cours des deux derniers trimestres, notre équipe s'est exclusivement concentrée sur la sécurité de l'IA générative et a fait des progrès rapides avec notre suite Sentry. Composée de trois composants clés - le Sentry Red Team, les Sentry Guardrails et la Sentry Compliance. Avec le Tableau de bord sur la sécurité des LLM, nous sommes fiers d'offrir un produit qui identifie non seulement les risques potentiels, mais également donne aux entreprises les moyens de gérer et d'atténuer de manière proactive ces défis, permettant une prise de décisions informées et rapides." À propos d'Enkrypt AI Enkrypt AI, co-fondée par Sahil Agarwal et Prashanth Harshangi, titulaires d'un doctorat de Yale, est à l'avant-garde de l'adoption sûre de l'IA générative au sein des entreprises. Avec une plateforme tout-en-un innovante, Enkrypt AI révolutionne la manière dont les Modèles de Langage Large (LLMs) sont intégrés et gérés, répondant à des besoins critiques en matière de fiabilité, de sécurité, de confidentialité des données et de conformité dans une solution unifiée. Utilisée par des entreprises de taille moyenne à grande dans des secteurs tels que la finance et les sciences de la vie, Sentry d'Enkrypt AI offre une approche proactive de la sécurité de l'IA, favorisant la confiance et l'efficacité dans les mises en œuvre de l'IA, des chatbots aux rapports automatisés. Enkrypt AI se situe entre les utilisateurs et les modèles d'IA, offrant une variété de couches de sécurité et de sûreté. Enkrypt AI se distingue en fusionnant la détection des menaces, la confidentialité et la conformité dans une boîte à outils complète, destinée à devenir la plateforme définitive de l'IA générative en entreprise, dans un paysage réglementaire en évolution. Pour plus d'informations, veuillez visiter https://www.enkryptai.com/ ou suivre via LinkedIn, X, Instagram ou YouTube. Contact Enkrypt AI Bilal Mahmood +44 7714 007257 Envoyer un e-mail à : b.mahmood@stockwoodstrategy.com Site Web de l'entreprise : https://www.enkryptai.com/ Voir la version source sur newsdirect.com : https://newsdirect.com/news/enkrypt-ai-unveils-llm-safety-leaderboard-to-enable-enterprises-to-adopt-generative-ai-safely-and-responsibly-147863159

Avertissement : Cette traduction a été générée automatiquement par NewsRamp™ pour News Direct (collectivement désignés sous le nom de "LES ENTREPRISES") en utilisant des plateformes d'intelligence artificielle génératives accessibles au public. LES ENTREPRISES ne garantissent pas l'exactitude ni l'intégralité de cette traduction et ne seront pas responsables des erreurs, omissions ou inexactitudes. Vous vous fiez à cette traduction à vos propres risques. LES ENTREPRISES ne sont pas responsables des dommages ou pertes résultant de cette confiance. La version officielle et faisant autorité de ce communiqué de presse est la version anglaise.

Blockchain Registration, Verification & Enhancement provided by NewsRamp™

{site_meta && site_meta.display_name} Logo

News Direct

The News Direct platform offers a unique blend of technology and customization. Dive into a world of intuitive design, featuring compelling visuals, interactive elements, and seamless navigation.