Publishers

Need unique free news content for your site customized to your audience?

Let's Discuss

By: News Direct
May 6, 2024

Enkrypt AI stellt LLM Sicherheits-Rangliste vor, um Unternehmen zu ermöglichen, Generative KI sicher und verantwortungsbewusst zu übernehmen.

--News Direct-- Die schnelle Einführung von Generative AI, einschließlich in regulierten Umgebungen, hat dazu geführt, dass die Sicherheit und Sicherheit von Large Language Models (LLMs) bei Cybersicherheitsfachleuten weiterhin von entscheidender Bedeutung ist. Politiker und Sicherheitsexperten auf der ganzen Welt suchen weiterhin nach neuen Technologien, um die Risiken von Generative AI-Technologien zu minimieren. Beispielsweise hat die US-Regierung vor wenigen Tagen ein Board ernannt, um auf die Rolle der künstlichen Intelligenz bei kritischer Infrastruktur hinzuweisen. Sahil Agarwal, CEO von Enkrypt AI, kommentierte: "LLMs werden zunehmend als potenzielle Back-Office-Kraftwerke für Unternehmen angesehen, die Daten verarbeiten und eine schnellere Entscheidungsfindung im Front-Office ermöglichen. Nehmen Sie beispielsweise eine Fintech, bei der eine LLM-gestützte Anwendung entscheidend dafür ist, einen Kreditantrag einer farbigen Person ohne klare Erläuterung abzulehnen. Dies wirft Bedenken hinsichtlich impliziter Vorurteile auf, da LLMs oft gesellschaftliche Ungleichheiten widerspiegeln, die in ihren Trainingsdaten aus dem Internet enthalten sind. Darüber hinaus verdeutlichen Fälle wie Googles LLM, dass die Risiken einer Überkorrektur dieser Vorurteile auf. Wie sicher ist Anthropics Claude3 Model? Ist Cohere's Command R+ LLM wirklich für den Unternehmenseinsatz bereit? Diese Szenarien unterstreichen die dringende Notwendigkeit von sorgfältigen Überprüfungen dieser Modelle, um gesellschaftliche Ungleichheiten zu verhindern und Schaden zu verursachen." Bei der höchst erwarteten RSA-Konferenz wird Enkrypt AI, der Marktführer bei der Sicherung von Generative AI-Technologien, seine neueste Innovation, das LLM Safety Leaderboard, vorstellen. Dieses Produkt ist Teil von Enkrypt AI's umfassender Sentry-Suite, die darauf ausgelegt ist, Unternehmen in die Lage zu versetzen, LLMs mit erhöhter Sicherheit und Ruhe einzusetzen. Das LLM Safety Leaderboard bietet wesentliche Einblicke in die Schwachstellen und Risiken von verschiedenen LLMs, die es Technologieteams ermöglichen, informierte Entscheidungen darüber zu treffen, welche Modelle ihren spezifischen Anforderungen am besten entsprechen. Dieses Tool zielt darauf ab, die relativen Stärken und potenziellen Schwächen unterschiedlicher LLMs aufzuzeigen, damit KI-Ingenieure informierte Entscheidungen über die einzigartigen Stärken jedes Modells treffen können. Höhepunkte des LLM Safety Leaderboards sind: Umfassende Einblicke in Schwachstellen, die detaillierte Bewertungen potenzieller Sicherheitsrisiken, einschließlich Datenlecks, Verletzungen der Privatsphäre und Anfälligkeit für Cyberangriffe, liefern. Ethik- und Compliance-Risikobewertung, die auf Vorurteilen, Toxizität und der Einhaltung ethischer Standards und rechtlicher Anforderungen testet, um sicherzustellen, dass die Modelle mit den Werten des Unternehmens und der Marke übereinstimmen. Das LLM Safety Leaderboard ist eine neue Komponente von Enkrypts Sentry-Suite, die Sentry Red Team, Sentry Guardrails und Sentry Compliance umfasst. Diese Suite bietet einen ganzheitlichen Ansatz zur Verwaltung und Sicherung von LLMs und entspricht den strengsten Standards für Datenschutz, Sicherheit und Einhaltung innerhalb der Unternehmensumgebung. Die Ankündigung erfolgt, als ein neues Vorabdruck-Papier von Enkrypt AI, "Increased LLM Vulnerabilities from Fine-tuning and Quantization", gefunden hat, dass gängige Praktiken zur Implementierung von LLMs in geschäftlichen Umgebungen, nämlich Feinabstimmung und Quantisierung, zu einem erhöhten Risiko von Sicherheitslücken führen, insbesondere von Jailbreaking. Externe Guardrails-Plattformen wie Enkrypts Sentry Guardrails-Lösung konnten jedoch erfolgreich solche Sicherheitslücken mildern. Bei einem Modell reduzierten Enkrypts Sentry Guardrails das Angriffsrisiko durch Jailbreaking um das 9-fache. Sahil Agarwal, CEO von Enkrypt AI, sagte: "Mit der Einführung des LLM Safety Leaderboards verstärken wir unser Engagement für die sichere, verantwortungsbewusste und verantwortungsvolle Nutzung der generativen KI in Unternehmen. Dieses Tool wird als kritische Ressource für Organisationen dienen, die die Komplexität der KI-Implementierung mit vollem Vertrauen in ihre Sicherheitslage bewältigen wollen." Prashanth Harshangi, CTO von Enkrypt AI, fügte hinzu: "In den letzten beiden Quartalen hat sich unser Team ausschließlich auf die Sicherheit generativer KI konzentriert und mit unserer Sentry Suite schnelle Fortschritte gemacht. Mit der Einführung des LLM Safety Leaderboards sind wir stolz darauf, ein Produkt anzubieten, das nicht nur potenzielle Risiken identifiziert, sondern auch Unternehmen in die Lage versetzt, diese Herausforderungen proaktiv zu managen und zu mildern, was eine informierte und schnellere Entscheidungsfindung ermöglicht." Über Enkrypt AI Enkrypt AI, gegründet von Yale-PhDs Sahil Agarwal und Prashanth Harshangi, ist ein Vorreiter bei der sicheren Einführung von Generative AI in Unternehmen. Mit einer innovativen All-in-One-Plattform revolutioniert Enkrypt AI, wie Large Language Models (LLMs) integriert und verwaltet werden und adressiert damit kritische Anforderungen an Zuverlässigkeit, Sicherheit, Datenschutz und Einhaltung in einer einheitlichen Lösung. Enkrypt AI wird von mittelständischen und großen Unternehmen in Branchen wie Finanzen und Life Sciences genutzt und bietet eine proaktive Herangehensweise an die KI-Sicherheit, die Vertrauen und Effizienz bei KI-Implementierungen von Chatbots bis hin zu automatisierten Berichten fördert. Enkrypt AI sitzt zwischen den Benutzern und KI-Modellen, um eine Vielzahl von Sicherheits- und Datenschutzebenen anzubieten. Enkrypt AI zeichnet sich durch die Verschmelzung von Bedrohungserkennung, Datenschutz und Einhaltung in ein umfassendes Toolkit aus, das dazu bestimmt ist, zur definitiven Enterprise Generative AI-Plattform für eine sich ständig verändernde regulatorische Landschaft zu werden. Weitere Informationen finden Sie auf https://www.enkryptai.com/ oder folgen Sie über LinkedIn, X, Instagram oder YouTube. Kontaktdetails Enkrypt AI Bilal Mahmood +44 7714 007257 b.mahmood@stockwoodstrategy.com Firmenwebsite https://www.enkryptai.com/ Quellversion auf newsdirect.com anzeigen: https://newsdirect.com/news/enkrypt-ai-unveils-llm-safety-leaderboard-to-enable-enterprises-to-adopt-generative-ai-safely-and-responsibly-147863159

Haftungsausschluss: Diese Übersetzung wurde automatisch von NewsRamp™ für News Direct (gemeinsam als "DIE UNTERNEHMEN" bezeichnet) mit öffentlich zugänglichen generativen KI-Plattformen erstellt. DIE UNTERNEHMEN garantieren nicht die Genauigkeit oder Vollständigkeit dieser Übersetzung und haften nicht für Fehler, Auslassungen oder Ungenauigkeiten. Die Nutzung dieser Übersetzung erfolgt auf eigenes Risiko. DIE UNTERNEHMEN haften nicht für Schäden oder Verluste, die aus solcher Nutzung entstehen. Die offizielle und maßgebliche Version dieser Pressemitteilung ist die englische Version.

Blockchain Registration, Verification & Enhancement provided by NewsRamp™

{site_meta && site_meta.display_name} Logo

News Direct

The News Direct platform offers a unique blend of technology and customization. Dive into a world of intuitive design, featuring compelling visuals, interactive elements, and seamless navigation.