Publishers

Need unique free news content for your site customized to your audience?

Let's Discuss

By: 24-7 Press Release
December 26, 2025

Du Hameçonnage Au Biais : Une Étude Cartographie Les Menaces Cachées Derrière Les Modèles De Langage À Grande Échelle

KNOXVILLE, TN, 26 décembre 2025 /24-7PressRelease/ -- Les grands modèles de langage (LLM) sont devenus des outils centraux pour l'écriture, le codage et la résolution de problèmes, mais leur utilisation en expansion rapide soulève de nouvelles préoccupations éthiques et de sécurité. L'étude a systématiquement examiné 73 articles et a constaté que les LLM jouent un double rôle : ils favorisent l'innovation tout en permettant des risques tels que le phishing, la génération de code malveillant, les violations de la vie privée et la propagation de fausses informations. Les stratégies de défense, notamment l'entraînement antagoniste, le prétraitement des entrées et la détection par filigrane, se développent mais restent insuffisantes face aux techniques d'attaque en évolution. La recherche souligne que l'avenir des LLM reposera sur une conception de sécurité coordonnée, une supervision éthique et des garanties techniques pour assurer un développement et un déploiement responsables.

Les grands modèles de langage (LLM) tels que le transformeur génératif pré-entraîné (GPT), les représentations d'encodeur bidirectionnel à partir de transformeurs (BERT) et T5 ont transformé des secteurs allant de l'éducation et de la santé à la gouvernance numérique. Leur capacité à générer un texte fluide et semblable à celui d'un humain permet l'automatisation et accélère les flux de travail d'information. Cependant, cette même capacité augmente l'exposition aux cyberattaques, à la manipulation des modèles, à la désinformation et aux sorties biaisées qui peuvent induire les utilisateurs en erreur ou amplifier les inégalités sociales. Les chercheurs universitaires avertissent qu'en l'absence d'une réglementation systématique et de mécanismes de défense, l'utilisation abusive des LLM pourrait menacer la sécurité des données, la confiance du public et la stabilité sociale. Face à ces défis, des recherches supplémentaires sont nécessaires pour améliorer la gouvernance des modèles, renforcer les défenses et atténuer les risques éthiques.

Une équipe de recherche de l'Université Jiao Tong de Shanghai et de l'Université normale de Chine de l'Est a publié (DOI : 10.1007/s42524-025-4082-6) une revue complète dans Frontiers of Engineering Management, (2025) examinant les risques de sécurité éthique dans les grands modèles de langage. L'étude a examiné plus de 10 000 documents et a extrait 73 travaux clés pour résumer les menaces telles que les attaques de phishing, la génération de code malveillant, les fuites de données, les hallucinations, les biais sociaux et le jailbreaking. La revue évalue en outre les outils de défense, notamment l'entraînement antagoniste, le prétraitement des entrées, le filigrane et les stratégies d'alignement des modèles.

La revue catégorise les menaces de sécurité liées aux LLM en deux domaines principaux : les risques basés sur l'utilisation abusive et les attaques malveillantes ciblant les modèles. L'utilisation abusive comprend les e-mails de phishing rédigés avec une fluidité quasi native, la création automatisée de scripts malveillants, l'usurpation d'identité et la production à grande échelle de fausses informations. Les attaques malveillantes apparaissent à la fois au niveau des données/du modèle—telles que l'inversion, l'empoisonnement, l'extraction de modèles—et au niveau de l'interaction utilisateur, y compris l'injection d'invites et les techniques de jailbreak. Ces attaques peuvent accéder aux données d'entraînement privées, contourner les filtres de sécurité ou induire la production de contenu nuisible.

Concernant la stratégie de défense, l'étude résume trois voies techniques principales : le traitement des paramètres, qui supprime les paramètres redondants pour réduire l'exposition aux attaques ; le prétraitement des entrées, qui paraphrase les invites ou détecte les déclencheurs antagonistes sans réentraînement ; et l'entraînement antagoniste, y compris les cadres de red teaming qui simulent des attaques pour améliorer la robustesse. La revue présente également des technologies de détection comme le filigrane sémantique et CheckGPT, qui peuvent identifier le texte généré par un modèle avec une précision allant jusqu'à 98–99 %. Malgré les progrès, les défenses sont souvent à la traîne des attaques en évolution, indiquant un besoin urgent de solutions évolutives, peu coûteuses et adaptatives multilingues.

Les auteurs soulignent que les garanties techniques doivent coexister avec une gouvernance éthique. Ils soutiennent que les hallucinations, les biais, les fuites de vie privée et la désinformation sont des risques au niveau social, et pas seulement des problèmes d'ingénierie. Pour assurer la confiance dans les systèmes basés sur les LLM, les futurs modèles devraient intégrer la transparence, la traçabilité vérifiable du contenu et une supervision interdisciplinaire. Les cadres d'examen éthique, les mécanismes d'audit des ensembles de données et l'éducation à la sensibilisation du public deviendront essentiels pour prévenir les abus et protéger les groupes vulnérables.

L'étude suggère que le développement sécurisé et éthique des LLM façonnera la manière dont les sociétés adoptent l'IA. Des systèmes de défense robustes peuvent protéger les systèmes financiers contre le phishing, réduire la désinformation médicale et maintenir l'intégrité scientifique. Parallèlement, la traçabilité basée sur le filigrane et le red teaming pourraient devenir des normes industrielles pour le déploiement des modèles. Les chercheurs encouragent les travaux futurs vers une gouvernance responsable de l'IA, des cadres réglementaires unifiés, des ensembles de données d'entraînement plus sûrs et des rapports de transparence des modèles. S'ils sont bien gérés, les LLM peuvent évoluer en outils fiables soutenant l'éducation, la santé numérique et les écosystèmes d'innovation tout en minimisant les risques liés à la cybercriminalité et à la désinformation sociale.

Références
DOI
10.1007/s42524-025-4082-6

URL de la source originale
https://doi.org/10.1007/s42524-025-4082-6

Informations sur le financement
Cette étude a été soutenue par le Beijing Key Laboratory of Behavior and Mental Health, Université de Pékin, Chine.

À propos du journal
Frontiers of Engineering Management (FEM)

Chuanlink Innovations, où les idées révolutionnaires rencontrent leur véritable potentiel. Notre nom, ancré dans l'essence de la transmission et de la connexion, reflète notre engagement à favoriser l'innovation et à faciliter le parcours des idées de la conception à la réalisation.

Lien connexe :
http://chuanlink-innovations.com

Avertissement : Cette traduction a été générée automatiquement par NewsRamp™ pour 24-7 Press Release (collectivement désignés sous le nom de "LES ENTREPRISES") en utilisant des plateformes d'intelligence artificielle génératives accessibles au public. LES ENTREPRISES ne garantissent pas l'exactitude ni l'intégralité de cette traduction et ne seront pas responsables des erreurs, omissions ou inexactitudes. Vous vous fiez à cette traduction à vos propres risques. LES ENTREPRISES ne sont pas responsables des dommages ou pertes résultant de cette confiance. La version officielle et faisant autorité de ce communiqué de presse est la version anglaise.

Blockchain Registration, Verification & Enhancement provided by NewsRamp™

{site_meta && site_meta.display_name} Logo

24-7 Press Release

24-7PressRelease.com provides press release distribution to thousands of journalists (including the Associated Press), researchers & more.