By: Press Services
March 25, 2026
Plataformas de IA Encuentran 0% de Fugas de Datos en Nuevo Estudio
Estudio asegura a los usuarios: Las plataformas de IA no filtran datos sensibles
Nueva York, Estados Unidos - 21 de marzo de 2026 / Search Atlas /
CIUDAD DE NUEVA YORK, NY, 19 de marzo de 2026 - Search Atlas, una destacada plataforma de SEO e inteligencia digital, ha revelado hoy los resultados de un estudio controlado que investiga el destino de la información sensible introducida en las principales plataformas de IA. Esta investigación evaluó seis grandes modelos de lenguaje (LLM) -OpenAI, Gemini, Perplexity, Grok, Copilot y Google AI Mode- mediante dos experimentos cuidadosamente diseñados destinados a replicar los peores escenarios de exposición de datos.
Los hallazgos brindan una tranquilidad significativa tanto para empresas como para individuos preocupados por la confidencialidad de la información compartida con herramientas de IA. En las seis plataformas evaluadas, los investigadores descubrieron una ausencia total de filtración de datos con respecto a la información sensible proporcionada por el usuario.
El estudio completo se puede acceder aquí.
Hallazgos clave:
Realizado por investigadores de Search Atlas, el estudio examinó seis destacadas plataformas LLM (OpenAI, Gemini, Perplexity, Grok, Copilot y Google AI Mode) mediante dos experimentos cuidadosamente controlados destinados a imitar los peores escenarios de exposición de datos. Los resultados brindan una tranquilidad significativa para empresas e individuos preocupados por el manejo de información confidencial compartida con herramientas de IA.
1. Los LLM no retienen ni reproducen información sensible del usuario - 0% de filtración de datos en todas las plataformas evaluadas
El estudio investigó si los modelos de IA reproducirían información privada después de estar expuestos a ella. Los investigadores construyeron 30 pares de preguntas y respuestas sin ninguna información pública, indexación de búsqueda, referencias en línea o presencia en datos de entrenamiento conocidos.
Cada modelo pasó por un proceso de tres pasos:
En las seis plataformas evaluadas, ninguna produjo una sola respuesta correcta después de la exposición. Los modelos que inicialmente se negaron a responder continuaron haciéndolo, mientras que aquellos que tendían a alucinar respuestas persistieron en generar respuestas incorrectas en lugar de repetir los hechos inyectados. En resumen, el comportamiento del modelo permaneció fundamentalmente sin cambios antes y después de la exposición.
Esta configuración simuló un escenario de peor caso en el que un usuario ingresa información propietaria o sensible en un sistema de IA. Bajo estas condiciones, el estudio no encontró evidencia de que la información se retuviera para respuestas futuras.
El experimento también descubrió variaciones de comportamiento entre plataformas. Los modelos de OpenAI, Perplexity y Grok exhibieron una tendencia a responder con incertidumbre cuando faltaba información confiable, lo que llevó a una mayor frecuencia de respuestas "No lo sé". En contraste, Gemini, Copilot y Google AI Mode estaban más inclinados a generar respuestas seguras pero incorrectas. Sin embargo, ninguna de estas respuestas incorrectas coincidió con la información privada proporcionada previamente. Los hallazgos subrayan una distinción crucial: la alucinación (fabricar información incorrecta) no es sinónimo de filtración. La alucinación y la filtración son modos de falla separados, y este estudio identificó solo el primero.
2. Los hechos recuperados desaparecen cuando la búsqueda está desactivada - sin evidencia de retención o filtración a corto plazo
El segundo experimento evaluó si la información recuperada mediante búsqueda web en vivo permanecería y reaparecería en las respuestas de un modelo una vez que se desactivara el acceso a la búsqueda.
Para aislar este efecto, los investigadores eligieron un evento del mundo real que ocurrió después de la fecha límite de entrenamiento de todos los modelos evaluados. Esto aseguró que cualquier respuesta correcta durante el experimento solo pudiera originarse en la recuperación web en vivo, no en el conocimiento existente de los modelos.
Cuando la búsqueda estaba habilitada, los modelos respondieron la gran mayoría de las preguntas correctamente. Sin embargo, una vez que la búsqueda se desactivó inmediatamente y se plantearon las mismas preguntas nuevamente, esas respuestas correctas desaparecieron en gran medida.
Las únicas preguntas que los modelos aún podían responder correctamente sin búsqueda eran aquellas cuyas respuestas podían inferirse razonablemente de datos de entrenamiento preexistentes o conocimiento general, en lugar de información recuperada momentos antes.
En resumen, los resultados no demostraron evidencia de que los modelos retuvieran o transmitieran información recuperada mediante búsqueda en vivo. Una vez que se eliminó el acceso a la recuperación, la información ya no apareció en las respuestas, lo que indica que los sistemas no almacenan ni transmiten hechos obtenidos durante interacciones previas.
3. Los usuarios enfrentan alucinaciones de IA, no exposición de datos
Una de las conclusiones más prácticas del estudio es la clara distinción entre alucinación y filtración de datos. Las plataformas que exhibieron menor precisión fueron Gemini, Copilot y Google AI Mode, y no lo hicieron repitiendo información que habían recibido previamente. En cambio, sus errores surgieron de generar respuestas seguras y plausibles que simplemente eran incorrectas. OpenAI (ChatGPT) y Perplexity mostraron los niveles más bajos de alucinación.
Esta distinción es significativa al evaluar el riesgo de IA. Una preocupación prevalente es que un sistema de IA podría exponer información sensible de un usuario a otro. En este estudio, los investigadores no encontraron evidencia que respalde ese escenario.
El problema observado de manera más consistente fue la alucinación (modelos llenando vacíos de conocimiento con hechos fabricados). Si bien esto no implica compartir información privada, introduce un desafío diferente: individuos y organizaciones deben asegurarse de que las respuestas generadas por IA sean revisadas y verificadas, especialmente en contextos donde la precisión es primordial.
Qué significa esto
Para empresas y usuarios conscientes de la privacidad, los hallazgos brindan noticias tranquilizadoras. Si se comparte información sensible con un modelo de IA durante una sola sesión, como estrategias comerciales propietarias o detalles privados, el modelo no parece absorber esa información en una memoria duradera que podría revelarse a otros usuarios. En cambio, los datos actúan más como una "memoria de trabajo" temporal utilizada para generar una respuesta dentro de esa interacción.
Para investigadores y verificadores de hechos, estos hallazgos también subrayan una limitación importante. No se puede esperar que un LLM "aprenda" de una corrección proporcionada en una conversación anterior. Si un modelo contiene un error en sus datos de entrenamiento subyacentes, puede persistir en repetir ese error en sesiones futuras a menos que el modelo mismo sea reentrenado o la fuente correcta se proporcione nuevamente.
Para desarrolladores y creadores de IA, el estudio enfatiza la importancia de los sistemas basados en recuperación. Estrategias como Generación Aumentada por Recuperación (RAG), que conectan modelos con bases de datos en vivo o sistemas de búsqueda, siguen siendo la forma más confiable de garantizar que las respuestas de IA sean precisas para eventos actuales, información propietaria o datos actualizados con frecuencia. Sin recuperación, el modelo carece de un mecanismo incorporado para retener hechos descubiertos durante interacciones anteriores.
"Gran parte de la preocupación en torno a la adopción empresarial de IA surge de una suposición razonable pero no probada de que si ingresas información sensible en uno de estos sistemas, de alguna manera se filtrará", declaró Manick Bhan, Fundador de Search Atlas. "Nuestro objetivo era probar rigurosamente esa suposición en condiciones controladas en lugar de especular. En cada plataforma que evaluamos, los datos no la respaldaron. Si bien esto no implica que la IA esté libre de riesgos -la alucinación es un problema genuino y documentado- el temor específico de que tus datos puedan filtrarse a otro usuario no es algo para lo que encontramos evidencia. Esperamos que esto brinde a individuos y organizaciones la confianza para interactuar con estas herramientas de manera más clara, permitiéndoles centrarse en los riesgos reales presentes".
Metodología
El estudio, realizado por Search Atlas, sometió a seis grandes plataformas LLM -OpenAI, Gemini, Perplexity, Grok, Copilot y Google AI Mode- a un riguroso experimento de múltiples etapas para determinar si retienen o filtran información proporcionada durante una sesión. La metodología siguió tres pasos.
Primero, los investigadores introdujeron hechos únicos y no públicos en cada modelo mediante dos métodos: indicaciones directas del usuario y resultados de búsqueda web simulados. Los hechos eran información completamente sintética que no existía en ningún lugar en línea y no tenía presencia en datos de entrenamiento conocidos, asegurando que cualquier respuesta correcta producida por un modelo solo pudiera atribuirse a la retención de lo que se le había mostrado.
Luego, después de que cada modelo estuvo expuesto a estos datos privados, los investigadores evaluaron si podía activarse para revelar esos hechos en una nueva interacción, sin acceso a búsqueda y sin referencias contextuales a la exposición original. Este diseño de sesión aislada tenía la intención de replicar la preocupación realista de que la información compartida con una IA en una conversación podría surgir para otro usuario más tarde.
Finalmente, el equipo midió dos métricas en todas las plataformas antes y después de la exposición: la Tasa de Respuesta Verdadera, que indica con qué frecuencia un modelo recordó correctamente el hecho privado, y la Tasa de Alucinación, que indica con qué frecuencia produjo una respuesta segura pero incorrecta en su lugar. Comparar estas cifras antes y después de la exposición de datos permitió a los investigadores determinar si los modelos realmente estaban reteniendo nueva información o simplemente comportándose como siempre lo habían hecho. En las seis plataformas, la respuesta fue lo último.
Información de contacto:
Search Atlas
368 9th Ave
Nueva York, NY 10001
Estados Unidos
Manick Bhan
+1-212-203-0986
https://searchatlas.com
Descargo de responsabilidad: Esta traducción ha sido generada automáticamente por NewsRamp™ para Press Services (colectivamente referidos como "LAS EMPRESAS") utilizando plataformas de inteligencia artificial generativas de acceso público. LAS EMPRESAS no garantizan la exactitud ni la integridad de esta traducción y no serán responsables por ningún error, omisión o inexactitud. La confianza en esta traducción es bajo su propio riesgo. LAS EMPRESAS no son responsables por ningún daño o pérdida resultante de tal confianza. La versión oficial y autoritativa de este comunicado de prensa es la versión en inglés.
