Sociedad

Riesgos ocultos de la IA: alertan por uso de datos personales en plataformas como ChatGPT

Especialistas advierten que millones de usuarios podrían estar compartiendo información sensible sin saber cómo se almacena, utiliza o incluso se expone, en medio del crecimiento acelerado de herramientas de inteligencia artificial.
Uso de datos personales en plataformas como ChatGPT ESET
Redacción 30-04-2026

MÉXICO.- Ya sea para programar, redactar correos electrónicos o resumir documentos complejos, la inteligencia artificial se ha convertido en una infraestructura digital esencial para millones de personas, y su uso se ha expandido de manera acelerada. ChatGPT, por ejemplo, alcanzó a principios de este año, de acuerdo con datos de OpenAI, alrededor de 900 millones de usuarios activos semanales. No obstante, ESET, compañía especializada en detección proactiva de amenazas, advierte que este crecimiento plantea una pregunta clave para la seguridad digital: ¿qué ocurre con la información que se introduce en estos sistemas?

"Muchas personas creen que las conversaciones funcionan como un chat privado que desaparece al cerrar la ventana. Sin embargo, interactuar con modelos de lenguaje implica un proceso complejo de almacenamiento y análisis de datos que puede exponer información sensible si no se toman precauciones", explicó Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

De acuerdo con la compañía, cuando un usuario introduce información en ChatGPT, esta no se queda únicamente en el dispositivo, sino que sigue un proceso que involucra distintas capas de tratamiento:

Almacenamiento e historial: cada mensaje se guarda en los servidores de OpenAI, lo que permite acceder al historial desde distintos dispositivos y mantener el contexto de la conversación. En algunos casos, los datos pueden conservarse hasta por 30 días por motivos de seguridad y monitoreo.
Entrenamiento de modelos (punto crítico): uno de los aspectos más debatidos en materia de privacidad. Por defecto, OpenAI puede utilizar las conversaciones de usuarios en versiones gratuitas y Plus para mejorar sus modelos, aunque esta opción puede desactivarse. En servicios como Business, Enterprise, Edu, Healthcare y la API, los datos no se emplean para entrenamiento de forma predeterminada.

"Si un empleado introduce código propietario o información estratégica, existe la posibilidad de que estos datos formen parte del proceso de aprendizaje del modelo. Estudios han demostrado que los modelos de lenguaje pueden memorizar fragmentos de información y, en ciertas condiciones, estos podrían ser recuperados", agregó Micucci.

Revisión humana: con el fin de mejorar la calidad y seguridad de las respuestas, algunas conversaciones anonimizadas son revisadas por personal especializado. Esto implica que no solo los sistemas automatizados procesan la información, sino que también puede haber intervención humana en ciertos casos.

El especialista advirtió que uno de los principales riesgos es que la inteligencia artificial aprenda patrones de la información proporcionada y los reproduzca en futuras respuestas. Dependiendo de la herramienta, el tipo de cuenta y la configuración de privacidad, los datos pueden utilizarse para mejorar modelos posteriores, lo que representa un riesgo si se comparte información confidencial.

Por ello, recomendó que datos como planes estratégicos, código propietario, credenciales o información de clientes se utilicen únicamente en plataformas autorizadas por las empresas y con controles de seguridad adecuados.

Además, ESET alertó sobre un riesgo externo creciente: el interés de los ciberdelincuentes en acceder a cuentas de herramientas de IA. Debido a que estas suelen contener información sensible, una cuenta comprometida puede derivar en espionaje industrial o robo de identidad.

Datos de 2024 indican que más de 225 mil credenciales de acceso a ChatGPT fueron detectadas a la venta en foros de la dark web, muchas de ellas obtenidas mediante malware tipo infostealer, lo que evidencia que el riesgo no solo está en la información compartida, sino también en la protección de las cuentas.

Aunque ChatGPT es una de las plataformas más utilizadas, el ecosistema de la inteligencia artificial generativa incluye otros actores con enfoques distintos en materia de privacidad, por lo que es importante que los usuarios comprendan que los riesgos pueden variar según la plataforma.

¿Cómo gestiona Gemini la información?
Google Gemini opera dentro de la infraestructura de Google y, de acuerdo con su Centro de Privacidad, utiliza las conversaciones para mejorar sus servicios, incluyendo revisiones humanas.

En entornos corporativos como Google Workspace, las políticas establecen que los datos no se emplean para entrenar modelos globales. No obstante, el contenido puede seguir analizándose para mejorar la precisión de las respuestas, salvo que el usuario desactive manualmente esta opción.

¿Cómo utiliza Claude los datos?
El modelo Claude, desarrollado por Anthropic, se basa en un enfoque de "IA constitucional", priorizando la seguridad y minimizando la retención de datos.

En su versión gratuita, los datos pueden emplearse para mejorar el sistema; sin embargo, ofrece opciones claras de exclusión para usuarios empresariales, garantizando mayor privacidad en el manejo de información sensible.

"Minguna de estas plataformas funciona como una bóveda completamente cerrada por defecto. Todas dependen del uso de datos para su funcionamiento. La principal diferencia radica en las condiciones de uso: mientras que en versiones gratuitas los datos pueden contribuir al entrenamiento, en entornos empresariales la privacidad se maneja como un servicio especializado", puntualizó Micucci.

Para reducir riesgos, ESET recomendó:

  • Criterio y anonimización: evitar compartir información sensible y modificar datos antes de ingresarlos.
  • Seguridad de cuentas: utilizar contraseñas robustas y activar la verificación en dos pasos.
  • Configuración de privacidad: revisar y ajustar las opciones para limitar el uso de datos en entrenamiento.

Para más información, se puede consultar: https://www.welivesecurity.com/es/seguridad-digital/chatgpt-datos-privacidad-riesgos/

Asimismo, ESET invita a conocer su pódcast "Conexión Segura", disponible en Spotify, donde se abordan temas actuales de ciberseguridad.

Temas relacionados ChatGPT Datos ciberneticos ESET