Usar inteligencia artificial ya es parte del día a día. Expertos advierten sobre el riesgo de ingresar información confidencial en plataformas de inteligencia artificial
La expansión de la inteligencia artificial ha transformado la vida cotidiana, desde la programación hasta la redacción de correos electrónicos y la gestión de información compleja. Según OpenAI, ChatGPT ha alcanzado 900 millones de usuarios activos semanales a principios de este año, lo que evidencia la magnitud de su penetración. Sin embargo, este crecimiento plantea inquietudes fundamentales sobre el tratamiento de la información personal y confidencial que los usuarios introducen en la plataforma.
El investigador de seguridad informática de ESET Latinoamérica, Mario Micucci, advierte que la percepción de que las conversaciones en ChatGPT desaparecen al cerrar la ventana es errónea. En realidad, la información pasa por tres etapas principales:
Almacenamiento e historial: Los mensajes enviados se conservan en los servidores de OpenAI. Esto permite acceder al historial desde diferentes dispositivos y mantener el contexto de la conversación. En algunas situaciones, los datos pueden archivarse hasta por 30 días, principalmente para tareas de seguridad y monitoreo de posibles abusos.
Entrenamiento de modelos: OpenAI utiliza por defecto las conversaciones de las versiones gratuita y Plus para perfeccionar sus modelos. No ocurre lo mismo con las cuentas Business, Enterprise, Edu, Healthcare ni con el uso de la API, donde el entrenamiento con datos de usuario está desactivado por defecto.
Revisión humana: para garantizar la calidad y seguridad de las respuestas, una muestra de diálogos anonimizados es revisada por personal capacitado. Estos especialistas leen fragmentos de conversaciones para detectar posibles contenidos ofensivos o peligrosos. Así, no solo los algoritmos pueden acceder a lo escrito, sino también personas reales, aunque bajo protocolos de anonimización.
Además, ESET advierte que existe otro riesgo importante: el robo de cuentas. Durante 2024 se detectaron más de 225 mil credenciales de inicio de sesión de ChatGPT a la venta en foros de la Dark Web, muchas obtenidas mediante malware especializado en robar información. Esto significa que el peligro no solo está en lo que se escribe, sino también en quién puede llegar a leerlo si una cuenta es vulnerada.
La investigación también analiza otras plataformas de IA como Google Gemini y Claude de Anthropic. Aunque cada empresa maneja políticas distintas, todas coinciden en algo: las versiones gratuitas suelen utilizar parte de la información para mejorar sus sistemas, mientras que las versiones empresariales ofrecen mayores controles de privacidad.
Ante este panorama, los especialistas recomiendan evitar compartir información sensible como contraseñas, datos bancarios, documentos internos, estrategias empresariales o fragmentos de código privado. También sugieren activar la autenticación en dos pasos, utilizar contraseñas únicas y revisar cuidadosamente las configuraciones de privacidad de cada plataforma.
Otra recomendación importante es desactivar el historial o el entrenamiento de modelos cuando sea posible. En el caso de ChatGPT, esto puede hacerse desde el apartado de “Controles de datos”, mientras que en Gemini se debe revisar la configuración de “Actividad en apps de Gemini”.

Especialistas alertan sobre los riesgos de compartir información sensible en chats con IA.