Cuidado con lo que escribes: cómo usar ChatGPT de forma segura

La IA puede ser un gran aliado, pero también un riesgo si se le hacen las preguntas equivocadas.

Hablar con una inteligencia artificial puede sentirse como un vistazo al futuro: respuestas inmediatas, textos completos en segundos y la capacidad de comprender contextos complejos. Sin embargo, esta aparente magia tecnológica puede llevar a errores, confusiones o incluso a poner en riesgo la seguridad personal y corporativa.

En este escenario, ESET, detección proactiva de amenazas, advierte que existen preguntas que nunca deberían hacerse a ChatGPT u otras IAs conversacionales.

Según los especialistas de ESET, saber qué no preguntar a una IA no es solo una cuestión de etiqueta digital, sino una estrategia para aprovechar esta herramienta de manera más eficaz y responsable. De hecho, las consultas más frecuentes que reciben plataformas como ChatGPT suelen ser personales y delicadas: cómo mejorar la salud mental, cuál es el mejor método para bajar de peso o cómo iniciar un negocio exitoso. El problema es que estas áreas exigen respuestas con un contexto humano y especializado, algo que la IA no puede ofrecer.

Por defecto, ChatGPT utiliza la información proporcionada por el usuario para entrenar su modelo, a menos que se modifique esta configuración o se empleen chats temporales. Si un ciberdelincuente accede a una cuenta, tendría acceso a todos los datos compartidos, incluidos los sensibles”, advierte Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

Lo que nunca deberías preguntar a ChatGPT

De acuerdo con ESET, hay cinco grandes categorías de preguntas que conviene evitar:

  • Información confidencial o sensible. Nunca se deben ingresar datos personales, bancarios o contraseñas. Aunque pueda parecer una interacción privada, las conversaciones no son entornos cifrados y ya existen cuentas de ChatGPT robadas que circulan en foros de la dark web.
  • Datos corporativos. Empleados que usan IA deben abstenerse de compartir estrategias empresariales, informes financieros o información de clientes. ChatGPT no distingue entre lo público y lo privado, lo que representa un riesgo directo para la seguridad empresarial.
  • Asesoramiento médico, legal o financiero definitivo. Si bien la IA puede ofrecer información general, no sustituye a un doctor, abogado o asesor financiero. Confiar ciegamente en sus respuestas podría llevar a diagnósticos erróneos, malas decisiones de inversión o interpretaciones legales incompletas.
  • Opiniones y sentimientos humanos. Aunque ChatGPT parezca empático, no tiene emociones ni conciencia. Preguntar “¿Te gusto?” o “¿Qué harías?” solo generará respuestas simuladas, sin la carga emocional de un ser humano real.
  • Decisiones personales trascendentales. La IA puede ayudar a organizar ideas, pero no debe ser la base para decisiones cruciales, como un cambio de carrera, cuestiones familiares o decisiones sobre salud mental. Estas requieren el acompañamiento de profesionales o personas de confianza que comprendan los matices de cada situación.

IA como aliada, no como sustituto

La recomendación de ESET es clara: usar la inteligencia artificial como un complemento, nunca como una fuente definitiva. Eso significa apoyarse en la rapidez y amplitud de información que ofrece, pero siempre contrastando sus respuestas con fuentes confiables y, en temas sensibles, con especialistas.

Entender qué preguntas no hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria contribuye a tomar decisiones más informadas y seguras”, concluye Gutiérrez Amaya.

La clave está en recordar que, detrás del lenguaje natural y fluido de ChatGPT, no hay un ser humano, sino un sistema que genera respuestas a partir de patrones de datos. Por eso, la inteligencia artificial puede ser una herramienta poderosa, siempre y cuando se use con responsabilidad, criterio y un enfoque en la seguridad digital.

Para obtener más información, visite https://www.eset.com/latam/