Hablar con una inteligencia artificial puede sentirse como un vistazo al futuro: respuestas inmediatas, textos completos en segundos y la capacidad de comprender contextos complejos. Sin embargo, esta aparente magia tecnológica puede llevar a errores, confusiones o incluso a poner en riesgo la seguridad personal y corporativa.
En este escenario, ESET, detección proactiva de amenazas, advierte que existen preguntas que nunca deberían hacerse a ChatGPT u otras IAs conversacionales.
Según los especialistas de ESET, saber qué no preguntar a una IA no es solo una cuestión de etiqueta digital, sino una estrategia para aprovechar esta herramienta de manera más eficaz y responsable. De hecho, las consultas más frecuentes que reciben plataformas como ChatGPT suelen ser personales y delicadas: cómo mejorar la salud mental, cuál es el mejor método para bajar de peso o cómo iniciar un negocio exitoso. El problema es que estas áreas exigen respuestas con un contexto humano y especializado, algo que la IA no puede ofrecer.
“Por defecto, ChatGPT utiliza la información proporcionada por el usuario para entrenar su modelo, a menos que se modifique esta configuración o se empleen chats temporales. Si un ciberdelincuente accede a una cuenta, tendría acceso a todos los datos compartidos, incluidos los sensibles”, advierte Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Lo que nunca deberías preguntar a ChatGPT
De acuerdo con ESET, hay cinco grandes categorías de preguntas que conviene evitar:
- Información confidencial o sensible. Nunca se deben ingresar datos personales, bancarios o contraseñas. Aunque pueda parecer una interacción privada, las conversaciones no son entornos cifrados y ya existen cuentas de ChatGPT robadas que circulan en foros de la dark web.
- Datos corporativos. Empleados que usan IA deben abstenerse de compartir estrategias empresariales, informes financieros o información de clientes. ChatGPT no distingue entre lo público y lo privado, lo que representa un riesgo directo para la seguridad empresarial.
- Asesoramiento médico, legal o financiero definitivo. Si bien la IA puede ofrecer información general, no sustituye a un doctor, abogado o asesor financiero. Confiar ciegamente en sus respuestas podría llevar a diagnósticos erróneos, malas decisiones de inversión o interpretaciones legales incompletas.
- Opiniones y sentimientos humanos. Aunque ChatGPT parezca empático, no tiene emociones ni conciencia. Preguntar “¿Te gusto?” o “¿Qué harías?” solo generará respuestas simuladas, sin la carga emocional de un ser humano real.
- Decisiones personales trascendentales. La IA puede ayudar a organizar ideas, pero no debe ser la base para decisiones cruciales, como un cambio de carrera, cuestiones familiares o decisiones sobre salud mental. Estas requieren el acompañamiento de profesionales o personas de confianza que comprendan los matices de cada situación.
IA como aliada, no como sustituto
La recomendación de ESET es clara: usar la inteligencia artificial como un complemento, nunca como una fuente definitiva. Eso significa apoyarse en la rapidez y amplitud de información que ofrece, pero siempre contrastando sus respuestas con fuentes confiables y, en temas sensibles, con especialistas.
“Entender qué preguntas no hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria contribuye a tomar decisiones más informadas y seguras”, concluye Gutiérrez Amaya.
La clave está en recordar que, detrás del lenguaje natural y fluido de ChatGPT, no hay un ser humano, sino un sistema que genera respuestas a partir de patrones de datos. Por eso, la inteligencia artificial puede ser una herramienta poderosa, siempre y cuando se use con responsabilidad, criterio y un enfoque en la seguridad digital.
Para obtener más información, visite https://www.eset.com/latam/

La IA puede ser un gran aliado, pero también un riesgo si se le hacen las preguntas equivocadas.