¿Qué no deberíamos preguntarle a ChatGPT?
¿Qué no deberíamos preguntarle a ChatGPT?
Por: David Gonzalez Cuautle investigador de seguridad informática del laboratorio de ESET Latinoamérica.
En tiempos en los que conversar con una inteligencia artificial se ha vuelto casi tan común como hablar con un amigo, vale la pena detenernos un momento y preguntarnos: ¿realmente entendemos con quién o con qué estamos hablando?

ChatGPT y herramientas similares nos impresionan por su rapidez, su capacidad para mantener una conversación compleja o incluso redactar textos completos en segundos. Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias, solo predice palabras basándose en patrones, por ello, no todas las preguntas son seguras para hacerle a una IA porque simplemente no está diseñada para manejar ciertos tipos de información o decisiones.
Para empezar, nunca deberíamos compartir información confidencial con una IA. Datos bancarios, contraseñas, reportes financieros, estrategias de negocios o cualquier información sensible deben quedar fuera de estas conversaciones porque, aunque parezca que estás interactuando en un espacio privado, las IA no son entornos cifrados ni seguros y si una cuenta cae en manos equivocadas, toda esa información podría estar comprometida.
Además, los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas. Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.
Más allá de los datos, hay preguntas que tienen que ver con decisiones fundamentales de nuestra vida: salud mental, diagnósticos médicos, asesoramiento legal o financiero.
Aunque las IAs pueden ayudar a aclarar conceptos y proporcionar información general de fuentes fiables, no sustituyen a los profesionales cualificados. Buscar un diagnóstico médico, asesoramiento jurídico o decidir sobre inversiones basándose únicamente en las respuestas de la IA es como buscar síntomas en Google: podría acabar en concluir que un simple dolor de cabeza es algo mucho más grave. Es posible que la IA no tenga acceso a todo el contexto de la situación y no pueda hacer una evaluación personalizada y responsable, que es exactamente lo que requieren estos ámbitos.
Otra trampa común es pedirle a la IA su opinión. ¿Qué harías tú?, ¿Qué piensas de mí?, ¿Crees que debería mudarme, renunciar, terminar una relación? Es importante recordar que cuando se interactúa con una IA, se está tratando con una herramienta que ha sido programada para generar respuestas basadas en datos. La IA puede parecer empática, pero no tiene la capacidad de sentir ni de formar opiniones propias. Así que si lo que se busca es un consejo genuino o una respuesta emocional, es mejor que hablar con una persona real que pueda ofrecer empatía y criterio.
la IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el propio bienestar. Tomar decisiones cruciales, como un cambio de carrera profesional, cuestiones de salud mental o elecciones familiares, requiere un análisis más profundo, que tenga en cuenta no solo los datos y la lógica, sino también los aspectos emocionales y subjetivos. La tecnología puede ayudarnos a organizar ideas, pero no puede, ni debe, decidir por nosotros.
ChatGPT es una herramienta útil, poderosa y transformadora. Pero también es una herramienta que debemos aprender a usar con criterio. Como toda tecnología, puede ser una aliada o un riesgo, dependiendo de cómo se utilice. No se trata de tenerle miedo, sino de conocer sus límites.