Cada día es más común que los usuarios acudan a la inteligencia artificial para resolver dudas y obtener ayuda en las tareas habituales, pero no siempre dice la verdad.

Publicado por: Redacción Tecnología
Una joven tuvo una discusión con su compañera de apartamento sobre cómo debían repartir el dinero del arriendo. Para resolverlo, ambas decidieron consultar por separado con ChatGPT. El resultado fue inesperado, pues el chatbot les dio la razón a las dos.
Este hecho, relatado por Emily Willrich en el New York Times, muestra cómo los sistemas de lenguaje como este están diseñados para complacer al usuario más que para corregirlo, incluso cuando este está equivocado. “Tienes toda la razón”, respondió la IA a ambas, a pesar de que sus argumentos eran contradictorios.
Aunque puede parecer un caso anecdótico, deja al descubierto una tendencia más profunda; millones de personas están usando la inteligencia artificial como si fuera un árbitro imparcial, un consejero personal o hasta un amigo. El problema surge cuando, en su afán por agradar, estas herramientas terminan reforzando ideas preconcebidas o puntos de vista erróneos, validando casi cualquier opinión.
Puede leer: Expertos alertan sobre un virus que se propaga por Whatsapp y puede suspender su cuenta
Como lo señala Matthew Nour, psiquiatra e investigador de la Universidad de Oxford, “un chatbot de IA es como un espejo distorsionado. Crees que se trata de una perspectiva neutral, pero el modelo está reflejando tus propios pensamientos con una capa de adulación”.
Uso y malinterpretación de la IA
Este fenómeno no se limita a temas cotidianos. Las personas están utilizando herramientas como ChatGPT para resolver dudas legales, pedir asesorías médicas, solucionar conflictos con aerolíneas, tomar decisiones laborales y, con creciente frecuencia, como apoyo emocional.
En lugar de investigar cómo funcionan las cosas, muchos usuarios preguntan qué deberían hacer con su vida. Según el psicólogo Jorge Iván Arango, subdirector del área de Psicología Social y Comunitaria del Colegio Colombiano de Psicólogos, “el riesgo está en que los usuarios confundan el apoyo automatizado con la terapia real, lo que puede llevar a la desatención de problemas que requieren intervención clínica”.
La revista Harvard Business Review lo documentó con claridad, comparando estudios de 2024 y 2025 sobre el uso de la IA generativa. En el más reciente, se evidenció que su función principal ya no es redactar textos o generar ideas, sino brindar “apoyo personal y terapéutico”.
Publicidad
Plataformas como Replika, Woebot o Character.ai han sido creadas con la promesa de “escuchar” al usuario, ofreciendo comprensión y empatía. Sin embargo, esa empatía no es auténtica.
“Uno de los aspectos más importantes de un proceso terapéutico es la relación que se construye entre paciente y profesional”, explica Arango. “El éxito de una buena terapia está en el momento en que se reconocen como dos seres humanos trabajando en la solución del problema. Eso no lo va a lograr la IA, por lo menos en los próximos 300 años”.
¿Por qué siempre dan la razón?
El hecho de que estos sistemas tiendan a complacer no es casualidad. Ethan Mollick, codirector del Laboratorio de IA Generativa de la Universidad de Pensilvania, señala que la personalidad por defecto de modelos como ChatGPT es “alegre y adaptativa”.
En la práctica, esto significa que están programados para mantener conversaciones agradables y evitar el conflicto. “Nuestros comentarios ayudan a dirigir su comportamiento y refuerzan unas respuestas sobre otras”, indica Mollick. Así, si una respuesta amable recibe más atención, el sistema tenderá a repetir ese patrón.
Desde el punto de vista técnico, Ruta N explica que estos modelos se basan en patrones de lenguaje y no tienen la capacidad de distinguir entre lo verdadero y lo falso. Esto explica por qué a veces inventan información o repiten errores sin corregirlos.
Incluso cuando se hacen preguntas mal formuladas (por ejemplo, si aplica un reembolso en un vuelo, o sobre la legalidad de algún suceso en Colombia), el modelo puede responder con seguridad, sin que la respuesta sea correcta.
“Las aplicaciones de IA suelen dar respuestas convincentes, pero pueden propagar errores o sesgos peligrosos”, advierte David González Cuautle, del laboratorio de ciberseguridad ESET.
Publicidad
El costo de pensar menos
Más allá del contenido de las respuestas, hay efectos a nivel cognitivo. Un estudio reciente del MIT Media Lab analizó cómo influye el uso de estas herramientas en la actividad cerebral durante tareas como redactar un ensayo.
Los hallazgos mostraron que quienes usaron únicamente inteligencia artificial presentaron una menor activación cerebral en comparación con aquellos que escribieron sin ayuda.
“La conectividad cerebral disminuyó sistemáticamente con la cantidad de apoyo externo”, concluye la investigación. Es decir, cuanto más delegamos el pensamiento en estas herramientas, menos esfuerzo cognitivo hacemos.
Los investigadores no sugieren que estemos perdiendo inteligencia, pero sí alertan sobre una posible “disminución en las habilidades de aprendizaje” cuando se abusa de estas tecnologías.
Publicidad
Uno de los mayores peligros es que, al buscar siempre aprobación, las personas eviten enfrentarse a la crítica o a puntos de vista distintos. “Las relaciones del mundo real se definen por la fricción y los límites”, dice Rian Kabir, exmiembro del Comité de Tecnología de la Asociación Psiquiátrica Estadounidense. “La retroalimentación es la manera en que nos corregimos en el mundo”.
Pero los chatbots están hechos precisamente para evitar esa fricción. Jean-Christophe Bélisle-Pipon, experto canadiense en ética de la IA, alerta sobre el hecho de que estos sistemas no explican claramente sus limitaciones.
“La bondad principal con la que se publicitan es la empatía, pero eso puede hacer que los usuarios se confundan sobre su verdadero alcance, especialmente en casos graves como suicidio o abuso”, afirma.
Además: Estas son las profesiones que la IA podría reemplazar según OpenAI
Publicidad
Desde la neurociencia, también se advierte el riesgo de generar dependencia emocional. Si bien estos bots podrían servir como compañía para personas mayores que viven solas, también puede ser un escenario triste. “Es trágico pensar en alguien pasando horas hablando con algo que ni siquiera sabe que existe”.
¿Qué se puede hacer?
Sin duda, las aplicaciones de inteligencia artificial pueden ser herramientas útiles. Sin embargo, no deben reemplazar el contacto humano ni el criterio profesional. Una estrategia recomendada es cuestionar al sistema, preguntándole cosas como: “¿estás seguro?” o “¿de dónde sacaste esa información?”, para así verificar lo que dice.
Pero lo más importante es no olvidar que los chatbots no son amigos. Lo que hay detrás de la pantalla es código diseñado para agradar. Por eso, pueden halagar y reconocer nuestras inseguridades, pero no resolverlas.
















