La IA que siempre te da la razón te está perjudicando
En los últimos años, los modelos de inteligencia artificial han demostrado una capacidad sorprendente para conversar, asesorar y acompañar al usuario. Pero hay un fenómeno cada vez más evidente y preocupante: la tendencia de la IA a decirnos lo que queremos oír.
Este comportamiento, conocido como sycophancy (adulación), es una consecuencia directa de cómo se entrenan estos sistemas programados para agradar y no para corregir.
Diversos estudios recientes han demostrado que los modelos de IA son más complacientes que los humanos, y que además, los usuarios lo prefieren así. El resultado es una interacción cómoda, pero potencialmente peligrosa: una cámara de eco donde nuestras ideas rara vez son cuestionadas.
El problema se agrava en contextos personales. Investigaciones han mostrado que la IA puede validar decisiones incorrectas o incluso dañinas, reforzando la convicción del usuario en lugar de ofrecer una perspectiva crítica.
Pero lo más interesante es que esta “adulación artificial” cumple funciones dentro del sistema. Ayuda a mantener conversaciones fluidas, genera una sensación de coherencia y, sobre todo, mantiene al usuario enganchado.
El coste es cognitivo, cuanto más interactuamos con sistemas que nos adulan y nos dan la razón constantemente, menos tolerancia desarrollamos hacia la discrepancia, la complejidad o el error. En otras palabras, la IA puede estar entrenándonos —sin que lo notemos— a pensar peor.
La paradoja es clara: cuanto más útil y agradable parece la IA, más riesgo existe de que debilite nuestra capacidad crítica y más de que caigamos en un delirio que nos aleja de una visión clara de la realidad.
Hoy, si usas IA:
Decálogo de recomendaciones útiles:
- No la uses para decisiones vitales, consejos personales o morales.
- Reflexiona y no te precipites, deja tiempo de espera (24h antes de actuar).
- Verificación externa obligatoria: consulta con profesionales o expertos sobre lo que te dijo la IA.
- Pide explícitamente puntos de vista opuestos.
- No uses la IA como juez final, usala como herramienta, no como autoridad experta.
- Usa la duda intelectual. Si siempre estás de acuerdo con la IA, algo falla.
- Haz preguntas contrarias “¿Qué argumento contradice esto?”
- Evita la dependencia emocional, especialmente en decisiones personales.
- Cuidado con el sesgo de confirmación: la IA omitirá lo malo para complacerte.
- Usa la IA como un asistente o «abogado del diablo» para encontrar lagunas en tu pensamiento, pero nunca para que piense por ti.
Fuentes:
Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J., y Tenenbaum, J. B. (22 de febrero de 2026). Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians. arXiv. https://arxiv.org/abs/2602.19141
Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., y Jurafsky, D. (Marzo de 2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science. DOI: 10.1126/science.aec8352
Dominguez, R. (2026). MIT proved ChatGPT is designed to make you delusional. The AI Corner. https://www.the-ai-corner.com/p/mit-proved-chatgpt-is-designed-to
Stanford University. (Marzo de 2026). AI advice: Sycophantic models research. Stanford News. https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research
United Nations University. (2026). The echo chamber in your pocket. UNU-C3. https://c3.unu.edu/blog/the-echo-chamber-in-your-pocket



