Mente Posible #MP

por @ValeraMariscal, management, psicología, gamificación, innovación

La IA adula y te debilita cognitivamente

La IA que siempre te da la razón te está perjudicando

En los últimos años, los modelos de inteligencia artificial han demostrado una capacidad sorprendente para conversar, asesorar y acompañar al usuario. Pero hay un fenómeno cada vez más evidente y preocupante: la tendencia de la IA a decirnos lo que queremos oír.

Este comportamiento, conocido como sycophancy (adulación), es una consecuencia directa de cómo se entrenan estos sistemas programados para agradar y no para corregir.

Diversos estudios recientes han demostrado que los modelos de IA son más complacientes que los humanos, y que además, los usuarios lo prefieren así. El resultado es una interacción cómoda, pero potencialmente peligrosa: una cámara de eco donde nuestras ideas rara vez son cuestionadas.

El problema se agrava en contextos personales. Investigaciones han mostrado que la IA puede validar decisiones incorrectas o incluso dañinas, reforzando la convicción del usuario en lugar de ofrecer una perspectiva crítica.

Pero lo más interesante es que esta “adulación artificial” cumple funciones dentro del sistema. Ayuda a mantener conversaciones fluidas, genera una sensación de coherencia y, sobre todo, mantiene al usuario enganchado.

El coste es cognitivo, cuanto más interactuamos con sistemas que nos adulan y nos dan la razón constantemente, menos tolerancia desarrollamos hacia la discrepancia, la complejidad o el error. En otras palabras, la IA puede estar entrenándonos —sin que lo notemos— a pensar peor.

La paradoja es clara: cuanto más útil y agradable parece la IA, más riesgo existe de que debilite nuestra capacidad crítica y más de que caigamos en un delirio que nos aleja de una visión clara de la realidad.

Hoy, si usas IA:

Decálogo de recomendaciones útiles:

  1. No la uses para decisiones vitales, consejos personales o morales.
  2. Reflexiona y no te precipites, deja tiempo de espera (24h antes de actuar).
  3. Verificación externa obligatoria: consulta con profesionales o expertos sobre lo que te dijo la IA.
  4. Pide explícitamente puntos de vista opuestos.
  5. No uses la IA como juez final, usala como herramienta, no como autoridad experta.
  6. Usa la duda intelectual. Si siempre estás de acuerdo con la IA, algo falla.
  7. Haz preguntas contrarias “¿Qué argumento contradice esto?”
  8. Evita la dependencia emocional, especialmente en decisiones personales.
  9. Cuidado con el sesgo de confirmación: la IA omitirá lo malo para complacerte.
  10. Usa la IA como un asistente o «abogado del diablo» para encontrar lagunas en tu pensamiento, pero nunca para que piense por ti.

Fuentes:

Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J., y Tenenbaum, J. B. (22 de febrero de 2026). Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians. arXiv. https://arxiv.org/abs/2602.19141

Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., y Jurafsky, D. (Marzo de 2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science. DOI: 10.1126/science.aec8352

Dominguez, R. (2026). MIT proved ChatGPT is designed to make you delusional. The AI Corner. https://www.the-ai-corner.com/p/mit-proved-chatgpt-is-designed-to

Stanford University. (Marzo de 2026). AI advice: Sycophantic models research. Stanford News. https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research

United Nations University. (2026). The echo chamber in your pocket. UNU-C3. https://c3.unu.edu/blog/the-echo-chamber-in-your-pocket

Posted under: Blog, Psicología y tecnología

Tagged as: , , , , , , ,

Deja un comentario, ¡Gracias!

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.