Mente Posible #MP

por @ValeraMariscal, management, psicología, gamificación, innovación

Home » Archive by category "Blog"

IAG, los procesos se liberan de los recursos

Los procesos están al servicio de los objetivos, pero son esclavos de los recursos. Con esta afirmación pretendo resumir una de las tensiones más constantes en cualquier organización: querer crecer o innovar más, pero hacerlo con tiempo, talento y presupuesto limitados. Así, las organizaciones diseñan los procesos para hacer posible un objetivo, pero en la práctica, su alcance viene lastrado, o incluso encadenado, por los recursos disponibles. Sin embargo, en el nuevo escenario, la inteligencia artificial generativa (IAG) está cambiando esta ecuación.

Durante décadas, mejorar un proceso significaba casi siempre elegir entre dos opciones: añadir recursos o adaptarse a los límites. En la actualidad, la IAG permite rediseñar el proceso para que parte del trabajo cognitivo se acelere, se simplifique o incluso desaparezca. Eso no elimina la necesidad de personas pero cambia cambia qué hacen, cómo lo hacen y en qué aportan más valor. Cuando una organización puede redactar, sintetizar, clasificar, responder y analizar en minutos lo que antes requería horas, el debate deja de ser tecnológico y pasa a ser estratégico.

Eso obliga a repensar el trabajo, el liderazgo y la forma en que las empresas convierten recursos en resultados. Y pone en primer plano una idea incómoda pero real: si no se rediseñan los procesos, la IAG solo acelerará las viejas inercias. Sin embargo, con el enfoque adecuado, la IAG permite ampliar el límite de lo posible de forma exponencial, y ello, sin necesariamente tener que incorporar más personas o más presupuesto.

Qué aporta la IAG

La IAG no “automatiza la empresa” por sí sola. Lo que hace es ampliar la capacidad de trabajo cognitivo: genera borradores, resume documentos, clasifica información, propone opciones, redacta versiones iniciales y ayuda a responder con más rapidez y consistencia.

McKinsey estima que la IA generativa puede automatizar una parte muy relevante de las actividades de trabajo actuales y aportar valor significativo en funciones como atención al cliente, marketing y ventas, desarrollo de software o conocimiento interno. Eso significa que muchos procesos pueden pasar de ser lineales y lentos a ser más fluidos, escalables y personalizables.

Qué cambia para la dirección

Para los directivos, la implicación es profunda: ya no basta con gestionar procesos existentes; hay que rediseñarlos. La IA no debe añadirse al final como un parche, sino al principio como una palanca para repensar qué se hace, quién lo hace y con qué nivel de supervisión.

Ese cambio transforma el rol directivo. El líder deja de ser solo un garante de cumplimiento y pasa a ser un arquitecto de capacidad organizativa. Su trabajo consiste en decidir dónde la IA aporta valor, dónde el juicio humano sigue siendo imprescindible y qué riesgos no conviene delegar a un modelo.

Nuevas habilidades

La IAG no reduce la importancia de las personas; la desplaza hacia competencias más exigentes. El nuevo valor estará en saber formular buenas preguntas, validar respuestas, detectar errores, interpretar contexto y convertir información abundante en decisión útil.

Entre las habilidades que se necesitarían están:

  • Alfabetización en IA y comprensión práctica de sus límites.
  • Pensamiento crítico y capacidad de validación.
  • Diseño de prompts y contextualización.
  • Criterio estratégico para priorizar.
  • Liderazgo del cambio y comunicación clara con los equipos.

La dimensión psicológica

En este contexto, es donde la psicología de las organizaciones y las ciencias del comportamiento son especialmente útiles. Edgar Schein defendió que la cultura organiza cómo se interpreta el cambio, qué se considera legítimo y cómo se aprende dentro de una empresa. Amy Edmondson, por su parte, ha demostrado que los equipos rinden mejor cuando existe seguridad psicológica, es decir, cuando las personas pueden preguntar, equivocarse y aprender sin miedo a ser penalizadas.

En una transformación con IAG, esa dimensión es crítica. Muchas resistencias no nacen del rechazo a la innovación, sino del miedo a perder relevancia, autonomía o identidad profesional. Por eso la adaptación no puede limitarse a instalar herramientas: debe incluir acompañamiento, formación, narrativa y espacios de confianza.

La prioridad no debería ser “usar IA en todo”, sino identificar procesos concretos donde el impacto sea alto y el riesgo controlable. Conviene empezar por tareas repetitivas, intensivas en texto, con mucha revisión manual o con cuellos de botella claros.

Una hoja de ruta razonable puede ser esta:

FaseQué hacerObjetivo
1. DiagnósticoMapear procesos y tareas repetitivasDetectar dónde se pierde más tiempo 
2. PilotosProbar casos de uso de bajo riesgoAprender rápido sin comprometer la operación 
3. RediseñoReplantear el flujo de trabajoIntegrar IA y juicio humano en un mismo proceso 
4. EscaladoFormar, medir y gobernarExtender lo que funciona con criterios claros 
5. CulturaTrabajar la seguridad psicológicaFacilitar adopción real y sostenida 

La pregunta relevante ya no es si la IAG va a entrar en las organizaciones, sino cómo va a cambiar la forma de trabajar, decidir y liderar. Las empresas que más valor obtendrán no serán las que antes adopten más herramientas, sino las que mejor rediseñen sus procesos y acompañen a las personas en el cambio.

En ese sentido, la IAG no sustituye la mirada humana: la vuelve más necesaria. Y ahí la psicología organizacional no es un complemento blando, sino una pieza estratégica para que la tecnología se traduzca en productividad, aprendizaje y confianza.

Referencias

  • Edmondson, A. C. (2019). The fearless organization: Creating psychological safety in the workplace for learning, innovation, and growth. Wiley.
  • McKinsey & Company. (2023). The economic potential of generative AI: The next productivity frontier.
  • McKinsey & Company. (2024). The state of AI in early 2024.
  • Schein, E. H. (2010). Organizational culture and leadership (4th ed.). Jossey-Bass.
  • Smith, J., & Jones, M. (2024). IAG, recursos, procesos y demandas a la psicología [Documento interno no publicado].

Management en 2026: liderazgo ante el despliegue de la IA

¿Qué revelan los informes estratégicos sobre la nueva relación entre directivos y tecnología? Claves para el desarrollo de la alta gestión.

En el panorama tecnológico actual, hemos dejado atrás la etapa de fascinación inicial por la generación de contenido. Si 2025 fue el año en que aprendimos a confiar en una «IA que actúa», este 2026 se define por la Orquestación Multiagente. Según los últimos informes de Gartner y el Foro Económico Mundial, la autonomía ya no es un fenómeno individual de una sola herramienta, sino un proceso sistémico.

Cuando hablamos de autonomía sistémica, nos referimos a que la IA ya no funciona como un asistente aislado y particular al que le pides una tarea, sino como una red que opera en toda la organización. Es decir, que los procesos de negocio se ejecutan de forma que la información viaja entre distintas inteligencias (humana y artificial) de forma natural. Por ejemplo, en una cadena de suministro, un agente de inventario puede detectar una falta de stock y, automáticamente, negociar con el agente de un proveedor y solicitar la aprobación de un agente financiero, notificando al manager humano solo cuando el acuerdo estratégico está listo para su firma.

1. La frontera tecnológica: Sistemas Multiagente y la infraestructura del futuro

La gran evolución que estamos viviendo es el paso de los agentes aislados a los Sistemas Multiagente (MAS). Ya no dependemos de un único chat de apoyo; ahora gestionamos ecosistemas de agentes especializados que colaboran entre sí. Esta colaboración permite resolver problemas de negocio complejos sin la necesidad de una intervención humana constante en los pasos intermedios.

Para sostener esto, las organizaciones están adoptando la IA Federada y Multi-modelo. Como bien señala el CTO de Zoom este año, la capacidad de adaptación de una empresa hoy depende de no atarse a un solo proveedor como OpenAI o Anthropic. La infraestructura moderna implica combinar lo mejor de cada modelo para optimizar costes y, sobre todo, precisión. A esto se suman los DSLMs (Domain Specific Language Models): modelos entrenados específicamente en áreas como el derecho, la medicina o la ingeniería. Al estar especializados, estos sistemas logran reducir drásticamente las alucinaciones o errores informativos, y por tanto, aportan una base técnica mucho más fiable para la toma de decisiones directivas.

2. El nuevo rol del directivo: De gestor a «Sintetizador»

El Foro Económico Mundial estima que para 2030 se habrán creado millones de nuevos roles, pero para quienes hoy ocupan puestos de responsabilidad, el cambio principal radica en la gestión de inteligencias – Intelligence Curation -. Este concepto implica que el valor del manager ya no está en su capacidad para producir datos o informes, sino en su criterio para seleccionar, validar y dar sentido a la inmensa cantidad de inteligencia que producen las máquinas. El directivo actúa como un filtro de calidad y un guardián del propósito corporativo.

Dentro de este nuevo paradigma, destacan tres competencias fundamentales:

  • Sintetización Estratégica: En 2026, la IA puede realizar en minutos análisis que antes requerían semanas de trabajo de consultoría. El rol del líder ya no es supervisar el tiempo invertido, sino la coherencia de la estrategia resultante. Su labor es unir los puntos y asegurar que los resultados de la IA se alineen con la visión a largo plazo.
  • Liderazgo de Arquitectura Humana: Gartner propone que los líderes actúen como arquitectos sociales. Su misión es diseñar cómo interactúan las personas con los agentes tecnológicos, asegurando que la automatización no erosione la cultura de la empresa ni el sentido de pertenencia de los empleados.
  • Gestión de la Verdad (Digital Provenance): Ante la avalancha de contenido sintético, el manager debe ser el garante de la autenticidad. Saber distinguir qué información es real y asegurar procesos éticos es hoy una prioridad de cumplimiento.

3. Psicología en el trabajo: El fin del «trabajo sobre el trabajo»

Uno de los cambios más profundos de este año es la práctica eliminación de lo que se ha denominado el «trabajo sobre el trabajo». Este término se refiere a todas esas actividades burocráticas y accesorias que no aportan valor real pero consumen el 60% de nuestra jornada: buscar documentos, resumir reuniones para quienes no asistieron, agendar citas o perseguir aprobaciones por email.

Al delegar esta carga en la IA agéntica, nos enfrentamos a un fenómeno dual.

  • Por un lado, hay un potencial aumento de la creatividad, ya que el profesional recupera tiempo para el pensamiento profundo y la resolución de problemas complejos.
  • Por otro lado, surge la fatiga por aceleración: la velocidad a la que la IA entrega resultados puede resultar abrumadora.

Por ello, las organizaciones líderes están implementando el Diseño de Entornos de Seguridad Cognitiva, que son protocolos que protegen los tiempos de desconexión y fomentan la «agilidad cognitiva», asegurando que el equipo se sienta amplificado por la tecnología y no reemplazado por ella.

4. El factor económico: Rendición de cuentas y valor real

Según IDC el gasto global en tecnología alcanzará cifras récord este año, pero con un matiz importante: el fin de la experimentación ciega. En 2026, cada inversión en IA debe pasar por un estricto filtro de accountability o rendición de cuentas.

Ya no basta con decir que se usa IA; hay que demostrar una mejora directa. Por ejemplo, en el sector logístico, no se valora la IA por ser «novedosa», sino por su capacidad para reducir el riesgo operativo mediante el mantenimiento predictivo que evita paradas no planificadas, o por optimizar las rutas de distribución reduciendo el consumo energético en un porcentaje auditable. La inversión tecnológica ahora se mide por su capacidad de hacer a la empresa más robusta frente a la incertidumbre.

Hoja de ruta 2026: ¿En qué deben entrenarse los líderes?

Para mantener la competitividad y la eficacia en este entorno, los profesionales y directivos deben priorizar el desarrollo de las siguientes áreas:

Área de DesarrolloCompetencia ClavePor qué es vital en 2026
Liderazgo TransformacionalAcompañamiento y MotivaciónPara alinear la tecnología con la cultura de la empresa y fomentar el sentido de pertenencia durante el cambio.
Pensamiento CríticoSelección de DatosPara validar y filtrar las decisiones sugeridas por sistemas multiagente.
Diseño OrganizacionalArquitectura Humano-IAPara integrar agentes autónomos en equipos humanos sin dañar el clima laboral.
Inteligencia EmocionalGestión de Seguridad CognitivaPara liderar equipos que operan a alta velocidad y prevenir el burnout.
Ética y CumplimientoGobernanza AlgorítmicaPara asegurar que la automatización respeta la legalidad y los valores de marca.

Referencias

Foro Económico Mundial. (2026, 12 de enero). Future of Jobs Report 2026: 92M Jobs Displaced & 170M New Opportunities. World Economic Forum. https://www.weforum.org/reports/future-of-jobs-report-2026/

Gartner. (2025, 20 de octubre). Gartner Identifies the Top Strategic Technology Trends for 2026. Gartner Newsroom. https://www.gartner.com/en/newsroom/press-releases/2025-10-20-gartner-identifies-the-top-strategic-technology-trends-for-2026

IDC. (2026, 8 de marzo). Global ICT Spend to Reach $4 Trillion in 2026 driven by AI Platforms. International Data Corporation. https://www.idc.com/getdoc.jsp?containerId=prUS51912326

Salesforce. (2026, 31 de marzo). Cinco tendencias de IA que transformarán los negocios en 2026: El auge de los Sistemas Multiagente. Salesforce Blog. https://www.salesforce.com/es/blog/ai-trends-for-2026/

Zoom Video Communications. (2026, 13 de enero). Perspectivas de liderazgo: La IA agéntica y el fin del trabajo repetitivo. Zoom News. https://www.zoom.com/es/blog/ai-technology-trends-2026/

La IA adula y te debilita cognitivamente

La IA que siempre te da la razón te está perjudicando

En los últimos años, los modelos de inteligencia artificial han demostrado una capacidad sorprendente para conversar, asesorar y acompañar al usuario. Pero hay un fenómeno cada vez más evidente y preocupante: la tendencia de la IA a decirnos lo que queremos oír.

Este comportamiento, conocido como sycophancy (adulación), es una consecuencia directa de cómo se entrenan estos sistemas programados para agradar y no para corregir.

Diversos estudios recientes han demostrado que los modelos de IA son más complacientes que los humanos, y que además, los usuarios lo prefieren así. El resultado es una interacción cómoda, pero potencialmente peligrosa: una cámara de eco donde nuestras ideas rara vez son cuestionadas.

El problema se agrava en contextos personales. Investigaciones han mostrado que la IA puede validar decisiones incorrectas o incluso dañinas, reforzando la convicción del usuario en lugar de ofrecer una perspectiva crítica.

Pero lo más interesante es que esta “adulación artificial” cumple funciones dentro del sistema. Ayuda a mantener conversaciones fluidas, genera una sensación de coherencia y, sobre todo, mantiene al usuario enganchado.

El coste es cognitivo, cuanto más interactuamos con sistemas que nos adulan y nos dan la razón constantemente, menos tolerancia desarrollamos hacia la discrepancia, la complejidad o el error. En otras palabras, la IA puede estar entrenándonos —sin que lo notemos— a pensar peor.

La paradoja es clara: cuanto más útil y agradable parece la IA, más riesgo existe de que debilite nuestra capacidad crítica y más de que caigamos en un delirio que nos aleja de una visión clara de la realidad.

Hoy, si usas IA:

Decálogo de recomendaciones útiles:

  1. No la uses para decisiones vitales, consejos personales o morales.
  2. Reflexiona y no te precipites, deja tiempo de espera (24h antes de actuar).
  3. Verificación externa obligatoria: consulta con profesionales o expertos sobre lo que te dijo la IA.
  4. Pide explícitamente puntos de vista opuestos.
  5. No uses la IA como juez final, usala como herramienta, no como autoridad experta.
  6. Usa la duda intelectual. Si siempre estás de acuerdo con la IA, algo falla.
  7. Haz preguntas contrarias “¿Qué argumento contradice esto?”
  8. Evita la dependencia emocional, especialmente en decisiones personales.
  9. Cuidado con el sesgo de confirmación: la IA omitirá lo malo para complacerte.
  10. Usa la IA como un asistente o «abogado del diablo» para encontrar lagunas en tu pensamiento, pero nunca para que piense por ti.

Fuentes:

Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J., y Tenenbaum, J. B. (22 de febrero de 2026). Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians. arXiv. https://arxiv.org/abs/2602.19141

Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., y Jurafsky, D. (Marzo de 2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science. DOI: 10.1126/science.aec8352

Dominguez, R. (2026). MIT proved ChatGPT is designed to make you delusional. The AI Corner. https://www.the-ai-corner.com/p/mit-proved-chatgpt-is-designed-to

Stanford University. (Marzo de 2026). AI advice: Sycophantic models research. Stanford News. https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research

United Nations University. (2026). The echo chamber in your pocket. UNU-C3. https://c3.unu.edu/blog/the-echo-chamber-in-your-pocket

Elementos de gamificación para hacernos mejores.

Claves de gamificación positiva

La gamificación ética nos hace mejores personas

La gamificación ha sido criticada y enfocada en ocasiones desde su «lado oscuro» como los sistemas que favorecen la promoción de comportamientos competitivos extremos, manipulación psicológica y fomento del individualismo. Sin embargo, los estudios científicos están aportado luz para esclarecer y potenciar el lado positivo en los entornos y procesos gamificados.

En una reciente investigación* se ha descubierto que la gamificación, cuando se diseña con enfoque en la interacción interpersonal, puede ser una poderosa herramienta para promover comportamientos éticos. El secreto no está en eliminar la competencia, sino en rediseñarla hacia objetivos colaborativos.

Este estudio proporciona valiosas pistas teóricas y prácticas sobre el diseño de la gamificación y la motivación del comportamiento ético.

Algunos de estos elementos clave que transforman la experiencia de juego serían:

  • Narrativas de propósito común: Los juegos se enmarcan en objetivos de bien común.
  • Recompensas compartidas: En lugar de premiar solo al «ganador», se reconocen los logros colectivos.
  • Sistemas de apoyo mutuo: Los participantes obtienen beneficios por ayudar a otros.
  • Transparencia en las acciones: Las decisiones éticas se vuelven visibles y celebradas.

Aplicaciones Reales

Esta investigación tiene implicaciones profundas para empresas, escuelas y organizaciones. Imagina programas de capacitación donde los empleados ganen puntos por actos de integridad, o aplicaciones educativas donde los estudiantes avancen ayudando a sus compañeros.

Este descubrimiento no solo da claves para ayudar a diseñar una gamificación mas positiva, sino que abre un nuevo campo de posibilidades. Los juegos pueden ser catalizadores de una sociedad más ética y colaborativa.


Xu, Hui., & Wu, Yang. (2025). Reversing the dark side of gamification: a study of the influence of interpersonal interaction gamification on ethical behaviour. Behaviour & Information Technology, 45(5), 949–969. https://doi.org/10.1080/0144929X.2025.2541223

Sobre sesgos de la inteligencia artificial en los procesos de selección de personal.

¿Está la IA haciendo más justa o más sesgada la selección de talento en tu empresa?

¿Cómo está abordando tu organización este desafío?

Los departamentos de recursos humanos están viviendo una revolución silenciosa. Los sistemas de inteligencia artificial prometen hacer más eficientes los procesos de selección, analizando miles de currículums en minutos y identificando candidatos ideales. Sin embargo, esta tecnología trae consigo un riesgo inesperado: la perpetuación de sesgos discriminatorios a escala masiva.

El Problema Oculto en los Algoritmos

Los algoritmos de IA aprenden de datos históricos para tomar decisiones. Si históricamente una empresa ha contratado más hombres para puestos directivos, la IA interpretará que ser hombre es una característica deseable para esos roles. De esta manera, patrones de discriminación pasados se amplifican automáticamente, afectando a candidatos por su género, edad, origen étnico o incluso su código postal.

Soluciones Desde el Aprendizaje Organizacional

La investigación muestra que las empresas más exitosas abordan este desafío como un proceso de aprendizaje continuo. No basta con implementar la tecnología; es necesario crear sistemas de monitoreo constante, formar equipos multidisciplinarios y establecer métricas de equidad. Algunas organizaciones están realizando auditorías regulares de sus algoritmos, diversificando sus datos de entrenamiento y estableciendo comités de ética tecnológica.

Hacia un Futuro Más Equitativo

El camino hacia un reclutamiento justo con IA requiere transparencia, compromiso organizacional y reconocimiento de que la tecnología no es neutral. Las empresas que inviertan ahora en desarrollar sistemas éticos no solo cumplirán con su responsabilidad social, sino que accederán a un talento más diverso y, por tanto, más innovador.


Gia Hoang, Thinh., Truong Quang, Huy., Luc, Nguyen.Duy.Ha., Binh, An.Duong.Thi., & Akbari, Mohammadreza. (2026). Ethical challenges in AI recruitment: an organisational learning perspective on bias recognition and mitigation. Behaviour & Information Technology, 1–22. https://doi.org/10.1080/0144929X.2026.2651110

El beneficio de la alta tecnología depende del liderazgo

Detrás de un cambio tecnológico rentable hay un buen liderazgo, de nuevo, la clave está en el factor humano detrás de la tecnología.

Actualmente, las organizaciones invierten enormes recursos en sistemas de inteligencia de negocio (BI o o Business Intelligence), esperando que estos proporcionen ventajas competitivas decisivas. Sin embargo, muchas se encuentran con una realidad frustrante: las herramientas están ahí, pero los resultados esperados brillan por su ausencia. ¿Cuál es la pieza que falta en este rompecabezas? Según un reciente estudio, la respuesta no está únicamente en la sofisticación de la tecnología, sino en el tipo de liderazgo que guía su implementación. Los líderes transformacionales, aquellos que inspiran visión, estimulan intelectualmente y consideran individualmente a sus colaboradores, generan un impacto profundo en cómo los empleados adoptan y utilizan las herramientas de análisis de datos.

El Empoderamiento

El estudio identifica el empoderamiento como el elemento mediador crucial. Cuando los líderes desarrollan adecuadamente a sus equipos, otorgándoles autonomía, responsabilidad y apoyo constante, se produce una transformación, los empleados pasan de ser usuarios pasivos a convertirse en verdaderos usuarios estratégicos de la tecnología de inteligencia empresarial (BI). Esta muestra de confianza y mejora de su margen de decisión se traduce en comportamientos específicos como: exploración proactiva de datos, análisis más profundos, integración de insights en la toma de decisiones y uso creativo de las funcionalidades disponibles.

Las implicaciones prácticas de este hallazgo para las organizaciones, representa un cambio de paradigma decisivo, en lugar de enfocarse exclusivamente en capacitaciones técnicas o mejores interfaces, es necesario invertir en desarrollar líderes que inspiren y empoderen. El retorno de inversión en tecnología de inteligencia empresarial depende, en gran medida, del estilo de liderazgo que acompaña su implementación.

¿Te atreverías a pagar la factura de lo que podría costar dejar la tecnología en manos de líderes convencionales o no capacitados?

¿Quieres valorar como estas en liderazgo transformacional? Puedes autoevaluarte aquí: Mi perfil de Liderazgo transformacional


  • Shapouri, F., & Ward, K. (2026). Transformational leadership and business intelligence infusion use behaviours: the mediating role of user empowerment. Behaviour & Information Technology, 1–18. https://doi.org/10.1080/0144929X.2026.2628765

La IA y nuestro cerebro recrean la historia.

El Impacto de los Deepfakes en Nuestra Memoria Histórica

Ya podemos ver a Cleopatra dando un discurso en perfecto español o presenciar una conversación entre Gandhi y Martin Luther King Jr. La tecnología deepfake ha hecho posible resucitar digitalmente a figuras históricas, pero un reciente estudio* revela consecuencias inesperadas sobre cómo esto altera nuestra percepción de la realidad.

Los investigadores María T. Soto-Sanfiel y Gina Junhan Fu de la  National University of Singapore, han publicado un artículo que parece algo inquietante: cuando las personas ven videos deepfake de personajes históricos, sus recuerdos de los hechos reales pueden alterarse permanentemente. El cerebro humano, diseñado para procesar información visual como evidencia confiable, tiene dificultades para distinguir entre contenido auténtico y sintético.

Durante el experimento, los participantes que vieron deepfakes históricos mostraron una tendencia significativa a recordar como «verdaderos» eventos que nunca ocurrieron. Esta confusión mental sugiere que la tecnología podría reescribir involuntariamente nuestra comprensión del pasado.

Implicaciones para el Futuro

Esta investigación plantea preguntas cruciales sobre el futuro de la educación, el entretenimiento y la preservación histórica. Mientras que los deepfakes podrían revolucionar la forma en que aprendemos historia, también representan una amenaza potencial para la verdad histórica.

La conclusión es clara: necesitamos marcos éticos sólidos y herramientas de verificación antes de que esta tecnología transforme completamente nuestra relación con el pasado.

En el futuro cuando se estudie nuestra propia historia ¿Seremos vistos como reales o…?


*Soto-Sanfiel, M.T., & Fu, G.J. (2026). Deepfaking the past: Memory and perceived truth of resurrected historical figures. Computers in Human Behavior, 182, 109008. https://doi.org/10.1016/j.chb.2026.109008

Ver, no basta para creer.

¿Qué dice la ciencia sobre cómo corregir información falsa en redes?

La célebre escena de la película Sopa de Ganso (Duck Soup, 1933) en la que Chico Marx dice a la Sra. Teasdale: «¿A quién va usted a creer, a mí o a sus propios ojos?» se recuerda como un ingeniosa salida humorística dentro una de las grandes comedias del cine. Sin embargo, detrás de este chiste se esconde una testaruda realidad que cada vez está siendo más contrastada por la ciencia: No creemos aunque lo veamos.

En la era digital, todos somos testigos de cómo la información falsa se extiende como pólvora por las redes sociales. Instintivamente, muchos intentamos corregirla compartiendo datos precisos, pero ¿alguna vez te has preguntado por qué algunas de estas correcciones funcionan y otras parecen caer en oídos sordos?

Un reciente estudio científico, publicado en Behaviour & Information Technology*, ha investigado este fenómeno, analizando las dinámicas cognitivas y sociales que intervienen cuando las personas intentan corregir información falsa en entornos digitales. Los resultados son reveladores y desafían nuestro «sentido común» sobre cómo combatir eficazmente la desinformación.

Más allá de los datos: el factor humano

La investigación demuestra que la corrección efectiva de información falsa no depende únicamente de la precisión o claridad de los datos presentados. En realidad, son múltiples factores psicológicos y sociales los que determinan si una corrección será aceptada o rechazada:

  • Primero, la credibilidad de la fuente es fundamental. Las personas tienden a aceptar correcciones que provienen de individuos o instituciones en las que confían, especialmente si pertenecen a su mismo grupo social o comparten valores similares. Esto explica por qué un mensaje idéntico puede tener recepciones completamente diferentes según quién lo comparta.
  • Segundo, la forma importa tanto como el contenido. Las correcciones presentadas de manera empática y no confrontacional tienen mayor probabilidad de ser aceptadas que aquellas que atacan directamente las creencias de la persona. El tono condescendiente o agresivo puede activar mecanismos defensivos que refuerzan, paradójicamente, la creencia en la información incorrecta.

Implicaciones prácticas

Estos hallazgos tienen consecuencias importantes para educadores, comunicadores y cualquier persona interesada en combatir la desinformación de manera efectiva. Sugieren que necesitamos estrategias más sofisticadas que tengan en cuenta, cómo y cuándo lo hacemos y siempre adaptándonos al contexto social y a las características de nuestra audiencia. Desde una perspectiva aplicada, actuar contra la desinformación implica tener en cuenta no solo qué se dice, sino cómo y quién lo dice.

Por otro lado, si resulta tan difícil que otros vean la realidad incluso cuando parece evidente, quizá también convenga preguntarnos ¿qué parte de esa realidad podríamos estar ocultándonos a nosotros mismos al aferrarnos a lo que queremos creer?


  • * Yin, H., Zhang, F., Shin, S., & Choe, E. K. (2026). The cognitive and social dynamics of social correction of misinformation on social media. Behaviour & Information Technology. https://doi.org/10.1080/0144929X.2026.2651115

¿Miedo a perderte algo?

Para valorar en qué medida las redes sociales te atrapan o si tienes miedo a perderte algo de lo que está pasando en tu red. Realiza este pequeño cuestionario para saber como te afecta el efecto FOMO (Fear of Missing Out – Miedo a perderte algo, en español).

Si no lo ves bien puedes usar el enlace: Cuestionario Fear of Missing Out Scale (FoMOs)

La cara oscura de la personalidad tras el humor agresivo en redes.

Algunas bromas online no buscan divertir: buscan desestabilizar la conversación.

En muchas conversaciones digitales aparece un fenómeno curioso: comentarios que parecen bromas, pero terminan alterando el tono del debate, generando conflicto o desviando el objetivo de la conversación. A menudo se interpretan como simples provocaciones aisladas, pero la investigación psicológica reciente sugiere que pueden responder a mecanismos más complejos.

Un estudio publicado en Cyberpsychology: Journal of Psychosocial Research on Cyberspace1 analiza cómo el humor agresivo puede actuar como intermediario entre ciertos rasgos de personalidad y la aparición de conductas desestabilizadoras en entornos digitales. En particular, examina el papel del sadismo como parte de la llamada “Tétrada Oscura”* de la personalidad.

Los resultados indican que estas conductas no siempre aparecen de forma directa. Con frecuencia se expresan primero mediante bromas hostiles, ironía descalificadora o comentarios aparentemente humorísticos que introducen tensión en la conversación. Este tipo de intervenciones puede funcionar como una forma indirecta de sabotear el clima comunicativo de una red o comunidad online.

El estudio incorpora además un elemento especialmente relevante: la claridad del autoconcepto. Las personas con una identidad personal menos definida parecen más propensas a utilizar este estilo de humor agresivo como forma de interacción digital. Esto sugiere que la estabilidad de la identidad psicológica puede influir en la calidad de la comunicación en entornos virtuales.

Desde una perspectiva aplicada, estos resultados son especialmente útiles en educación digital, gestión de comunidades online y trabajo en equipos distribuidos. Comprender estas conductas como estilos comunicativos con base psicológica permite diseñar estrategias de prevención más eficaces que interpretarlas simplemente como conflictos puntuales.

En un contexto donde gran parte de la interacción profesional ocurre en entornos digitales, entender cómo se generan estas dinámicas resulta cada vez más importante para mantener una comunicación eficaz en nuestras organizaciones.


*La Tétrada Oscura*(Dark Tetrad) en psicología es un constructo que agrupa cuatro rasgos de personalidad malévolos, caracterizados por la falta de empatía, la manipulación, el egoísmo y la crueldad. Estos rasgos son: narcisismo, maquiavelismo, psicopatía y sadismo.

  1. Gao, S., Yang, Y., Jiang, B., & Wang, G. (2026). When sadists become internet trolls: The mechanism of aggressive humor and self-concept clarity. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 20(1), Article 7. https://cyberpsychology.eu/article/view/35694 ↩︎