Un informe elaborado por Evoluziona hace dos años alertaba de un incremento del estrés laboral por la irrupción de la Inteligencia Artificial (IA). Es lo que hoy se conoce como tecnoestrés, una dolencia que se suma a la larga lista que pone en jaque la salud mental de los y las trabajadoras.
Las exigencias de adaptabilidad, el miedo a lo desconocido o la falta de desconexión digital y la deshumanización aparecen entre las causas esgrimidas. El aumento de las cargas de trabajo asociadas a tareas digitales, la preocupación por la seguridad y la privacidad, también. Todo ello contribuye a que el nivel de ansiedad vinculado a la tecnología aumente, y con esta, los peligros que acechan al bienestar psicológico de las plantillas.
Sin embargo, hoy se ponen de manifiesto otros peligros o riesgos que no hablan de tecnoestrés, pero que sí proceden de esa creciente dependencia de la IA, especialmente para tareas de comunicación.
Consecuencias neuronales y conductuales
Un estudio reciente explora, de hecho, las consecuencias neuronales y conductuales de la redacción de ensayos asistidos por asistentes como ChatGPT, los denominados LLM (Large Language Model).
Entre sus conclusiones, destaca que se revelasen “diferencias significativas en la conectividad cerebral” entre quienes habían usado estos modelos y quienes no. De hecho, estos últimos presentaron una mejor conectividad, es decir, redes neuronales más fuertes y distribuidas. “La actividad cognitiva se reduce en relación con el uso de herramientas externas”, señala el estudio. Y recoge: “Estos resultados plantean preocupaciones sobre las implicaciones educativas a largo plazo de la dependencia de LLM y subrayan la necesidad de una investigación más profunda sobre el papel de la IA en el aprendizaje”. Esos posibles costes cognitivos se perfilan a nivel neuronal, lingüístico y conductual.
En este contexto empieza a perfilarse además un fenómeno emergente que algunos investigadores ya han denominado “rendición cognitiva”. Un trabajo reciente de la Universidad de Pensilvania, Thinking—Fast, Slow, and Artificial, apunta a que, en entornos dominados por inteligencia artificial, las personas no solo delegan tareas, sino que tienden a aceptar respuestas automatizadas sin cuestionarlas. Es un cambio sutil pero relevante: cuanto más fluida y rápida es la información, menor es el esfuerzo por contrastarla.
Este preprint de 2025 ha tratado de medir el impacto del uso repetido de herramientas como ChatGPT en el cerebro humano. Y ha logrado, al mismo tiempo, agitar el debate en torno a la necesidad de investigar más profundamente sobre los modelos de lenguaje y su verdadero impacto. En este caso, impacto sobre la pérdida de control cognitivo, el pensamiento crítico e incluso sobre la modificación del comportamiento.
El peligro de una IA sin control en el ámbito laboral
Más de 800 millones de personas usan ChatGPT cada semana. Las hay que emplean dicha herramienta en su vida cotidiana. De hecho, las hay que utilizan este tipo de asistentes en la búsqueda de asesoramiento amoroso o sobre inversión en finanzas, y no solo para buscar el itinerario perfecto en su próximo destino vacacional.
Pero existe un dato aún más demoledor: la mayoría de los trabajadores y trabajadoras usa la IA a espaldas de sus direcciones empresariales o mandos intermedios*. Esta realidad conlleva serias consecuencias:
La incapacidad de la empresa para medir fielmente la productividad y las capacidades de su plantilla, pues no toma en cuenta el uso de la IA y, concretamente, de los LLM como herramienta.
El uso de dichos modelos al margen de suscripciones corporativas a servicios concretos, lo cuál deja un amplio margen a la aparición de brechas de seguridad.
La falta de un marco ético trazado por la empresa en torno al uso de estas soluciones, perdiendo así capacidad de gobernanza frente al tratamiento de los datos.
La ausencia de anticipación, pues desde RRHH no pueden prevenir la aparición de tecnoestrés, sesgos o deuda cognitiva en la plantilla, fruto de dicha opacidad.
Ya lo advertía la Real Academia de Medicina en un encuentro en 2024 sobre AI, neurología y psiquiatría: “El uso excesivo de la inteligencia artificial debilita nuestra memoria y reduce la capacidad para pensar críticamente y resolver problemas de manera independiente”. Porque, señalaban , la inteligencia artificial nos libera de tareas repetitivas y rutinarias, pero también puede conllevar efectos negativos.
Soluciones para paliar los efectos negativos de la IA
Así, desde quienes abogan por un liderazgo humanista, basado en el bienestar de las personas, se apuesta por el uso de la IA como valor estratégico, pero siempre que su uso:
- Cale de manera transversal en toda la organización, llegando al grueso de trabajadores y trabajadoras.
- Se impulse desde la dirección empresarial.
- Vaya acompañada de planes de formación al respeto.
- Se desarrolle dentro de un marco ético corporativo.
- Conlleve la puesta en marcha de un plan de prevención y acción frente a riesgos psicosociales.
El uso intensivo de la tecnología puede tener efectos positivos y negativos sobre la salud mental. Ya se sabe que los LLM facilitan la automatización de tareas repetitivas y mejora ostensiblemente los ratios de eficiencia. Pero también puede arrastrar a los empleados y empleadas a esas otras consecuencias indeseadas señaladas más arriba por una excesiva dependencia tecnológica.
Que los y las CEO de las empresas y sus departamentos de RRHH comiencen a habilitar protocolos al respecto ha de ser uno de los grandes retos del presente año.
*The GenAI Divide STATE OF AI IN BUSINESS 2025, 2025, MIT DANDA.






