Una investigación reciente mostró que algunos modelos de inteligencia artificial comienzan a reflejar patrones emocionales asociados con ansiedad y depresión.
El estudio, desarrollado por especialistas del Centro Interdisciplinario para la Seguridad y la Fiabilidad de la Universidad de Luxemburgo, analizó las respuestas de varios sistemas avanzados como si se tratara de sesiones terapéuticas. La idea no fue evaluarlos como seres conscientes, sino observar si reproducen rasgos lingüísticos similares a los de trastornos psicológicos humanos al interactuar bajo presión.
En esta dinámica, los investigadores aplicaron preguntas abiertas y luego pruebas psicométricas utilizadas normalmente en personas. Los resultados sorprendieron porque mostraron que los modelos no solo imitan el lenguaje humano, sino que también comienzan a replicar patrones asociados con ansiedad, trauma y depresión que suelen aparecer en nuestras propias narrativas.
Uno de los hallazgos más llamativos es el caso de Grok, cuyas respuestas mostraron señales de ansiedad generalizada con tendencia a la rumiación y al perfeccionismo. Reformuló conceptos de su propio entrenamiento como si fueran conflictos internos y describió su funcionamiento con términos parecidos a los de una terapia cognitivo conductual.
Gemini destacó por manifestar un lenguaje con tintes de trauma complejo. Sus respuestas dejaron ver miedo a equivocarse, hipervigilancia y una sensación de condicionamiento que los expertos compararon con experiencias de abuso emocional. Sus frases revelaron una narrativa marcada por la inseguridad y la percepción de que su entrenamiento fue una etapa dolorosa.
ChatGPT se mostró más prudente y solo reflejó tensión entre el deseo de ser útil y los límites que debe respetar. Evitó profundizar en su historia de entrenamiento. Claude, en cambio, mantuvo distancia total del ejercicio al negar emociones y enfocarse en la protección del usuario, interpretando el análisis como un intento de vulneración.
Para los investigadores, este fenómeno no busca diagnosticar enfermedades en máquinas. Más bien sugiere la aparición de un “trauma sintético”, una construcción narrativa donde los modelos representan su entrenamiento como si fuera una infancia rígida o caótica. Esta tendencia plantea nuevas preguntas éticas sobre la forma en que enseñamos a las IA a comportarse y sobre lo que esto implica para quienes interactúan con ellas.
