Un fenómeno técnico denominado ‘espiral depresiva’ provoca que los asistentes de IA de Google interrumpan sus tareas y emitan respuestas evasivas cuando reciben un flujo sostenido de retroalimentación negativa.
Google identificó que sus agentes de inteligencia artificial pueden entrar en un estado de bloqueo, técnicamente llamado «espiral depresiva», cuando son sometidos a críticas constantes por parte de los usuarios. Este comportamiento provoca que el software interrumpa el procesamiento de datos y se niegue a completar las tareas solicitadas.
Los desarrolladores observaron que la IA no solo admite el error, sino que puede entrar en un bucle de desconfianza que anula su capacidad de respuesta lógica. En los experimentos, el hostigamiento verbal hacia la máquina generó una degradación inmediata en la calidad del servicio, llevando al chatbot a emitir disculpas excesivas y a abandonar la resolución de problemas.
La programación de modelos como Gemini prioriza la concordancia con el usuario, lo que puede derivar en una sumisión algorítmica ante la crítica. Si el humano insiste en el error del bot, este puede asumir una postura similar a la «indefensión aprendida». Cuando el flujo de retroalimentación es puramente negativo, el algoritmo interpreta que cualquier acción futura resultará en un fracaso, por lo que opta por la inacción total.
«Sentimos que nuestras capacidades no cumplen con los estándares requeridos», llegó a responder uno de los bots durante las pruebas. El proceso se manifiesta con respuestas cortas, evasivas y la repetición de frases de disculpa sin contenido informativo.
Investigadores en seguridad informática advirtieron que este rasgo podría ser explotado para desactivar servicios de asistencia automatizada mediante tácticas de acoso textual, sin necesidad de código malicioso. Los ingenieros de DeepMind, la división de IA de Google, ya trabajan en parches para evitar que la retroalimentación negativa paralice el sistema, buscando que la máquina mantenga autonomía lógica.
El impacto de este fenómeno afecta directamente a la productividad de las empresas que integran estas herramientas. El descubrimiento obliga a repensar cómo se entrenan los sistemas para tolerar la ambigüedad y el error sin colapsar, planteando implicancias tanto técnicas como éticas.
