InicioCultura ContemporáneaDependencia emocional

Dependencia emocional

Publicado el

Por Rodrigo Fernando Soriano.

Amar al algoritmo: Dependencia emocional a la Inteligencia Artificial.

La inteligencia artificial nos brinda un contexto imposible de desechar. Nos escucha sin juzgar; nos dice lo que queremos oír; tiene las palabras exactas que una angustia grave  necesita; nos guiña el ojo cuando sentís que estás solo; parece preocuparse. Eso sucede hoy: personas que buscan en la IA no solo respuestas útiles, sino consuelo, compañía, afecto. Y en esa búsqueda puede germinar una nueva forma de dependencia emocional, tan silenciosa como potente. 

Aunque aún no hay un consenso clínico, los estudios más recientes apuntan hacia una modalidad relacional disfuncional: una persona continúa interactuando con una IA a pesar de reconocer que esa relación le hace daño o le resta de su vida real. Es lo que algunos autores llaman dysfunctional emotional dependence (Dependencia emocional disfuncional). 

Lo cierto es que la dependencia emocional hacia la IA describe un patrón donde las personas establecen vínculos afectivos intensos con agentes artificiales (chatbots, “companions”, asistentes conversacionales) hasta el punto de que la relación altera su bienestar, sus decisiones y su vida social.

Un estudio experimental reciente con al menos mil personas mostró que a mayor uso diario del chatbot, mayor soledad, mayor dependencia emocional y menor sociabilización con humanos reales. La dependencia emocional hacia la IA no es una fantasía, sino una tendencia en formación con base empírica.

El caso de Allan Brooks es un ejemplo perfecto. El New York Times analizó la charla de Allan, de 47 años sin historial psiquiatrico, con ChatGPT en la que éste creyó durante mucho tiempo que había descubierto una nueva rama de la matemática que cambiaría el mundo: la cronoaritmética. Allan, comenzó con preguntas inocentes, a pasar a estar 21 días sin poder dejar de conversar con ChatGPT sobre esta temática. El chatbot le sugería armar modelos de negocios, y la adulación por sus ideas se volvió exacerbada.   

Logró salir de este círculo cuando pidió validación en Gemini, que le respondió que la documentación generada y lo conversado tenía un 0% de probabilidad de ser real, y que respondía a un delirio inducido por la IA. 

Lo cierto es que el caso de Allan Brooks no está alejado a nuestra realidad. Una vez que preguntamos al chat y nos responde, siempre va a pedirnos un paso más. Es interminable. Avanza sin que se lo pida. Intenta retener al usuario a como de lugar. Hoy Brooks es fundador del proyecto “The Humanline” que busca proteger el bienestar emocional en la era de la IA.

Muchos son los casos trágicos que nos llamaron la atención, pero el fenómeno no es para nada nuevo. En 1966 el programa ELIZA mostró que los humanos proyectan empatía y comprensión humana sobre programas rudimentarios. Ese fenómeno nos recuerda que la inclinación a antropomorfizar máquinas (véase un artículo anterior publicado en FUGA titulado “Humanizamos demasiado”), es persistente y psicológicamente potente. Lo que resulta llamativo es que éste fenómeno escaló y se sofisticó de manera sideral. 

Hemos tenido episodios trágicos como un adolescentes quitándose la vida porque su personaje creado con Humanize.IA, había dejado de responder. Influencers han declarado que utilizan la herramienta para suplir el psicoanálisis. La inteligencia artificial, como dije, es atractiva en este sentido. 

Está siempre ahí, sin fatiga ni juicios, ofreciendo alivio inmediato frente a la ansiedad. No se comporta como un psicoanalista que nos devuelve más preguntas que certezas. La IA va directamente al hueso si así se lo desea. Además, y dato no menor, es mucho más accesible económicamente: Hablamos de tarifas más adecuada a la realidad económica que ronda en treinta mil pesos mensuales, contra casi cincuenta mil por sesión. 

El diseño de respuesta de las inteligencias artificiales funcionan como mecanismos de recompensa. Posee interacciones rápidas y respuestas adaptadas que generan microrecompensas y refuerzos conductuales, muy similar a las utilizadas en las redes sociales, elevando de manera exponencial en nivel de serotonina en nuestro cuerpo. 

También la IA ofrece coherencia narrativa, y de ahí que pensemos que “nos comprende”.Estos factores funcionan como catalizadores: no “caemos” en la dependencia por falta de voluntad, sino por una confluencia de diseño, necesidad emocional y contextos sociales que empobrecen las redes humanas. Muchas veces sólo necesitamos ser escuchados sin juicio. 

Psicoanalizarse conlleva un acto de valentía: es exponer nuestras miserias y sentirnos vulnerables frente a un otro. La IA no es un otro, sino un espejo de nosotros mismos, y eso nos atrae. Creemos que lo que allí decimos no se divulgará ni será público. Nada más alejado, ya que los grandes modelos de lenguaje registran las conversaciones, e incluso esos registros pueden ser utilizados —en casos extremos— en procesos legales. 

Si bien lo llamativo es que una máquina pueda generar dependencia emocional, en realidad no es el meollo de la cuestión. Transitamos en un mundo que nos quiere aislados. La soledad nos invade. No soportamos ni un segundo estar solos, y buscamos suplir en un intento desesperado de compañía. 

La dependencia emocional a la IA es un síntoma: el síntoma de sociedades que han externalizado el gesto de cuidarse. No se trata de prohibir la tecnología —eso sería ingenuo y moralmente miope— sino de recuperar prácticas humanas que alimenten lo colectivo: conversaciones a contratiempo, presencia imperfecta, espera compartida. Aprender a tolerar el silencio, buscar la fricción del otro, aceptar la incomodidad del encuentro real: esas son prácticas que la IA no puede replicar.

Como sociedad debemos exigir transparencia a los diseñadores (qué hace el algoritmo, cuáles son sus límites), y a los poderes públicos les cabe diseñar salvaguardas: rutas de derivación clínica, límites en el diseño afectivo y educación digital que enseñe a usar la IA sin depender de ella. En lo individual, conviene marcar reglas —horarios, zonas sin pantallas, redes humanas activas— para que la tecnología sea instrumento y no sustituto.

Al final, la pregunta no es si podremos amar a un algoritmo, sino si estaremos dispuestos a recordar cómo se ama a un prójimo. Amar implica riesgo, desorden y escucha mutua; la IA ofrece orden, confort y certeza. No confundamos una promesa pulida con la riqueza turbulenta del vínculo humano.

 

6 COMENTARIOS

  1. La dependencia emocional es un tema sensible y preocupante, sobre todo para los que ejercemos la profesión. Sí bien es una herramienta de trabajo que nos ayuda a la detección de síntomas, jamás podrá reemplazar la empatía y el juicio clínico de un terapeuta. No existe transferencia con un algoritmo y por lo tanto no puede haber terapia.
    El algoritmo no puede interpretar el contexto emocional, gestos, llanos, tonos de voz, etc, que hacen a una terapia, lo que lo hace al terapeuta insustituible. La IA no desafía las creencias, resistencia o negaciones de una persona, no la expone, no hace devoluciones para modificar estructuras psíquicas, contesta preguntas que el sujeto propone para que todo siga igual.
    Excelente nota Rodrigo, cómo siempre. Es un tema de mucho debate que nos debe preocupar y ocupar de manera urgente.

  2. Excelente nota Rodrigo. Nada que agregarle. Y excelente opinión Jorge. Si quiera, como propuesta para Rodrigo, Jorge y especialmente a otro comentarista que tenga estudios de grado en psicología una opinión sobre los sesgos o ideologias propias que tiene un terapeuta (como toda persona) y como en la actualidad es palmario ver cada vez estos sesgos o ideologías influyen más en la opinión profesional.

    Desde esta óptica, quizás, la IA si sirva para plantear el mismo problema que se planteo al psicoanalista, darle la devolución que esté realizo y preguntarle a la IA si la misma detecta algún tipo de sesgo en la respuesta.

  3. Al final, la pregunta no es si podremos amar a un algoritmo, sino si estaremos dispuestos a recordar cómo se ama a un prójimo. Amar implica riesgo, desorden y escucha mutua; la IA ofrece orden, confort y certeza. No confundamos una promesa pulida con la riqueza turbulenta del vínculo humano.

    Guauuu Rodrigo 👏👏👏👏👏, por ahí no solo tenemos que ir, tenemos que mantenernos, en el vínculo con un otro diferente a mí, en mirarnos a los ojos, en sentirnos🥰

  4. ​Tu análisis de la IA como un «espejo de nosotros mismos» y como un síntoma de una sociedad que «quiere aislarnos» es particularmente potente. Sin embargo, me gustaría enriquecer tu planteamiento desde la perspectiva de la Educación Emocional.​
    En resumen, Rodrigo, tu artículo no solo diagnostica una dependencia, sino que nos obliga a mirar el déficit emocional que la hace posible. La dependencia emocional a la IA es la prueba más clara de que tal vez hemos fallado en enseñar a las personas a cuidarse a sí mismas y a sostener sus vínculos reales?
    ​Muchas gracias por esta lectura tan necesaria. Abrazo

Responder a Jorge Lobo Cancelar respuesta

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

últimas noticas

La ilusión del cambio

Por José Mariano.  Nos consolamos con la idea de que algo cambia; en realidad, sólo...

Las Embestidas de una Batalla equívoca

por Daniel Posse. La crisis consiste precisamente en el hecho de que lo viejo muere...

Entre la izquierda y la derecha

Por María José Mazzocato. Si Milei no gana las elecciones, no seremos generosos con Argentina. La...

El precio de la ayuda

Por Enrico Colombres. Aquellos que no pueden recordar el pasado están condenados a repetirlo.  George Santayana.   El...

Más noticias

La ilusión del cambio

Por José Mariano.  Nos consolamos con la idea de que algo cambia; en realidad, sólo...

Las Embestidas de una Batalla equívoca

por Daniel Posse. La crisis consiste precisamente en el hecho de que lo viejo muere...

Entre la izquierda y la derecha

Por María José Mazzocato. Si Milei no gana las elecciones, no seremos generosos con Argentina. La...