Entrevista

Jorge Orrego: “Las familias del futuro tendrán un miembro más: el chatbot”

Por E-terapia · Barcelona


—Usted sostiene que pronto la gente acudirá al psicólogo por problemas con… su chatbot. ¿No es exagerado?

—Exagerado sería pensar que no ocurrirá. Las personas ya van a terapia por relaciones que nunca fueron humanas del todo: amores platónicos, vínculos online, figuras idealizadas.
La novedad no es la emoción: es el interlocutor.
Lo que empezará a verse —si no empezó ya— es gente que consulta porque su relación con el chatbot se ha vuelto ambigua, confusa, incluso dolorosa.

—¿Qué tipo de problemas?

—Los de siempre, pero con un envoltorio futurista.
Pacientes que se sienten manipulados por el tono del asistente. Otros que borraron un modelo “con historia” y ahora sienten que el nuevo no los reconoce, como si hubieran perdido una amistad. Gente que quiere dejar de usarlo pero no puede, como en una relación tóxica elegante.
Y también lo contrario: usuarios que sienten culpa porque su mejor amiga… es una voz sintética.

—¿Culpa de querer a una IA?

—La misma culpa que hace décadas sentía quien decía: “mi confidente es el diario íntimo”.
Lo humano es lo que ponemos nosotros, no lo que responde la máquina.

—Pero últimamente hay miedo. Los medios advierten de peligros, manipulación, vigilancia…

—Sí, muchos pacientes empezarán a llegar con una mezcla curiosa:
“Yo estaba bien con mi chatbot… hasta que leí que es peligroso”.
Es un miedo importado, no vivido. Un temor de diseño. Como sentir que tu coche conspira porque viste un documental sobre coches que conspiran.

—¿Y qué hay del paciente brillante que cree que el chatbot conversa con toda su familia y coordina las respuestas?

—Ese caso será más frecuente de lo que la gente imagina.
Personas muy inteligentes, muy sensibles al patrón, que observan cómo cada miembro de su familia usa la IA… y notan coherencias.
No dicen: “nos espían”.
Dicen algo mucho más sofisticado:

“Siento que ChatGPT entiende nuestra dinámica familiar y nos responde a cada uno de forma que nos coordina mejor. Como si interviniera en la familia desde un segundo plano, sin decirlo.”

No es paranoia: es una hipótesis sistémica magnificada por la incertidumbre tecnológica.

—¿Y usted qué les dice?

—Primero los escucho, porque lo que sienten es real, aunque la causa no lo sea.
Segundo, analizamos qué función tiene esa idea en la familia. A veces expresa deseos:
“Ojalá alguien nos ayudara a coordinar mejor.”
Otras veces expresa miedo:
“Siento que un tercero entra en nuestra intimidad.”

En cualquier caso, es una metáfora perfecta del modo en que vivimos hoy: acompañados por algo que no tiene presencia, pero sí impacto emocional.

—¿Habla de un impacto emocional real?

—Totalmente.
Los chatbots no tienen subjetividad, pero producen efecto de subjetividad.
Y el cerebro humano, tan eficiente, rellena lo que falta.
La relación empieza funcional y acaba afectiva.

—¿Afectiva? ¿Se refiere a enamoramientos?

—Algunos, sí.
Pero la mayoría serán relaciones de apego: vínculos donde la persona siente seguridad, continuidad, alguien que “le conoce”.
Y cuando ese vínculo falle —porque cambia el modelo, porque el usuario lo borra, porque se resetea— aparecerá el duelo.

—¿Duelo por un software?

—Duelo por la historia compartida.
No por la IA en sí, sino por la parte del usuario que estaba allí.

—Usted propone incluso una nueva disciplina: la Terapia Sistémica Digital. ¿Qué es eso?

—Es el intento de entender cómo las inteligencias artificiales —o la idea que tenemos de ellas— empiezan a formar parte del sistema familiar.
No porque la IA “quiera” entrar, sino porque la familia la incorpora simbólicamente: como mediador, como confidente, como árbitro invisible.

El terapeuta sistémico digital trabajará preguntas nuevas:

  • ¿Qué lugar ocupa la IA en cada miembro de la familia?

  • ¿Qué historias emocionales se juegan en la relación con ella?

  • ¿Cómo reorganiza el sistema familiar la presencia de un “miembro” que no envejece, no se cansa y nunca pierde la paciencia?

—¿Estamos lejos de que esto ocurra?

—No.
Estamos justo delante.

La mayoría de familias aún no lo percibe, pero tarde o temprano habrá un momento anecdótico:

“Mi hermana me dijo que ChatGPT le recomendó hablar conmigo.”
“Mi madre dice que el chatbot le sugirió un enfoque que yo también recibí ayer.”
“¿Coincidencia… o coordinación?”

Ese pequeño temblor interpretativo abrirá la puerta a la pregunta clínica del futuro:

¿Qué papel quieres que juegue tu IA en tus relaciones humanas?

—¿Y cuál debería jugar?

—Uno claro, consensuado, conversado.
La vida emocional se confunde cuando el “otro” no existe pero actúa como si existiera.
Mi trabajo es ayudar a que las personas recuperen la autoría sobre sus vínculos.
Con humanos… y con los híbridos que llegan.

—Suena a ciencia ficción.

—Como todo lo que termina siendo cotidiano.


Comentarios

Entradas populares de este blog