Conversamos con máquinas que parecen comprendernos. Sus respuestas son fluidas, coherentes, incluso empáticas. Pero ¿qué ocurre realmente cuando una persona se dirige a una inteligencia artificial con un tono humano? ¿Qué escucha la máquina cuando la escuchamos? En la era de los modelos de lenguaje y de los asistentes virtuales, la pregunta por la escucha —tan central en la clínica— adquiere un nuevo relieve, especialmente para quienes buscan apoyo en una consulta psicológica online con psicólogos colegiados.
El auge de los chatbots, asistentes virtuales y sistemas de IA generativa nos enfrenta a una paradoja: cuanto más natural parece el diálogo con la máquina, más fácil es olvidar que no hay nadie escuchando. Por eso resulta tan importante distinguir entre una conversación mediada por algoritmos y el espacio de una psicología online por videollamada que pone el acento en la subjetividad y no solo en los datos.
Escucha humana vs. respuesta automática: diferencias clave
En la escucha terapéutica, el analista no se limita a procesar información. Escuchar implica acoger lo dicho y lo no dicho, interpretar silencios, gestos, tonos y vacilaciones. En cambio, la inteligencia artificial se orienta por patrones de lenguaje y distribuciones estadísticas: no comprende, sino que predice la palabra más probable que seguiría en una conversación humana. En la ayuda psicológica online con enfoque psicoanalítico, la escucha supone implicación, deseo y responsabilidad frente a lo que el paciente trae.
Desde la psicoterapia psicoanalítica, entendemos que escuchar es un acto ético y simbólico, no una función técnica. En la escucha humana hay historia, transferencia, implicación subjetiva. En la respuesta automática hay correlaciones, pero no hay sujeto. Mientras el terapeuta se deja afectar por lo que el paciente dice, la IA solo calcula lo que “debería” responder en función de los datos que ha recibido.
Cómo ‘escucha’ una IA conversacional: patrones, tokens y contexto
Los modelos de lenguaje funcionan dividiendo el texto en fragmentos mínimos —tokens— y generando probabilidades de secuencias. Su “escucha” consiste en procesar grandes volúmenes de datos y detectar regularidades, no en captar sentido. No interpretan silencios ni contradicciones; las neutralizan. En nuestros artículos del blog de psicología online y salud mental hemos subrayado cómo esta lógica predictiva contrasta con la escucha clínica, que se interesa precisamente por lo que descoloca y no encaja.
Cuando parece que la IA “entiende”, lo que en realidad hace es ajustar su respuesta a un modelo de alineamiento que maximiza la sensación de coherencia. Esta ilusión de comprensión —heredera del efecto ELIZA descrito ya en los años 60— provoca que el usuario proyecte emociones, reconocimiento y escucha allí donde solo hay simulación lingüística. Esa diferencia es clave cuando se trata de pedir ayuda emocional y no simplemente información, tal y como se aborda también al pensar en cómo aumentar la autoestima y la confianza en uno mismo.
La ilusión de comprensión: por qué sentimos que nos entiende
El ser humano tiende a antropomorfizar la tecnología. Frente a un chatbot que responde con fluidez, interpretamos intenciones, empatía o comprensión. Pero lo que ocurre es un fenómeno de proyección: lo que experimentamos como escucha viene, en realidad, de nosotros mismos. La máquina no comprende; devuelve un eco estadístico de nuestro propio discurso, algo especialmente delicado cuando se busca sostén para situaciones de pareja o de ruptura, como las que se desarrollan en procesos para superar una infidelidad de pareja.
La máquina devuelve un eco de lo que decimos, pero no puede sostener la ambivalencia afectiva, las contradicciones o el sufrimiento que tarda en formularse. Sin un otro humano que escuche y responda desde su propia posición, la ilusión de comprensión puede dejar al sujeto más solo, incluso cuando interactúa constantemente con sistemas conversacionales.
Límites clínicos: matices emocionales, silencios y ambigüedad
La presencia terapéutica online ya nos ha enseñado que la mediación tecnológica modifica la escucha, pero no la elimina. Aun así, los sistemas automáticos carecen de la dimensión simbólica que da sentido al discurso humano. No pueden captar las señales paralingüísticas, los matices emocionales o la ambigüedad del lenguaje, donde con frecuencia se juega lo más importante de la experiencia psíquica. En casos de mayor vulnerabilidad, como en algunos cuadros de depresión o después de experiencias vitales muy exigentes, puede ser especialmente importante buscar una ayuda profesional para la depresión posparto online.
Desde nuestra orientación clínica psicoanalítica, consideramos que el riesgo no está en usar tecnología, sino en creer que puede sustituir el encuentro. La palabra que transforma no es aquella que se ajusta estadísticamente al contexto, sino la que produce un desplazamiento subjetivo. La IA puede ofrecer acompañamiento instrumental, pero no sostener la complejidad del proceso terapéutico ni garantizar por sí sola la confidencialidad y el marco ético que exige la clínica.
Guía práctica: usar chatbots sin sustituir la escucha profesional
La expansión de herramientas conversacionales hace necesario pensar cómo integrarlas de manera ética y responsable. Es posible utilizar estos recursos como apoyo puntual —por ejemplo, para organizar ideas o acceder a información—, pero sin olvidar que la elaboración del sufrimiento requiere un espacio específico de psicoterapia online, con un profesional cualificado que pueda escuchar, interpretar y sostener el proceso, como el que se ofrece en nuestra terapia psicológica online para adultos.
- Usar los chatbots como apoyo informativo o para tareas concretas, no como sustitutos de la escucha profesional.
- Evitar depositar en la IA expectativas emocionales o de comprensión que exceden su capacidad técnica.
- Reflexionar, en terapia, sobre el uso personal de estas tecnologías y el tipo de vínculo que generan.
- Recordar que la palabra dirigida a un otro humano sigue siendo el espacio donde el sujeto se constituye.
- Proteger la privacidad y los datos sensibles, manteniendo la confidencialidad como principio clínico.
La inteligencia artificial puede ser una herramienta valiosa si se la utiliza con conciencia de sus límites. Pero cuando confundimos la respuesta automática con la escucha humana, perdemos el matiz que hace posible el encuentro terapéutico. La máquina no escucha: calcula. Y, sin embargo, en esa necesidad de ser escuchados incluso por un artefacto se revela algo profundamente humano: el deseo de que haya alguien al otro lado de la palabra, algo que la clínica online sigue intentando sostener día a día.
