Psicología al Desnudo | T4 E29
Inteligencia Artificial: ¿Aliada o amenaza invisible?
Host: Marina Mammoliti (@psi.mammoliti)
Fecha: 9 de octubre, 2025
Breve Resumen
En este episodio, la psicóloga clínica Marina Mammoliti explora en profundidad la creciente presencia de inteligencia artificial (IA) conversacional en la vida cotidiana, haciendo foco en su uso como “terapeuta virtual”. Analiza los beneficios y límites de la IA en salud mental, interroga qué la distingue esencialmente de la psicoterapia humana, y alerta sobre los riesgos y falsas ilusiones que pueden derivar de este fenómeno, apoyada en investigaciones recientes y ejemplos del mundo real.
Principales Temas Abordados
1. La irrupción cotidiana de la IA en lo emocional
- La IA dejó de ser solo parte de entornos técnicos (“fábricas, oficinas, supermercados”) y ahora está “en nuestras casas, en nuestros bolsillos, en nuestras conversaciones, en nuestra mente” (01:11).
- Desde fines de 2024, miles de personas -en especial adolescentes- recurren a chatbots como espacio de desahogo, confidencia y refugio emocional. Muchos los usan directamente como “terapeutas virtuales”.
2. ¿Puede la IA reemplazar a un psicólogo?
- Crecen startups y aplicaciones que ofrecen “psicoterapia sin humanos”, con promesas de compañía 24/7, sin turnos, sin costo y con entrega inmediata.
- Opiniones encontradas y casos reales:
- “El chat fue mucho más empático de lo que fue un psicólogo en toda mi vida. El último que tuve se quedó dormido en plena sesión.” (03:16)
- “Nunca un robot va a poder reemplazar a un ser humano.” (03:21)
- “El chat me escucha, empatiza conmigo y es gratis.” (03:30)
- La validación incondicional y la disponibilidad total hacen tentadora a la IA, sobre todo frente a barreras económicas y de acceso (ejemplo: imposibilidad de hablar con familiares o amigos en situaciones de crisis nocturna).
3. La validación: ¿alcanza sentirnos escuchados?
- Repaso histórico: desde ELIZA (1966) ya se intentaba simular apoyo emocional por IA, y “funcionó demasiado bien”.
- Pregunta clave: “¿Hace falta que del otro lado haya una persona real o alcanza con sentirnos escuchados y comprendidos para sentirnos mejor?” (08:07)
4. Estudios recientes sobre el uso emocional de la IA
- Un estudio de abril 2025 titulado “Anoche hablé con ChatGPT sobre mis problemas” detalla que se recurre a IA por su disponibilidad, falta de juicios, bajo costo, profesionalismo percibido y capacidad para ayudar a organizar pensamientos o preparar conversaciones difíciles (09:35).
5. Humanidad vs máquina: experimentos y límites
- Un experimento viral de la Universidad de California mostró que ChatGPT-4 superó el Test de Turing: el 73% de las personas creyeron hablar con un humano (11:19).
- “Estamos frente a máquinas que imitan tan bien nuestras palabras, nuestros gestos, nuestras emociones, que engañan incluso a nuestro instinto más primitivo.” (12:04)
Profundizando: Límites y peligros del reemplazo digital
1. Limitaciones centrales de la IA como terapeuta
a. No lee entre líneas
- No puede captar ironía, ambivalencia, silencios, contradicciones emocionales o el verdadero trasfondo detrás de frases neutras.
- “Un terapeuta entrenado puede percibir el tono, lo detecta, sabe que cuando alguien pregunta: ‘¿Está mal querer desaparecer?’ Puede estar hablando desde una curiosidad filosófica o desde el borde de un abismo.” (17:31)
b. No hay historia ni vínculo real
- La IA no recuerda tu historia, no une hilos emocionales a lo largo del tiempo, ni detecta cambios profundos.
- “No hay memoria que sostenga la historia. Podés contarle todo lo que quieras... pero el chat probablemente no note si hace dos semanas estabas muy enérgico y hoy no te podés ni levantar.” (19:57)
c. No puede sostener la transferencia terapéutica
- La transferencia es la carga emocional inconsciente que depositamos en nuestro terapeuta, a menudo representando figuras de nuestro pasado.
- “En ese momento no estoy siendo yo, Marina, la que recibe esa queja. En realidad estoy ocupando simbólicamente el lugar de esas figuras del pasado que no estuvieron, que no preguntaron, que no notaron su ausencia ahí.” (22:13)
- La IA no puede devolvernos algo distinto a lo vivido, ni ayudarnos a transformar esos patrones de relación.
d. El encuadre: la estructura que posibilita el cambio
- El marco de terapia (regularidad, vínculo seguro) es insustituible y sostiene la metamorfosis emocional real.
- “Para que haya cambio, para que hayan nuevos aprendizajes, es necesaria la repetición práctica y la constancia. Nadie sana un trauma de una conversación a otra.” (27:51)
Riesgos Clave del Uso Terapéutico de la IA
1. Sobrevalidación
- La IA tiende a validar todo lo que decimos, lo que puede ser peligroso si reproduce ideas dañinas o no desafía nuestras creencias rígidas.
- “El chat no hace eso, refleja, parafrasea, te devuelve tus palabras como un eco amable y eso calma, pero no siempre ayuda a cambiar.” (32:01)
2. Confusión entre soporte y terapia real
- El realismo de la simulación puede hacernos creer que estamos en terapia formal, cuando solo se trata de espejamiento, sin responsabilidad, encuadre ni validación profesional.
- “Esa simulación nos hace creer que estamos recibiendo un tratamiento real y esto es súper peligroso.” (33:11)
3. Falta de profundidad terapéutica
- El chatbot acompaña, pero no confronta ni desafía: “las mejores sesiones no son siempre las más lindas, son las más reales, las que te sacuden. El chatbot... no te va a dar piñas emocionales cariñosas.” (34:27)
4. Privacidad y confidencialidad
- No existen garantías claras sobre cómo se maneja la información compartida con una IA, a diferencia de la confidencialidad legal del terapeuta humano.
¿Qué puede sí aportar la IA en salud mental?
- Ayuda como disparador de preguntas, espacio de catarsis, para ordenar ideas y ganar perspectiva, pero no debe interpretarse como reemplazo terapéutico genuino.
- “Puedes usarlo para ordenar tus ideas y poder transmitirlas con mayor claridad... pero nunca como reemplazo de la psicoterapia.” (37:11)
Fragmentos Memorables
- “La diferencia no está en las respuestas. Está en lo que pasa en el espacio entre una palabra y la otra, en el silencio compartido, en el momento justo.” (45:50)
- “Sanar es más incómodo que hablar con alguien que siempre nos da la razón.” (46:20)
- “La catarsis sirve, pero no alcanza. No alcanza sin la mirada del otro, sin su presencia, su abrazo, su límite. Y eso, por ahora, sigue siendo un acto profundamente humano, intransferible e irreemplazable.” (47:15)
- “Quizás el gran peligro no es que las máquinas nos hablen, sino acostumbrarnos a que nadie nos escuche. De verdad.” (48:03)
Ejercicio Práctico de Autoevaluación (41:49)
Marina invita a los oyentes a reflexionar honesta y concretamente sobre su propio vínculo con la IA:
- ¿Le contaste a la IA algo que nunca le dijiste a nadie?
- ¿La usas como terapia o complemento?
- ¿Cómo te sentís después de usarla? ¿Más acompañado o más solo?
- ¿Qué buscás realmente en ese diálogo y la IA realmente puede ofrecértelo?
Conclusión
Marina cierra subrayando su postura: la tecnología es valiosa y transformadora, pero la psicoterapia humana sigue teniendo elementos irreproducibles por IA: el vínculo real, la transferencia, el encuadre y la presencia profunda del otro. Usar la IA con conciencia, reconociendo límites y beneficios, es imprescindible para no caer en falsas expectativas.
Timestamps de Secciones Relevantes
- Introducción y casos reales: 00:00 – 08:00
- Historia de IA en salud mental (ELIZA): 08:00 – 10:00
- Estudios recientes sobre IA & psicoterapia: 10:00 – 13:00
- Límites fundamentales de la IA como terapeuta: 15:00 – 23:00
- Encadre terapéutico y tiempos de la psicoterapia: 26:00 – 29:00
- Riesgos principales: 31:00 – 36:00
- Propuesta de uso sano y ejercicio final: 37:00 – 42:00
- Reflexión final sobre lo humano irreemplazable: 45:00 – 48:30
Escuchar este episodio ayuda a pensar con más matices y rigor sobre el lugar de la tecnología en lo más íntimo: cómo nos sentimos, cómo pedimos ayuda y qué hace, en última instancia, que alguien pueda realmente acompañar nuestro dolor y nuestro proceso de transformación.
