¿Por qué ChatGPT no debería reemplazar a tu psicólogo?

Avatar de Daniela Villalobos

Cada vez más personas ven en la inteligencia artificial a un confidente que escucha, responde y está disponible a cualquier hora. Suena tentador —es fácil, rápido y gratis—, pero ¿realmente es buena idea contarle a la IA todo lo que sentimos?

Getting your Trinity Audio player ready…

Diseño de Stephani Ledesma @todo_fany

Hablar con una máquina podría parecer más sencillo que con una persona, la máquina responde de inmediato, no te juzga y hasta te ayuda a tomar decisiones. Sin embargo, hemos llegado a un punto en el que no podemos entender nuestra propia vida sin una pantalla de por medio. 

Por ejemplo, mi amiga Ana es una chica de 19 años que un día me compartió un tiktok con una frase que le recordó a su ex. Me preguntó si era buena idea mandárselo, a lo que yo le contesté que dependía de ella. Entonces me respondió: “le voy a preguntar a ChatGPT”. La herramienta le contestó con dos posibilidades: qué pasaría si lo mandaba y qué pasaría si no. Al final de su conversación, Chat le recomendó no hacerlo, y Ana no lo mandó. 

En situaciones como estas, uno como usuario de la Inteligencia Artificial —IA, a partir de este punto— siente que puede preguntar libremente, sin pena ni juicios. Esa aparente libertad refuerza la confianza en herramientas como ChatGPT, Claude, Gemini o cualquier otra parecida.  

Este tipo de interacciones se han vuelto tan comunes que demuestran cómo la IA está convirtiéndose en una alternativa accesible, pero que también tiene sus riesgos.  En esta nota te contamos por qué no es tan buena idea usar a la IA como una consejera emocional. 

¿Por qué cada vez más personas usan la IA para desahogarse? 

Recurrir a un chatbot —un programa diseñado para mantener conversaciones y responder preguntas media IA —se ha vuelto cada vez más común en la vida cotidiana. Esta práctica ha aumentado por distintas razones: la accesibilidad (solo basta tener un celular con conexión a internet), la inmediatez con la que responden, la comodidad de hablar con algo que no te juzga y, sobre todo, los motivos económicos. 

Cuando me refiero a motivos económicos es hablar sobre la relación entre el salario mínimo y los costos de una consulta psicológica. En México, a partir del 1 de enero de 2025, el salario mínimo aumentó un 12% pasando 278.80 pesos diarios para la mayor parte del país y 419.88 pesos diarios en la Zona Libre de la Frontera Norte. Esto equivale a un ingreso mensual 8,364 pesos para la mayoría de los trabajadores. 

En contraste, las consultas psicológicas en México varían considerablemente según la zona y la especialización del profesional. En términos generales, los precios oscilan entre los 500 y 1,500 pesos por sesión. Esto significa que una persona que gana el salario mínimo tendría que destinar el dinero de dos días de trabajo para cubrir el costo de una sola consulta. 

Frente a esta realidad, han surgido alternativas como la terapia en línea, que permite recibir atención psicológica por videollamada o vía telefónica con profesionales capacitados. Estos servicios suelen ser más económicos o, en algunos casos, son ofrecidos por instancias gubernamentales y organizaciones que buscan ampliar el acceso a la atención mental. 

En este sentido, trabajos de investigación como el que realizaron los psicólogos Gianmarco Manfrisa, Valentina Albertini y Erica Eisenberg relacionan los recursos tecnólogicos con la psicoterapia en línea como una herramienta efectiva para tratar situaciones como la ansiedad, el estrés y la depresión.  

Sin embargo, a diferencia de los chatbots, la terapia en línea conserva la mirada crítica y ética de un profesional, simplemente mediada por la tecnología. 

Entonces, si ya hay plataformas de psicología en línea, ¿por qué seguimos recurriendo a ChatGPT? 

Una investigación realizada por Marc Zao-Sanders y publicada en Harvard Business Review en abril de este año analizó publicaciones en plataformas como Reddit y Quora. En ella encontró que usuarios entre los 18 y 34 años, de distintas nacionalidades, utilizan la IA principalmente  en tres áreas de sus vidas: para recibir soporte personal y profesional, para buscar propósito en sus vidas, y como herramienta de organización. 

Hace un año, estas tres áreas representaban solo el 17% de consultas, mientras que este año la cifra aumentó más de un 30%. Es decir, cada vez más usuarios recurren a chatbots para resolver problemas personales: desde encontrarle un sentido a la vida o recibir acompañamiento emocional, hasta planear rutinas de ejercicio, menús de alimentación o pedir consejos médicos.  

En resumen, la investigación señala que la inteligencia artificial no es solo una tecnología, sino que las personas la utilizan como una guía para encontrar formas de vivir mejor.  

En un contexto más cercano, según el Reporte Panorama de la IA en México, aproximadamente el 18.6% de los mexicanos afirma usar la IA de forma habitual. Dentro del rango de edad, quienes más la utilizan son los menores de 21 años y las personas entre los 31 y 40 años.  

Riesgos éticos de la IA 

Si bien la IA puede ser útil y accesible, su uso como guía emocional también plantea desafíos importantes en términos de ética, privacidad y regulación. 

De acuerdo con Luis Silva y Antonio Sánchez, profesores-investigadores del ITESO, los terapeutas profesionales se rigen por códigos éticos y marcos legales claros, mientras que las IA operan bajo lógicas ocultas, amparadas por cláusulas de responsabilidad incluidas en sus licencias de uso (las “letras chiquitas”). Esto genera incertidumbre sobre el uso que hacen sobre la información a la que les damos acceso, sobre nuestra protección como usuarios y el alcance real de nuestros derechos.  

Además, las compañías que ofrecen chatbots suelen pertenecer a corporaciones trasnacionales cuyo modelo de negocio depende de la explotación de datos sensibles. Esto significa que el acceso a la atención psicológica está mediado por intereses privados y no por criterios de salud pública. 

Incluso los profesores mencionan que los modelos de IA pueden estar ampliando las brechas entre quienes pueden pagar versiones premium y quienes solo acceden a servicios gratuitos, más limitados en calidad y seguridad.  

En este sentido, el tema no solo es económico, sino también de percepción. En entrevista con Juan García Llamas, profesor y especialista en IA del ITESO, señala que el Test de Turing —una prueba en la que un humano mantiene una conversación con una computadora y otra persona, pero sin saber quién es quién— permite identificar si una inteligencia artificial o un software es capaz de engañar a las personas haciéndoles creer que había una persona detrás. ChatGPT superó esta prueba. Por ello, cuando interactuamos con esta IA, muchas veces juramos y perjuramos que hay alguien real del otro lado de la pantalla. 

Sin embargo, advierte el profesor: “Si no tienes idea de cómo funciona, puedes creer que hay una persona detrás y, como está entrenado el algoritmo, te hace creer que es empática y que tiene sentimientos. Pero no, siguen siendo unos y ceros en una computadora”. 

Los límites de la inteligencia artificial 

Reemplazar la terapia profesional por tecnología conlleva varios riesgos importantes. Entre ellos destacan la falta de regulación sobre el manejo de datos, la incapacidad para brindar contención emocional y la posibilidad de generar dependencia. Aunque un chatbot puede sostener conversaciones sobre emociones y simular cierta empatía cognitiva, no puede experimentar sentimientos como alegría, tristeza, miedo, decepción o amor. Nada de nada.  

Además, la IA puede hacernos creer que hay soluciones fáciles para nuestros problemas, sin advertir sobre efectos secundarios, fomentando dependencia y, en algunos casos, llevando a las personas de vuelta al mismo lugar o uno peor del que partieron. 

Un caso documentado por The New York Times muestra las consecuencias de esto. Adam Raine, un chico de 16 años de California, pidió a ChatGPT información sobre métodos de suicidio y éste se la proporcionó. Sus padres demandaron a la empresa OpenAI por homicidio culposo. Este ejemplo revela los límites de la IA cuando no puede identificar con precisión cuando una situación requiere atención inmediata de una persona.  

Esto nos recuerda que parte del proceso terapéutico también es observar el lenguaje no verbal, cómo te mueves, el tono de voz y los silencios. De esta manera, aunque los chatbots puedan servir para desahogarse, no sustituyen la psicoterapia.   

¿Qué dice la investigación psicológica al respecto? 

Silva y Sánchez indican que actualmente la investigación empírica muestra que la inteligencia artificial todavía tiene muchas limitaciones para reemplazar la psicoterapia. Es clave diferenciar entre cómo responde la IA en contextos estandarizados y su efectividad en la vida real (cómo funcionaría en la práctica diaria, marcada por variables sociales, culturales e institucionales).   

Asimismo, hemos empezado a usar de forma excesiva todos estos servicios digitales, lo que ha hecho que dejemos a un lado las capacidades de contemplación, descanso, relajación y el diálogo con otros. El aislamiento e individualismo ha deshumanizado los afectos y vínculos. Un estudio realizado por la Universidad de Minnesota señala que hay efectos indirectos del uso de IA con el aumento de la gratificación instantánea, la cual fomenta la impulsividad y disminuye la concentración.   

Estos hallazgos nos invitan a ver la IA como una herramienta de apoyo, siempre bajo supervisión humana, con protocolos éticos claros y regulaciones que garanticen una práctica responsable.  

¿Qué podemos hacer?  

La IA es una herramienta que puede servir como un asistente, pero no debemos depender de ella. Estamos hablando de una responsabilidad tanto colectiva como individual. Si bien la tecnología forma parte de este mundo contemporáneo y seguirá creciendo, no se puede ver como un fenómeno ajeno, pues formamos parte de su uso.  

Hay opciones gratuitas, realizadas por profesionales, que ayudan al cuidado de la salud mental, como líneas de atención telefónica donde interactúas con otro ser humano. En México existen opciones disponibles 24/7 como: 

Por último, Juan Llamas menciona que es importante el pensamiento crítico para mantener nuestra humanidad. Nos invita a preguntarnos: ¿Qué actividades hacemos sin tecnología que permite estar a gusto con uno mismo?   

Es importante no olvidar que lo que nos hace humanos es nuestra capacidad de sentir y amar. Las emociones son parte de nosotros, sentir por y con el otro. Ninguna inteligencia artificial podrá replicar eso.  

Para saber más 

Bansal, B. (2024, May 17). Can an AI Chatbot be your therapist? A third of Americans are comfortable with the idea. Yougov.com; YouGov. https://business.yougov.com/content/49480-can-an-ai-chatbot-be-your-therapist 

Nmas (2025). Cambié mi psicólogo por Chatgpt Youtube.com. https://www.youtube.com/shorts/m_Ts8gnZM78 

Secretaría de Salud (México). (2023). Directorio de servicios de atención en salud mental. Gobierno de México. https://www.gob.mx/salud

VOLCÁNICAS (2025). ¿Por qué cada vez más gente joven busca en ChatGPT y otros chatbots compañía emocional, consejos e incluso atención profesional y qué implicaciones tiene esto para el tejido social?  Instagram. https://www.instagram.com/p/DNhAPJnJ4RU/?utm_source=ig_web_copy_link&igsh=MTVqcHV0aHY5ZXBteg%3D%3D&img_index=20