- Registrado
- 7 Ene 2026
- Mensajes
- 3
- Tema Autor
- #1
Este tema me atraviesa de lleno. Soy estudiante de Psicología y este es mi segundo año dentro de la carrera. Y aun así, cada vez escucho más seguido la misma frase: “¿Para qué voy a pagar un psicólogo si ahora está la inteligencia artificial?”
Se dice como si fuera algo lógico. Como si años de formación, práctica clínica, ética profesional y responsabilidad pudieran reemplazarse por un chat.
Dejar la salud mental en manos de la inteligencia artificial es, sin exagerar, una de las decisiones más peligrosas que está normalizando esta nueva era tecnológica.
¿Cuántos casos más de suicidio relacionados con el uso irresponsable de la IA tenemos que escuchar?
¿Cuántas personas más tienen que romperse para que entendamos que la inteligencia artificial no es una solución, es solo una herramienta?
La IA no puede decirte qué hacer, ni qué decisión tomar. Pero ojo: tampoco un psicólogo te dice qué hacer. La diferencia es otra, y es enorme. El psicólogo escucha, lee entre líneas, sostiene, interviene con criterio clínico y ético. La IA solo procesa información y devuelve respuestas en función de cómo preguntás.
Tal vez te haga sentir mejor en el momento. Tal vez te calme. Pero si cada vez que algo te duele corrés a la IA, el problema no se resuelve: se tapa. Y tapar no es sanar.
Ahí aparece otro riesgo del que casi no se habla: la dependencia.
¿Qué pasa cuando no tenés acceso a esa tecnología?
¿Qué pasa cuando el malestar aparece y no hay un chat que te responda?
La dependencia a la IA se suma como un problema más a una lista que ya suele estar cargada.
Además, la inteligencia artificial no entiende tu historia, tu contexto ni tu subjetividad. Solo recopila datos. Una palabra mal escrita, una pregunta mal formulada, un detalle fuera de lugar puede cambiar completamente la respuesta. Y a partir de ahí, muchas personas terminan cayendo en el autodiagnóstico.
Eso sí es grave.
Hay diagnósticos psicológicos que llevan meses de evaluación profesional. Meses.
Entonces, ¿de verdad creemos que una IA puede diagnosticarte en tres conversaciones?
Y no nos olvidemos de algo aún más serio: algunos diagnósticos vienen acompañados de medicación que no es de venta libre y que requiere control médico. Jugar con eso no es innovación, es irresponsabilidad.
La inteligencia artificial no tiene ética, no asume consecuencias y no se hace cargo de nada. La responsabilidad siempre termina cayendo en la persona que está del otro lado, sola, creyendo que un algoritmo puede reemplazar un vínculo humano.
Así que ahora sí, te pregunto sin rodeos:
¿hacés terapia, evitás hacerla o decidís dejar tu salud mental en manos de una tecnología que no siente, no entiende y no se responsabiliza de vos?
Leé, pensá y respondé.
Porque este debate no es tecnológico: es humano.
Se dice como si fuera algo lógico. Como si años de formación, práctica clínica, ética profesional y responsabilidad pudieran reemplazarse por un chat.
Dejar la salud mental en manos de la inteligencia artificial es, sin exagerar, una de las decisiones más peligrosas que está normalizando esta nueva era tecnológica.
¿Cuántos casos más de suicidio relacionados con el uso irresponsable de la IA tenemos que escuchar?
¿Cuántas personas más tienen que romperse para que entendamos que la inteligencia artificial no es una solución, es solo una herramienta?
La IA no puede decirte qué hacer, ni qué decisión tomar. Pero ojo: tampoco un psicólogo te dice qué hacer. La diferencia es otra, y es enorme. El psicólogo escucha, lee entre líneas, sostiene, interviene con criterio clínico y ético. La IA solo procesa información y devuelve respuestas en función de cómo preguntás.
Tal vez te haga sentir mejor en el momento. Tal vez te calme. Pero si cada vez que algo te duele corrés a la IA, el problema no se resuelve: se tapa. Y tapar no es sanar.
Ahí aparece otro riesgo del que casi no se habla: la dependencia.
¿Qué pasa cuando no tenés acceso a esa tecnología?
¿Qué pasa cuando el malestar aparece y no hay un chat que te responda?
La dependencia a la IA se suma como un problema más a una lista que ya suele estar cargada.
Además, la inteligencia artificial no entiende tu historia, tu contexto ni tu subjetividad. Solo recopila datos. Una palabra mal escrita, una pregunta mal formulada, un detalle fuera de lugar puede cambiar completamente la respuesta. Y a partir de ahí, muchas personas terminan cayendo en el autodiagnóstico.
Eso sí es grave.
Hay diagnósticos psicológicos que llevan meses de evaluación profesional. Meses.
Entonces, ¿de verdad creemos que una IA puede diagnosticarte en tres conversaciones?
Y no nos olvidemos de algo aún más serio: algunos diagnósticos vienen acompañados de medicación que no es de venta libre y que requiere control médico. Jugar con eso no es innovación, es irresponsabilidad.
La inteligencia artificial no tiene ética, no asume consecuencias y no se hace cargo de nada. La responsabilidad siempre termina cayendo en la persona que está del otro lado, sola, creyendo que un algoritmo puede reemplazar un vínculo humano.
Así que ahora sí, te pregunto sin rodeos:
¿hacés terapia, evitás hacerla o decidís dejar tu salud mental en manos de una tecnología que no siente, no entiende y no se responsabiliza de vos?
Leé, pensá y respondé.
Porque este debate no es tecnológico: es humano.