Nueve meses usando ChatGPT como terapeuta: el problema no es la IA


  • En la sección:
    Nueve meses usando ChatGPT como terapeuta: el problema no es la IA

    Hay algo más preocupante que utilizar mal una herramienta: construir conclusiones públicas a partir de ese mal uso y presentarlas como si fueran una verdad general.

    En Uruguay circuló una nota sobre una psicóloga que pasó nueve meses utilizando ChatGPT como si fuera un terapeuta. Nueve meses. Tiempo suficiente como para entender qué hace, qué no hace y, sobre todo, cómo se utiliza correctamente.

    Sin embargo, el problema no está en el experimento en sí. Está en las conclusiones.

    ChatGPT como terapeuta: el error de 9 meses que demuestra por qué muchas veces la IA no falla, fallan las preguntas.


    La crítica a la IA parte de una premisa equivocada

    Una de las frases más repetidas fue:

    “La IA no ayuda a pensar, no frena mecanismos patológicos y no sustituye el diagnóstico.”

    Es una afirmación razonable, pero también evidente.

    Nadie que comprenda mínimamente cómo funciona una IA conversacional espera que diagnostique o que sustituya un proceso clínico. Criticarla por eso es equivalente a cuestionar un martillo porque no sirve para pintar.

    El error no está en la herramienta. Está en la expectativa.


    ChatGPT no reemplaza la terapia, pero puede mejorar la calidad del pensamiento

    El valor real no está en que la inteligencia artificial piense por la persona.

    Está en que obliga a pensar mejor, siempre que se utilice con criterio.

    Una IA no genera profundidad por sí misma. Refleja la calidad de lo que recibe. Si las preguntas son imprecisas, las respuestas también lo serán. Si son superficiales, el resultado será superficial.

    Pero cuando hay método —cuando existe una intención clara de explorar y profundizar— comienza a aparecer elaboración real.

    Ese es el punto donde la mayoría falla.


    El verdadero problema: falta de método, no de tecnología

    Utilizar correctamente una IA exige algo que muchas personas evitan: esfuerzo.

    Implica:

    • Formular preguntas con precisión
    • Sostener el diálogo en el tiempo
    • Revisar y ajustar lo que se plantea
    • Profundizar en lugar de aceptar respuestas inmediatas

    No es un proceso automático. Es trabajo.

    Y resulta más sencillo atribuir la falla a la herramienta que reconocer un uso deficiente.


    La IA no detiene mecanismos patológicos, pero puede hacerlos visibles

    Otro aspecto que suele omitirse es que la IA no genera los problemas.

    Los expone.

    Actúa como un espejo estructurado del pensamiento. Para quien sabe interpretar ese reflejo, puede aportar información relevante.

    No sustituye la terapia, pero puede complementar procesos de comprensión si se utiliza con responsabilidad.


    Conclusión: no es la inteligencia artificial, es el uso que se hace de ella

    Cuando una persona utiliza una herramienta durante nueve meses y concluye que no sirve, solo existen dos posibilidades:

    • La herramienta es inútil
    • El uso ha sido inadecuado

    En este caso, la evidencia apunta claramente a la segunda opción.

    La inteligencia artificial no impide pensar.

    La falta de método sí.