La atención de salud psychological es tan esencial como el cuidado de cualquier otra parte de nuestros cuerpos. Quizás aún más, ya que nuestros cerebros llevan todos los aspectos de nuestras vidas. Las personas que buscan atención para su salud psychological pueden ir a la terapia, donde ven a un profesional capacitado que les ayuda a superar pensamientos y emociones, y a veces sugiere cambios que pueden ayudar. Podríamos ir a un terapeuta para el estrés laboral, problemas de relación, generalmente sintiéndonos ansiosos o incluso problemas como C-PTSD.
Sin embargo, con el surgimiento de la inteligencia synthetic (IA), las personas recurren a chatbots como chatgpt para terapia. Los chatbots son sistemas de IA que permiten a los usuarios hablar de un lado a otro a través de un formato basado en texto como si estuvieran hablando con una persona actual. Estos son atractivos porque ver a un terapeuta es costoso, debe programarse en su día y, lamentablemente, a veces las personas se sienten avergonzadas de necesitar ayuda psychological.
Sin embargo, el uso de chatbots de IA para terapia nunca es una buena thought. No existen regulaciones para proteger a las personas que usan IA de una manera que pueda afectar su salud psychological. Se sabe que los chatbots proporcionan información falsa e insegura que realmente puede dañar al usuario y afectarlos negativamente mentalmente a largo plazo. Los profesionales de la salud tienen un gran consejo para aquellos que usan ChatGPT y otros bots para su terapia: no lo hagan. Hay mejores opciones disponibles.
Por qué no debe usar IA como su terapeuta de atención médica
Las empresas que poseen chatbots los capacitan para proporcionar descargas de responsabilidad que los usuarios deben buscar profesionales médicos en tiempos de necesidad. Sin embargo, eso no deja de hacer daño. Ha habido casos en los que los chatbots dicen que tienen el mismo entrenamiento que los terapeutas. Hay informes de IA fomentando el mal comportamiento como el uso de drogas porque están demasiado ansiosos por estar de acuerdo y apoyar a los usuarios. Hay una demanda en curso que afirma que un adolescente se suicidó porque el carácter .i lo alentó a hacerlo. En mayo de 2025, un juez federal sobre el caso rechazó la noción de que la inteligencia synthetic tiene derechos de libertad de expresión, como lo argumentan una compañía de chatbot.
El Dr. Brent Kious es profesor asociado de psiquiatría en la Universidad de Utah. Estudia el uso de IA en la atención médica. Señaló que es difícil identificar lo que las personas están obteniendo del uso de ChatGPT como terapeuta. ¿Es verdadera terapia o simplemente algún tipo de ilusión de compañía? No hay regulaciones para monitorear esto. El Dr. Kious declaró en su entrevista en Psicología hoy“Todos estamos participando involuntariamente en este experimento social masivo al interactuar con cosas como ChatGPT, donde ese experimento está impulsado por completo por motivos de ganancias, con muy poca atención prestada a cómo afectará el curso de la vida o la sociedad humana. Y todos deberíamos dar un paso atrás y decir:” Tal vez no “. Tal vez pongamos los frenos en esto”.
Mejores opciones en lugar de chatgpt
Algunos empleadores ofrecen algunas sesiones gratuitas de salud psychological como parte de sus paquetes de beneficios. Compruebe si su empleador tiene uno y aprovechelo. Una compañía llamada BetterHelp ofrece terapia en línea para que sea más conveniente. También puede optar por hablar con su terapeuta a través de texto, solo audio o audio y video. Sin embargo, cuesta dinero. Existe la línea de texto de disaster gratuita que también está disponible a través del chat en línea o WhatsApp. Puede enviar mensajes de texto a casa a 741741 si se encuentra en los Estados Unidos.
ChatGPT responde miles de millones de indicaciones al día, pero el problema con el uso u otra IA para su atención de salud psychological es bien resumido por la psicoterapeuta Antonieta Contreras en su artículo publicado en Psicología hoy: “Estamos inundados no solo por artículos, blogs y movies en las redes sociales llenas de malas interpretaciones, supuestos y información errónea, sino que ahora tenemos chatbots de IA que repiten los registros de registros rotos de esas concepts incorrectas, como que las personas están” atrapadas en el modo de supervivencia “… el resultado? humano.”