Por qué deberías evitar usar ChatGPT como terapeuta: Reflexiones de Sam Altman y advertencias

Ten cuidado con lo que le dices a ChatGPT.

Según Sam Altman, CEO de OpenAI, recurrir a ChatGPT para apoyo emocional Una buena idea, por una razón muy simple: los chatbots impulsados por IA no están sujetos a las mismas leyes de confidencialidad profesional que los médicos y terapeutas humanos.

En una reciente aparición en un podcast, Altman comentó: «Las personas, especialmente los jóvenes, lo utilizan como terapeuta o entrenador personal, donde plantean sus problemas emocionales y preguntan: '¿Qué debo hacer?'». Este fin de semana pasado con Theo Von.

Sam Altman hablando por teléfono con el logotipo de ChatGPT

“En este momento, si usted habla con un terapeuta, un abogado o un médico sobre estos temas, esas conversaciones están legalmente protegidas”, añadió.

Continuó: «Existe la confidencialidad médico-paciente, la confidencialidad legal, etc. Aún no hemos resuelto este problema con respecto a sus conversaciones con ChatGPT».

Altman señala que, en caso de demanda, OpenAI podría verse legalmente obligada a entregar los registros de las conversaciones mantenidas con ChatGPT. Cabe destacar que la compañía ya se encuentra enfrascada en una batalla legal con The New York Times por la conservación de las conversaciones eliminadas. En mayo, un tribunal ordenó a OpenAI conservar "todos los datos de registro de salida que deberían haberse eliminado", incluso si el usuario o las leyes de privacidad exigen su eliminación.

En el podcast, Altman expresó su convicción de que la IA debería tener "el mismo concepto de privacidad en tus conversaciones con ella que con un terapeuta o cualquier otra persona, algo que nadie habría imaginado hace tan solo un año". Esto resalta la importancia de la legislación y las regulaciones que rigen el uso de la IA en ámbitos sensibles como la salud mental, para garantizar la protección de la privacidad y los datos de los usuarios.

¿La gente está usando inteligencia artificial para psicoterapia?

Una joven estudiante universitaria con cabello castaño hasta los hombros mira su computadora portátil mientras está sentada en la cama de su dormitorio.

A principios de este año, Anthropic, desarrollador de Claude, competidor de ChatGPT, analizó 4.5 millones de conversaciones para determinar si los usuarios recurrían a chatbots para conversaciones románticas. Según el estudio, solo el 2.9 % de las interacciones con la IA de Claude incluían conversaciones románticas, mientras que las de compañía y juegos de rol representaban tan solo el 0.5 %.

En el contexto de una demanda, OpenAI podría estar legalmente obligado a entregar registros de una conversación que alguien tuvo con ChatGPT.

Aunque la base de usuarios de ChatGPT supera con creces a la de Claude, sigue siendo relativamente poco frecuente que las personas utilicen este chatbot para la comunicación emocional. Contrariamente a los comentarios de Altman, un estudio conjunto de OpenAI y el MIT afirmó: «La interacción emocional con ChatGPT es poco frecuente en el uso real».

El informe agregó: “Las señales emocionales (aspectos de las interacciones que indican empatía, afecto o apoyo) no estaban presentes en la gran mayoría de las conversaciones en la plataforma que evaluamos, lo que sugiere que la interacción emocional es un caso de uso poco común para ChatGPT”.

Hasta ahora, todo bien. Pero en resumen: la IA conversacional seguirá mejorando en interactividad y matices, lo que fácilmente podría llevar a que más personas recurran a ella en busca de ayuda con problemas personales.

Actualización GPT-5 ChatGPT está a punto de llegar, y con él, una gran cantidad de interacciones más naturales y un mayor contexto. Por lo tanto, aunque será más fácil compartir más detalles con la IA, es recomendable que los usuarios reflexionen cuidadosamente sobre lo que están dispuestos a decir.

Los comentarios están cerrados.