Estudio: El uso excesivo de ChatGPT puede generar apego emocional

OpenAI parece estar anunciando nuevos modelos de IA semanalmente para mejorar su chatbot ChatGPT para sus 400 millones de usuarios. Sin embargo, la facilidad con que se utiliza esta herramienta de IA sugiere que es posible abusar de ella.

La empresa de inteligencia artificial ahora está profundizando en las posibles repercusiones psicológicas que ChatGPT podría tener en sus usuarios. Se publicó OpenAI Consecuencias Estudio de dos partes Realizado en colaboración con el MIT Media Lab, reveló un vínculo entre un mayor uso del chatbot ChatGPT y un mayor sentimiento de soledad entre los usuarios.

Cada organización realizó un estudio independiente y luego se combinaron los resultados en una conclusión consolidada. A lo largo de un mes, el estudio de OpenAI examinó "más de 40 millones de interacciones con ChatGPT", que no implicaron intervención humana para preservar la privacidad del usuario. Mientras tanto, el MIT monitoreó a casi 1000 participantes utilizando ChatGPT Más de 28 días. Estos estudios aún no han sido revisados ​​por pares.

El estudio del MIT profundizó en las diversas funciones de uso que pueden afectar la experiencia emocional de los usuarios al interactuar con ChatGPT, incluido el uso de texto o voz. Los resultados encontraron que ambos medios tenían el potencial de inducir sentimientos de soledad o influir en la interacción social de los usuarios durante el período de estudio. La inflexión de la voz y la elección del tema también fueron un punto de comparación importante.

El uso de un tono neutral en el modo de voz de ChatGPT tuvo menos probabilidades de generar un resultado emocional negativo para los participantes. Mientras tanto, el estudio observó un vínculo entre los participantes que tenían conversaciones en persona con ChatGPT y una mayor probabilidad de sentirse solos; Sin embargo, estos efectos fueron de corto plazo. Incluso aquellos que utilizan el chat de texto para hablar sobre temas generales han experimentado un aumento de casos de dependencia emocional del chatbot.

El estudio también señaló que aquellos que informaron considerar a ChatGPT un amigo, y aquellos que ya tenían una fuerte tendencia a apego emocional en las relaciones, tenían más probabilidades de sentirse solos y emocionalmente dependientes del chatbot mientras participaban en el estudio.

El estudio de OpenAI agregó más contexto, ya que sus resultados indicaron generalmente que las interacciones con ChatGPT con fines emocionales eran raras. Además, el estudio descubrió que incluso entre los usuarios habituales que utilizaban la función de modo de voz avanzado del chatbot y eran más propensos a decir que consideraban a ChatGPT un amigo, este grupo de participantes experimentó respuestas emocionales más bajas al interactuar con el chatbot.

OpenAI concluyó que su objetivo con estos estudios es comprender los desafíos que pueden surgir con su tecnología, así como poder identificar predicciones y ejemplos de cómo se podrían utilizar sus modelos.

Si bien OpenAI señala que su estudio basado en la interacción imita los comportamientos de personas reales, más de unos pocos humanos reales han admitido en foros públicos, Me gusta Reddit, utilizando ChatGPT en lugar de acudir a un terapeuta con sus sentimientos.

Los comentarios están cerrados.