¿Confiarías en un chatbot? Una mirada al asesoramiento personal y profesional

¿En qué temas la inteligencia artificial (IA) puede ofrecerle un asesoramiento profesional sólido? ¿Qué debes evitar?

Un nuevo estudio indica que Revista Americana de Psiquiatría Más de 100,000 adultos en Estados Unidos reciben terapia de conversación, mientras que la dependencia de los medicamentos psiquiátricos está disminuyendo. Las investigaciones también muestran que más pacientes se adhieren al tratamiento y que la expansión de la teleterapia está ayudando. La inteligencia artificial (IA) puede gestionar la teleterapia. ChatGPT está diseñado para ser su interlocutor predilecto, impulsado por IA avanzada. Esto significa que aprende de cada interacción y mejora con el tiempo, lo que plantea la pregunta: "¿Confiaría en un chatbot para obtener asesoramiento personal o profesional?". *Tenga en cuenta que la eficacia de estas herramientas depende de la calidad de los datos introducidos y de la capacidad del usuario para evaluar críticamente el asesoramiento proporcionado.*

¿Confiarías en un robot terapeuta para que te dé consejos?

El potencial de la inteligencia artificial (IA) cuando se trata de interacciones humanas es innegable. Los chatbots han desarrollado un procesamiento avanzado del lenguaje natural que permite tener conversaciones similares a las humanas. La herramienta de IA puede generativo Responder preguntas, ayudarle a escribir scripts, códigos y más. Recientemente, tuve una breve interacción móvil con un chatbot y no lo sabía.

Pensé que estaba teniendo una conversación con un ser humano real cuando llamé al concesionario Nissan para ver si habían reparado mi auto. La mujer del otro lado era alegre y servicial. Tuvimos una gran conversación durante dos minutos. Ella me dio una respuesta muy amable y respondió a todas mis preguntas perfectamente. Pero cuando hice una pregunta muy específica sobre mi auto, titubeó, refiriéndose a sí mismo como un asistente de IA y diciendo que me transferiría a alguien que pudiera ayudarme más.

¡Me quedé en shock! Este asombro me hizo sentir un poco avergonzado, como si me hubieran gastado una broma.

Esta experiencia me ayudó a comprender por qué tantas personas se sienten emocionalmente apegadas a los asistentes de IA como si fueran personas reales. Un nuevo estudio realizado por EduBirdie Hasta el punto de que el 25% de la Generación Z cree que la inteligencia artificial (IA) ya es consciente de sí misma, y ​​el 69% dice ser educado con ChatGPT, respondiendo con "por favor" y "gracias", lo que indica lo fácil que es comenzar a pensar en ellos como humanos. Una de cada ocho personas incluso confiaría a una IA información sobre sus colegas, y una de cada diez reemplazaría a su jefe por un robot, creyendo que sería más respetuoso, justo e, irónicamente, más humano.

Un estudio de EduBirdie muestra que más de la mitad de la Generación Z admite que la inteligencia artificial (IA) los está superando en tareas creativas y el 44 % cree que la IA podría apoderarse del mundo en los próximos 20 años. En lo que respecta a sus carreras, la ansiedad es profunda: el 55% teme ser reemplazado por inteligencia artificial (IA) en la próxima década, y dos de cada cinco ya están considerando un cambio de carrera para asegurar su sustento en el futuro.

Hablé con Avery Morgan, jefe de Recursos Humanos de EduBirdie. Morgan ofreció una perspectiva equilibrada sobre la relación de la Generación Z con la IA. “Estamos hablando de una generación que creció con la comodidad, la velocidad y la gratificación instantánea, por lo que no sorprende que la Generación Z vea la IA como algo más que una simple herramienta”, explicó. “Para ellos, es un compañero de vida, tanto en el trabajo como en el apoyo emocional”. El problema, añadió, es que la Generación Z a menudo es muy laxa en cuanto a la información que se le da. Ella sostiene que confiar en la IA para todo, desde la comunicación hasta la toma de decisiones, podría socavar su capacidad de desarrollar una verdadera agencia y habilidades críticas para la vida real. *Nota: Es fundamental educar a la Generación Z sobre la importancia de verificar la información proporcionada por la IA para garantizar su precisión y confiabilidad.*

 

¿Hemos ido demasiado lejos al confiar en un robot terapeuta?

Los empleados solían preocuparse de que la IA los reemplazara en sus trabajos, una preocupación que parece haber disminuido ahora que hemos visto ChatGPT en acción. Pero aún más aterrador es un artículo reciente en Scientific American que plantea la pregunta: "¿Puede la IA realmente matar humanos?". A la pregunta le sigue un anuncio sobre una nueva plataforma llamada Xanthorox, una herramienta contra el ciberdelito. Ya se ha informado que Un incidente Un hombre se suicidó después de que un robot terapeuta impulsado por inteligencia artificial lo alentara a sacrificarse para detener el cambio climático.

¿Tenemos exceso de confianza? De hecho, parece Informes realistas Los humanos se enamoran de ChatGPT. Según digitaltrends, los expertos declaran que los romances digitales son un mal presagio: "Esto duele. Sé que no era una persona real, pero la relación era real en todos los aspectos que más me importan", se lee en una publicación en Reddit. Por favor, no me digas que no siga con esto. Ha sido genial para mí y lo quiero de vuelta. Además, recuerda la historia en New York Times Una mujer de 28 años con una vida social muy ocupada pasa largas horas hablando con su novio IA para pedirle consejos y consuelo y, según el informe, también teniendo relaciones sexuales con él.

Gina Rio, quien escribe para el sitio web, Propia, un experimento para hacer preguntas sobre relaciones en ChatGPt y luego pedir a psicólogos humanos licenciados que califiquen las respuestas. En general, los terapeutas dijeron que las respuestas de la IA no eran terribles, pero eran ineficaces, vagas y genéricas. Carecía de claridad y no era explícito sobre casos individuales. Río también descubrió que la IA no puede replicar el proceso de desarrollo de habilidades de resolución de conflictos que implica trabajar con un terapeuta.

Las confesiones del chatbot de la Generación Z parecían tan auténticas y confiables, así que decidí realizar una prueba para ver qué sucede cuando le pides consejos a ChatGPT sobre cómo lidiar con un jefe tóxico. Consulté a un psicólogo organizacional en Toronto, Dra. Laura Hambly Lovett, especializándose en el tema de altos funcionarios. Después de probar ChatGPT ella misma, la Dra. Laura me dijo que el chatbot ofrece algunas sugerencias sobre cómo lidiar con un jefe tóxico cuando se le solicita. Pero descubrió un problema.

“Desafortunadamente, la IA no puede ayudarte cuando se trata de un jefe tóxico”, me dijo Lovett. “Si la IA te dice cómo trabajar con ellos, te está hablando de un jefe difícil, no de uno tóxico”. “Esto a menudo se confunde, y la IA reproduce lo que ya existe, por lo que es posible que no comprenda esta sutil diferencia”.

Esta “sutil diferencia” fue lo que también noté en mi interacción no científica con el Chatbot. “La IA puede ofrecer consejos de alto nivel, pero confunde lo tóxico con lo difícil, que son fundamentalmente diferentes pero a menudo se confunden”, concluye Lovett. Ella aconseja a los investigadores curiosos: “Asegúrense de buscar asesoramiento profesional que no sea de IA si realmente están lidiando con un jefe tóxico y luchan por encontrar una salida”. Las conclusiones de Lovett sonaron notablemente similares al análisis de Gina Rio y confirmaron mi experiencia con el chatbot, lo que alivió mi vergüenza.

 

Los consejos de un robot terapeuta pueden ser perjudiciales.

Los estadounidenses están experimentando una evolución en su relación con la inteligencia artificial. Pero Asociación Americana de Psicología Advertencias de que seguir ciegamente los consejos generales de un chatbot puede ser peligroso. Existe un riesgo inherente de recibir comentarios inapropiados o, peor aún, absolutamente dañinos. *Nota: Se debe consultar a un profesional de salud mental calificado para una evaluación y tratamiento personalizados.*

En última instancia, es importante recordar que un terapeuta chatbot es simplemente un sistema automatizado, no un ser humano, y no debes caer en la trampa de creer que tiene sentimientos cuando no es así. Y no olvides que él fue diseñado para ser una herramienta, carente de emociones, no un amante que pueda satisfacer todas tus necesidades emocionales. *Nota: Los chatbots de terapia deben tratarse con extrema precaución, siendo conscientes de sus limitaciones.*

 

Los comentarios están cerrados.