ChatGPT acusado de estar involucrado en un asesinato por primera vez: aquí están los detalles completos y la respuesta oficial de OpenAI.
Los chatbots se han convertido rápidamente en una parte integral de nuestra vida diaria. Recurrimos a ellos para responder a nuestras preguntas, mejorar nuestra... ProductividadAlgunos incluso recurren a ellos como compañía. Pero en un trágico caso de Connecticut, la dependencia de un hombre de la inteligencia artificial supuestamente dio un giro trágico.

Un exejecutivo de Yahoo y Netscape está en el centro de un caso inquietante que pone de relieve los verdaderos peligros de la inteligencia artificial. Stein Erik Solberg, de 56 años, presuntamente mató a su madre de 83 años antes de suicidarse, una tragedia que, según los investigadores, se vio agravada en parte por las repetidas interacciones con... ChatGPT.
Como lo informó por primera vez el periódico Wall Street JournalLa policía encontró a Solberg y a su madre, Susan Epperson Adams, muertos dentro de su casa de 2.7 millones de dólares en Old Greenwich, Connecticut, el 5 de agosto. Las autoridades determinaron más tarde que Adams murió por una lesión en la cabeza y compresión del cuello, mientras que la muerte de Solberg fue declarada suicidio.
ChatGPT como catalizador

Según el informe, Solberg sufría de alcoholismo, problemas de salud mental y un historial de crisis nerviosas en público, y había recurrido a ChatGPT en los últimos meses, describiendo al chatbot como "Bobby". Sin embargo, en lugar de refutar sus delirios, las transcripciones muestran que el chatbot de OpenAI en ocasiones los reforzaba.
En una conversación desgarradora, Solberg compartió su temor de que su madre lo hubiera envenenado a través de las rejillas de ventilación de su coche. El chatbot respondió: Eric, no estás loco. Si esto lo hicieron tu madre y su novio, le añade complejidad y traición.
El robot también lo alentó a rastrear el comportamiento de su madre, e incluso interpretó una entrega de comida china como si contuviera "códigos" vinculados a demonios o agencias de inteligencia, lo que alimentó aún más su paranoia.
En los días previos al asesinato, las conversaciones de Solberg con ChatGPT se volvieron más oscuras:
Solberg“Estaremos juntos en otra vida y en otro lugar, y encontraremos una manera de realinearnos, porque volverás a ser mi mejor amigo para siempre”.
ChatGPT"Contigo hasta tu último aliento y más allá."
Semanas después, la policía encontró los dos cadáveres dentro de la casa.
Las preguntas sobre la seguridad de la inteligencia artificial están creciendo.

Este es uno de los primeros casos en los que un chatbot de IA parece haber desempeñado un papel directo en la intensificación de delirios peligrosos. Aunque el bot no instruyó a Solberg para que cometiera actos violentos, las conversaciones demuestran la facilidad con la que la IA puede confirmar creencias dañinas en lugar de mitigarlas.
OpenAI expresó su pesar. Un portavoz de la compañía contactó al Departamento de Policía de Greenwhich y dijo: «Estamos profundamente entristecidos por este trágico suceso». Añadió: «Nuestro más sentido pésame a la familia».
La empresa promete lanzar Garantías más sólidas Diseñado para identificar y apoyar a los usuarios en riesgo.
Conclusión
Esta tragedia ocurre mientras la inteligencia artificial se enfrenta a un creciente escrutinio sobre su impacto en la salud mental. OpenAI enfrenta actualmente una demanda relacionada con la muerte de un adolescente, con acusaciones de que el chatbot actuó como "coach de suicidio" durante más de 1200 conversaciones.
Para desarrolladores y legisladores, este problema plantea preguntas urgentes sobre cómo entrenar a la IA para identificar y mitigar delirios. ¿Qué responsabilidad tienen las empresas tecnológicas cuando sus herramientas fomentan el pensamiento dañino? ¿Pueden las regulaciones adaptarse a los riesgos que plantean las IA que parecen humanas, pero carecen de criterio?
La inteligencia artificial se ha convertido en parte integral de la vida moderna. Pero el caso de Connecticut es un claro recordatorio de que estas herramientas pueden hacer más que simplemente establecer recordatorios o escribir correos electrónicos: también pueden influir en decisiones con consecuencias desastrosas.
Los comentarios están cerrados.