ChatGPT puede solicitar una prueba de tu identidad si su nuevo sistema de predicción de edad sospecha que eres menor de 18 años.
ChatGPT está desarrollando actualmente un sistema automatizado de detección de edad que puede determinar si un usuario es menor de 18 años. En algunos casos, cuando esto no se puede determinar, el chatbot puede solicitar a los usuarios que proporcionen una identificación oficial para demostrarlo.

OpenAI, la empresa detrás de ChatGPT, está mejorando sus herramientas de control parental y está bajo creciente presión por el caso de alto perfil de Adam Renn, de 16 años. ¿Cuya familia afirma que ChatGPT contribuyó a su suicidio?.
“ChatGPT está destinado a mayores de 13 años”, explicó el director ejecutivo Sam Altman en una publicación de blog titulada “Seguridad, libertad y privacidad de los adolescentes”.
"Estamos trabajando en la construcción de un sistema de predicción de edad para estimar la edad en función de cómo las personas usan ChatGPT", dijo. كتبEn caso de duda, preferiremos la cautela y volveremos a la experiencia para menores de 18 años. En algunos casos o países, también podríamos solicitar identificación; sabemos que esto representa una concesión a la privacidad de los adultos, pero creemos que es una compensación que vale la pena.
En algunos casos o países, también podemos solicitar una identificación; sabemos que esto representa un compromiso de la privacidad de los adultos, pero creemos que es una compensación que vale la pena.
Altman continúa explicando que algunos elementos de las respuestas de ChatGPT estarán bloqueados para los adolescentes, como las respuestas de chat con contenido coqueto o las conversaciones sobre autolesiones. Afirma que la compañía priorizará la seguridad sobre la privacidad y la libertad de los adolescentes, explicando que los menores necesitan una protección considerable.
Finalmente, añade que si un adolescente expresa pensamientos suicidas al chatbot, este intentará contactar a sus padres para alertarlos. Si esto no es posible, ChatGPT intentará contactar a las autoridades.
“Reconocemos que estos principios entran en conflicto y que no todos estarán de acuerdo con cómo lo resolvamos”, escribió Altman. “Son decisiones difíciles, pero tras hablar con expertos, creemos que es lo mejor y queremos ser transparentes sobre nuestras intenciones”.
El Dr. Brian Ramos, neurocientífico e investigador de longevidad en Simplemente nootrópicosTom's Guide dice que OpenAI está tomando la decisión correcta.
“Como neurocientífico especializado en longevidad y bienestar holístico, acojo con agrado medidas de protección como los sistemas de predicción de la edad y los controles parentales”, me dijo por correo electrónico.
Los cerebros de los adolescentes aún están en desarrollo, lo que los hace más vulnerables tanto a los beneficios como a los riesgos de la inteligencia artificial. ChatGPT puede ser un complemento útil para conversaciones terapéuticas informales y ligeras, ayudando a aliviar el estrés, a meditar y a desarrollar hábitos saludables.
Pero cuando se trata de problemas psicológicos profundos, especialmente en relación con autolesiones o traumas, siempre se debe consultar a profesionales humanos. La tecnología puede apoyar, pero nunca debe reemplazar, la atención terapéutica genuina.
Controles parentales de ChatGPT: ¿Qué sigue?

Los próximos controles parentales de ChatGPT permitirán a los padres vincular sus cuentas con las cuentas de sus hijos adolescentes.
Esto les permite implementar configuraciones en nombre de sus hijos, como establecer horarios de bloqueo durante los cuales no pueden usar la plataforma o desactivar el historial de chat. Al vincular las cuentas, ChatGPT también podrá notificar a los padres si detecta indicios de comportamiento preocupante o potencialmente dañino en sus interacciones con el menor.
Los comentarios están cerrados.