Google levanta la prohibición de la IA en armas y vigilancia: un futuro inquietante para la tecnología avanzada

Google ha levantado su prohibición de larga data sobre el uso de inteligencia artificial en armas y sistemas de vigilancia, lo que indica un cambio importante en la postura ética de la compañía sobre el desarrollo de IA que, según ex empleados y expertos de la industria, podría transformar la forma en que Silicon Valley aborda la seguridad de la IA.

Este cambio, que se implementó silenciosamente esta semana, elimina partes clave de Principios de IA de Google que prohibía explícitamente a la empresa desarrollar IA para armas o vigilancia. Éstos fueron los principios que Fue fundada en 2018., sirviendo como referente de la industria para el desarrollo responsable de IA.

Tracy Pizzo-Fry, quien pasó cinco años implementando los principios de IA nativa de Google como directora sénior de gestión de productos salientes, participación e IA responsable en Google Cloud, escribió en una publicación en Cielo azulEl último bastión ha caído. Google ha sido el único que ha sido tan claro en sus compromisos con lo que construirá.

Los principios revisados ​​eliminan cuatro prohibiciones específicas: tecnologías que puedan causar daño público; y aplicaciones de armas; y sistemas de vigilancia; y tecnologías que violan el derecho internacional y los derechos humanos. En cambio, dice, Google Ahora funcionará para “mitigar consecuencias no deseadas o dañinas” y será consistente con “principios ampliamente aceptados del derecho internacional y los derechos humanos”.

La flexibilización de las restricciones éticas de Google en materia de inteligencia artificial: ¿qué significa esto para las tecnologías de vigilancia y las aplicaciones militares?

Este cambio llega en un momento muy delicado, ya que las capacidades de la IA están avanzando rápidamente y los debates sobre los controles apropiados para esta tecnología están aumentando. El momento elegido ha suscitado preguntas sobre los motivos de Google, aunque la empresa sostiene que estos cambios han estado en desarrollo durante mucho tiempo.

“Nos encontramos en una situación de gran desconfianza hacia las grandes tecnológicas, y cada paso que parece eliminar los controles genera aún más desconfianza”, declaró Bezo-Fry en una entrevista con VentureBeat. Enfatizó que unos límites éticos claros eran esenciales para construir sistemas de IA confiables durante su tiempo en Google.

Los principios originales surgieron en 2018 en medio de las protestas de los empleados por Proyecto Maven, un contrato con el Pentágono que incluye el uso de inteligencia artificial para analizar imágenes de drones. Aunque Google finalmente se negó a renovar este contrato, los nuevos cambios pueden indicar una apertura a asociaciones militares similares.

La enmienda mantiene algunos elementos del marco ético anterior. Para GooglePero pasa de prohibir aplicaciones específicas a enfatizar la gestión de riesgos. Este enfoque está más en línea con los estándares de la industria como: Marco de gestión de riesgos de IA del NIST, aunque los críticos dicen que ofrece restricciones menos estrictas sobre aplicaciones potencialmente dañinas.

“Las consideraciones éticas son tan importantes como crear una buena IA, incluso si la precisión no es la misma”, señaló Bezo Fry, destacando cómo las consideraciones éticas mejoran la eficacia y la accesibilidad de los productos de IA.

Del Proyecto Maven a la transformación de políticas: el camino de Google hacia la reforma ética de la IA

Los observadores de la industria dicen que este cambio de política podría influir en cómo otras empresas tecnológicas abordan la ética de la IA. Los principios originales de Google sentaron un precedente para la autorregulación corporativa en el desarrollo de IA, y muchas empresas recurrieron a Google en busca de orientación sobre la implementación responsable de IA.

La enmienda refleja tensiones más amplias en la industria tecnológica entre la rápida innovación y las limitaciones éticas. A medida que se intensifica la competencia en el desarrollo de IA, las empresas enfrentan la presión de equilibrar el desarrollo responsable con las demandas del mercado.

"Me preocupa la rapidez con la que se difundirán las cosas en el mundo y si Plus y Plus se liberarán de las restricciones", dijo Pitso Frei, expresando su preocupación por la presión competitiva para lanzar productos de IA rápidamente sin evaluar adecuadamente las posibles consecuencias.

El gran dilema ético de la tecnología: ¿el cambio de política de inteligencia artificial de Google establecerá un nuevo estándar en la industria?

La revisión también plantea preguntas sobre los procesos internos de toma de decisiones de Google y cómo los empleados pueden abordar consideraciones éticas sin prohibiciones explícitas. Durante su mandato en Google, Bezo-Fry creó procesos de revisión que reunieron diversas perspectivas para evaluar los posibles impactos de las aplicaciones de IA.

Si bien Google mantiene su compromiso con el desarrollo responsable de IA, la eliminación de prohibiciones específicas representa un alejamiento significativo de su anterior rol de liderazgo al establecer límites éticos claros para las aplicaciones de IA. A medida que la IA continúa avanzando, el campo está monitoreando cómo este cambio podría afectar el panorama más amplio del desarrollo y la regulación de la IA.

Los comentarios están cerrados.