Google ha modificado su política de ética en inteligencia artificial, permitiendo el uso de su tecnología en aplicaciones militares, argumentando que es necesario para defender la democracia. Las nuevas directrices eliminan compromisos previos sobre evitar usos perjudiciales, como el desarrollo de armas. Ejecutivos de la compañía advierten que los avances en IA pueden conllevar nuevos riesgos y abogan por una colaboración entre gobiernos y empresas para establecer principios que promuevan la seguridad nacional.
Los altos ejecutivos de Google han defendido un cambio significativo en su política de ética en inteligencia artificial, que ahora permite el uso de su tecnología en aplicaciones militares. Este ajuste ha sido justificado como una medida necesaria para salvaguardar los principios de la democracia.
Diversos medios de comunicación han señalado que los recientes Principios de IA de Google han eliminado el lenguaje que prohibía el uso de esta tecnología para fines perjudiciales, como el desarrollo de armas o la vigilancia, aspectos que habían sido fundamentales desde 2018.
Publicaciones reconocidas como Bloomberg y BBC News han destacado que las nuevas directrices de Google ya no incluyen un compromiso explícito para evitar que la IA se utilice de maneras “probablemente dañinas”, citando el desarrollo de armamento como un ejemplo clave.
En un blog, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto a Demis Hassabis, CEO y cofundador de Google DeepMind, exploraron a fondo las credenciales y la transparencia de la empresa en relación con la IA. Ambos enfatizaron que el continuo desarrollo tecnológico exige adaptaciones en sus políticas.
Afirmaron que las capacidades emergentes de la IA “pueden presentar nuevos riesgos”, dado que esta ha evolucionado desde ser un “tema de investigación marginal” hasta convertirse en una tecnología omnipresente utilizada por “miles de millones de personas”.
Los ejecutivos argumentaron que gobiernos, empresas y otras organizaciones deben colaborar para desarrollar principios que promuevan la seguridad nacional y otros objetivos relevantes.
No obstante, expertos consultados por Bloomberg advierten que estas nuevas directrices podrían facilitar el uso malintencionado de la IA. Esta decisión se produce en un contexto más amplio donde grandes empresas tecnológicas están adoptando posturas más rígidas, lo cual incluye la eliminación de programas relacionados con verificación fáctica y diversidad.