Google abre la puerta a usar Inteligencia Artificial para desarrollar armas y equipos de vigilancia
La empresa propietaria de Google, Alphabet, ha abandonado su compromiso de no utilizar inteligencia artificial (IA) para el desarrollo de armas u otras herramientas de vigilancia, argumentando que los gobiernos necesitan trabajar juntos en una IA que "apoye la seguridad nacional".
El pasado martes, la compañía estadounidense reveló que se habían producido cambios en sus directrices éticas sobre IA, aunque no detallaron inicialmente en qué consistían estas modificaciones. Al comparar el nuevo documento con su versión anterior, se observa que se ha eliminado la cláusula que prohibía la aplicación de estas tecnologías a "sistemas que causen o puedan causar daño general", incluidas las armas, en línea con principios internacionales en derechos humanos, tal como recoge EFE.
¿Por qué han cambiado las directrices?
El jefe de inteligencia artificial de Google, Demish Hassabs, y el vicepresidente sénior de tecnología y sociedad, James Manyika, se pronunciaron sobre los cambios en el blog oficial de la empresa. "Desde que publicamos nuestros principios de IA en 2018, la tecnología ha evolucionado rápidamente", afirman al inicio de su declaración.
Los directivos destacan que "existe una competencia global por el liderazgo en IA" dentro de un "panorama geopolítico cada vez más complejo". En este contexto, subrayan su creencia de que "las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto a los derechos humanos". Además, defienden que "organizaciones que compartan estos valores deben trabajar juntas para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional".
Estos planteamientos marcan un giro de 180 grados para la empresa estadounidense, que en 2018, año en que publicó por primera vez sus principios de IA, rechazó una oferta millonaria del Pentágono, alegando que no podían "estar seguros de que se alinearía con nuestros principios de inteligencia artificial", como recuerda la CNN.
El lanzamiento de ChatGPT en 2022 representó un punto de inflexión en la carrera por la inteligencia artificial. Desde entonces, su uso ha crecido rápidamente en diversos campos, desatando debates sobre cómo debería ser regulada, especialmente después de comprobar su efectividad en contextos como la guerra en Ucrania, donde ha sido empleada en cuestiones que van desde la toma de decisiones estratégicas, vigilancia y seguimiento del enemigo al lanzamiento de ataques. A pesar de todo ha probado ser una asignatura pendiente para más potencias.