ESTADOS UNIDOS.- La política de ética e inteligencia artificial actualizada de Google elimina su anterior promesa de no usar la tecnología para desarrollar armas y vigilancia.
En una versión anterior de los principios vista por CNN en el archivo de internet Wayback Machine, la compañía incluía aplicaciones que no perseguiría. Una de esas categorías era armas u otra tecnología destinada a dañar a las personas. Otra era la tecnología utilizada para vigilar más allá de las normas internacionales.
Ese lenguaje desapareció en la página actualizada de la política.
Desde que OpenAI lanzó el chatbot ChatGPT en 2022, la carrera de la inteligencia artificial ha avanzado a un ritmo vertiginoso. Aunque el uso de la IA ha crecido, la legislación y las regulaciones sobre transparencia y ética en la IA aún no han alcanzado el mismo ritmo, y ahora Google parece haber relajado las restricciones autoimpuestas.
En una publicación de blog este martes, el vicepresidente senior de investigación, laboratorios, tecnología y sociedad, James Manyika, y el jefe de Google DeepMind, Demis Hassabis, dijeron que los marcos de IA publicados por países democráticos han profundizado la “comprensión de Google sobre el potencial y los riesgos de la IA”.
“Hay una competencia global en curso por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, dice la publicación del blog.
La publicación agrega, “y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”.
Google publicó por primera vez sus Principios de IA en 2018, años antes de que la tecnología se volviera casi ubicua. La actualización de Google es un cambio drástico en los valores de esos principios publicados originalmente.
En 2018, Google retiró una oferta de US$ 10.000 millones para un contrato de computación en la nube del Pentágono, al decir en ese momento que “no podíamos asegurar que se alinearía con nuestros Principios de IA”. Más de 4.000 empleados firmaron una petición ese año en la que exigían “una política clara que establezca que ni Google ni sus contratistas construirán nunca tecnología de guerra”, y alrededor de una docena de empleados renunciaron en protesta.