Google utilizará la Inteligencia Artificial para el desarrollo de armas o vigilancia

Crédito: @GoogleAI.
Google actualizó este martes sus guías éticas en el uso de la Inteligencia ArtificIal (IA) y excluyó el compromiso de no aplicar esta tecnología en aplicaciones relacionadas armas o vigilancia que violen normas internacionales o contraríen los derechos.
La redacción anterior, disponible en internet hasta la semana pasada y que se puede consultar en Internet Archive, incluía aplicaciones que evitaría utilizar como “tecnologías que causan o es probable que causen daño general”, incluidas las armas, en línea con principios internacionales en derechos humanos.
Los cambios y la nueva visión de la compañía sobre sus principios de la IA fueron explicados este martes en el blog de la multinacional en un escrito firmado por el jefe de IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika.
Google considera que “las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, indica el documento.
“Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”, agrega.
La nueva actualización incluirá en este sentido disposiciones como que la empresa recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios “ampliamente aceptados del derecho internacional y los derechos humanos”.
Google, una empresa que una vez se rigió por el lema “no ser el malo”, parece estar cambiando de rumbo. El gigante tecnológico anunció cambios significativos en su política de inteligencia artificial (IA) que, desde 2018 hasta hace muy poco, había guiado el trabajo de la compañía en IA.
Los principios de responsabilidad en IA de Google anteriormente establecían que la compañía no desarrollaría IA “para su uso en armas” o donde el propósito principal fuera la vigilancia. Google se había comprometido a “no diseñar ni desplegar IA” que cause “daño general” o “contravenga los principios ampliamente aceptados del derecho internacional y los derechos humanos”. Estos compromisos ya no son válidos.
Los nuevos principios de la empresa afirman que los productos de inteligencia artificial de Google “se ajustarán: a los derechos humanos, sin explicar cómo. Este alejamiento de los usos explícitamente prohibidos de la IA es muy preocupante. A veces, simplemente es demasiado arriesgado utilizar la IA, un conjunto de tecnologías complejas y de rápido desarrollo cuyas consecuencias estamos descubriendo en tiempo real.
El hecho de que un líder mundial de la industria como Google pueda abandonar de repente prácticas autoproclamadas prohibidas subraya por qué las directrices voluntarias no son un sustituto de la regulación y la legislación obligatoria. La legislación y las normas internacionales vigentes en materia de derechos humanos son aplicables al uso de la IA, y la regulación puede ser crucial para llevar las normas a la práctica.
No está claro hasta qué punto Google seguía sus anteriores principios de responsabilidad en IA, pero los trabajadores de Google pudieron al menos citarlos para oponerse a un supuesto desarrollo irresponsable de la IA.
El giro de Google, que ha pasado de negarse a construir IA para armas a declarar su intención de crear IA que respalde empresas de seguridad nacional, es contundente. Los ejércitos utilizan cada vez más la IA en la guerra, donde su dependencia de datos incompletos o defectuosos y de cálculos erróneos aumenta el riesgo de daños a civiles. Estas herramientas digitales complican la rendición de cuentas por decisiones tomadas en el campo de batalla que pueden tener consecuencias de vida o muerte.
Los directivos de Google describen una “competencia mundial… por el liderazgo en IA” y afirman que creen que el desarrollo de la IA debe “guiarse por valores fundamentales como la libertad, la igualdad y el respeto de los derechos humanos”. Sin embargo, la empresa está restando prioridad a la consideración de cómo las nuevas y potentes tecnologías afectan a nuestros derechos. Esto parece destinado a desembocar en una carrera a pique.
De acuerdo con los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos, todas las empresas deben cumplir con su responsabilidad de respetar los derechos humanos en todos sus productos y servicios. En el contexto del uso militar de la IA, lo que está en juego no podría ser más grave.
Leave a reply
Lo siento, debes estar conectado para publicar un comentario.