El gobierno de EEUU evaluará el desarrollo de la inteligencia artificial
El gobierno del presidente Joe Biden iniciará un polémico debate sobre si los sistemas más poderosos de inteligencia artificial deberían ser de fuentes de código abierto o cerrado.
La Casa Blanca informó el miércoles que buscará opiniones públicas sobre los riesgos y beneficios de tener los componentes clave de un sistema de inteligencia artificial disponibles públicamente para que cualquiera los utilice y modifique. El sondeo es una pieza de una orden ejecutiva más amplia que Biden promulgó en octubre para abordar la tecnología de rápida evolución.
Las empresas tecnológicas están divididas sobre qué tan abiertos deben ser los modelos de inteligencia artificial, algunos enfatizan los peligros de tener los componentes demasiado accesibles y otros señalan que la ciencia abierta es importante para científicos y empresas de reciente creación. Entre los promotores más vocales de un método abierto han sido Meta Platforms, dueño de Facebook, e IBM.
La orden de Biden describe modelos abiertos con el nombre técnico de “modelos fundacionales de uso dual con pesos ampliamente disponibles” y dice que necesita más estudio. Los pesos (weights) son valores numéricos que influyen en el desempeño de un modelo de inteligencia artificial.
Cuando esos pesos se colocan públicamente en internet, “puede haber sustanciales beneficios para la innovación, pero también importantes riesgos de seguridad, por ejemplo, la eliminación de las salvaguardias dentro del modelo”, dice la orden de Biden. El presidente dio a la secretaria de Comercio Gina Raimondo hasta junio para hablar con expertos y obtener recomendaciones sobre los potenciales beneficios y riesgos.
Ahora, la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio dijo que abrirá un período de comentarios de 30 días para presentar ideas que se incluirán en un informe al presidente.
“Una noticia alentadora es que para los expertos está claro que no se trata de una cuestión binaria. Hay gradientes de apertura”, dijo Alan Davidson, subsecretario de Comercio y administrador de la NTIA. Davidson dijo a los periodistas el martes que es posible encontrar soluciones que promuevan tanto la innovación como la seguridad.
El Center for Humane Technology, un viejo crítico de las prácticas de Meta en las redes sociales, está entre los grupos que llaman la atención sobre los riesgos de los modelos de IA de código abierto o filtrados.
¿ESTÁ SEMBRANDO ALARMISMO?
Ha surgido un debate cada vez más público sobre las ventajas o los peligros de adoptar un enfoque de código abierto para el desarrollo de la IA.
LeCun dijo en X, antes Twitter, que le preocupaba que el alarmismo de sus colegas científicos sobre los “escenarios catastrofistas” de la IA estuviera dando argumentos a quienes quieren prohibir la investigación y el desarrollo de código abierto.
“En un futuro en el que los sistemas de IA están a punto de constituir el repositorio de todo el conocimiento y la cultura humanos, necesitamos que las plataformas sean de código abierto y de libre acceso para que todo el mundo pueda contribuir a ellas”, escribió LeCun. “La apertura es la única forma de hacer que las plataformas de IA reflejen la totalidad del conocimiento y la cultura humanos”.
Yann LeCun, científico jefe de IA de Meta, atacó este otoño en las redes sociales a OpenAI, Google y la startup Anthropic por lo que describió como un “cabildeo masivo de las empresas” para redactar las normas de forma que beneficien a sus modelos de IA de alto rendimiento y puedan concentrar su poder sobre el desarrollo de la tecnología. Las tres empresas, junto con Microsoft, socio clave de OpenAI, han formado su propio grupo industrial llamado Frontier Model Forum.
“Es una especie de enfoque clásico de captura reguladora para tratar de suscitar temores sobre la innovación de código abierto”, dijo Chris Padilla, que dirige el equipo de asuntos gubernamentales globales de IBM. “Quiero decir, este ha sido el modelo de Microsoft durante décadas, ¿verdad? Siempre se opusieron a los programas de código abierto que pudieran competir con Windows u Office. Aquí están adoptando una perspectiva similar”.
Para IBM, uno de los primeros defensores del sistema operativo Linux de código abierto en la década de 1990, la disputa se inscribe en una competición mucho más larga que precede al auge de la IA.
¿QUÉ ESTÁN HACIENDO LOS GOBIERNOS?
Fue fácil pasar por alto el debate sobre el “código abierto” en la discusión en torno a el extenso decreto del presidente Joe Biden sobre la IA.
En el decreto se describen los modelos abiertos con el nombre técnico de “modelos fundacionales de doble uso con ponderaciones ampliamente disponibles” y decía que necesitaban más estudio. Las ponderaciones son parámetros numéricos que influyen en el rendimiento de un modelo de IA.
Cuando esas ponderaciones se publican en internet, “puede haber beneficios sustanciales para la innovación, pero también riesgos sustanciales para la seguridad, como la eliminación de medidas de protección dentro del modelo”, dice la orden de Biden, quien dio de plazo hasta julio a la secretaria de Comercio de Estados Unidos, Gina Raimondo, para consultar a expertos y presentar recomendaciones sobre cómo gestionar los posibles beneficios y riesgos.
La Unión Europea tiene menos tiempo para resolverlo. En unas negociaciones que llegaron a su punto álgido el miércoles, los funcionarios que trabajan para ultimar la aprobación de una normativa global sobre IA siguen debatiendo una serie de disposiciones, entre ellas una que podría eximir a determinados “componentes de IA libres y de código abierto” de las normas que afectan a los modelos comerciales.
Para más información puedes visitar la Web Oficial o seguir las redes sociales oficiales como la Cuenta de Twitter.