La ley de inteligencia artificial de la Unión Europea entra en vigor

La Ley de IA es el primer marco jurídico sobre IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a nivel mundial.
0
478

La ley de inteligencia artificial de la Unión Europea, pionera en el mundo, entra en vigor con el fin de regular el uso de esta tecnología en función del riesgo que suponga para las personas e impulsar al mismo tiempo la industria europea frente a gigantes como China o Estados Unidos.

Por lo que permite, y por lo que prohíbe, el Reglamento europeo de Inteligencia Artificial que hoy entra en vigor es fundamental para las personas, pero es también, según los expertos, trascendental para las empresas que utilizan sistemas basados en esta tecnología emergente, que se deben adaptar al nuevo marco y que se enfrentan a sanciones millonarias si incumplen.

Es la primera ley del mundo que regula una tecnología presente ya en todos los ámbitos de la sociedad y que está generando numerosos beneficios, pero que arrastra también múltiples riesgos que este reglamento quiere atajar, y para ello regula su uso en función del riesgo que suponga para las personas o para la sociedad.

Frente a quienes alertan de que la Unión Europea pierde el tren de las tecnologías más disruptivas e innovadoras como la inteligencia artificial ante gigantes como Estados Unidos o China, el reglamento europeo pone el foco en la importancia de impulsar y robustecer a la industria europea y en la necesidad de estimular las inversiones y la innovación en este campo en todos los países europeos.

“Dirigirá el desarrollo de una inteligencia artificial (IA) en la que los europeos puedan confiar y proporcionará apoyo a las pymes y ‘start-ups’ europeas para que traigan al mercado soluciones de IA innovadoras”, dijo en la red social X la presidenta de la Comisión Europea, Ursula von der Leyen.

La ley permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si respetan los derechos fundamentales.

En concreto, distingue entre sistemas de IA que presentan un “riesgo inaceptable” por ser una amenaza para los derechos fundamentales y que estarán prohibidos; sistemas de “alto riesgo”, que no estarán vetados pero sí sujetos a estrictos requisitos; IA con riesgos de transparencia, como los ‘chatbots’; y sistemas de riesgo “mínimo”, que son la mayoría y no estarán sujetos a las normas.

Siguiendo esta clasificación, la ley prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por raza y orientación sexual; los que puntúan a las personas en función de su comportamiento y características personales; y la IA capaz de manipular el comportamiento humano.

También estarán vetados los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales; y en los centros de trabajo y escuelas estarán prohibidos los sistemas que pueden reconocer emociones.

Previa autorización judicial

En general, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que en ciertos casos las fuerzas del orden puedan emplear las cámaras de identificación biométrica con previa autorización judicial, lo que constituyó uno de los puntos más difíciles de las negociaciones entre Eurocámara y Estados para pactar la ley.

Así, podrán hacer usos de estos sistemas para evitar una amenaza terrorista inminente, para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o un crimen medioambiental, por ejemplo, así como para buscar a las víctimas de estos delitos.

El reglamento identifica además sistemas de alto riesgo que solo podrán comercializarse si sus desarrolladores garantizan que respetan los derechos fundamentales, por ejemplo, los que puedan influir en el resultado de unas elecciones o los que empleen las entidades financieras para evaluar la solvencia y calificación crediticia de los clientes.

Por otro lado, establece una serie de obligaciones para los sistemas de inteligencia artificial de uso general en los que se basan programas como ChatGPT, de la empresa OpenAI, o Bard, de Google.

En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Las empresas que incumplan se enfrentan a multas de hasta el 7 % de su facturación global anual cuando sean infracciones ligadas a aplicaciones prohibidas, hasta el 3 % cuando estén vinculadas a otras obligaciones; y de hasta el 1.5 % de la facturación por proporcionar información incorrecta.

Los Estados de la UE tienen hasta el 2 de agosto de 2025 para designar a la autoridad que se encargará de aplicar la legislación a nivel nacional, mientras que a escala europea la tarea recaerá en una nueva Oficia de IA en la Comisión Europea.

La mayoría de disposiciones de la ley se aplicarán a partir del 2 de agosto de 2026 con excepción de la prohibición de los sistemas de riesgo inaceptable, que será efectiva dentro de seis meses, y las normas para IA de uso general, que lo serán en un año.

Del riesgo “mínimo” al inaceptable

La nueva ley europea, en vigor desde hoy pero que tiene todavía un recorrido de varios años hasta completar su despliegue, incide en la importancia de que los sistemas de inteligencia artificial que se utilicen en la UE sean seguros y respeten los derechos de las personas y establece diferentes niveles de riesgo: los mínimos, los limitados, los altos y los “inaceptables”, que serán -los dos últimos- los más estrechamente vigilados.

Entre los usos expresamente prohibidos destacan los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas, o por raza u orientación sexual, y aunque la norma pretende poner coto a los abusos y garantizar la seguridad y la adecuada protección de los datos personales de las personas, durante los últimos días y ante la entrada en vigor de la norma los expertos han puesto el acento en las importantes repercusiones que la norma va a tener para las empresas y muchos de los servicios que prestan a los ciudadanos.

La consultora CE Consulting, especializada en el asesoramiento a pequeñas y medianas empresas, ha observado que la norma europea va a tener un impacto fiscal sobre muchas empresas, importantes implicaciones laborales para garantizar la formación de los empleados en el ámbito de la IA, y va a requerir un profundo conocimiento jurídico para evitar las sanciones y asegurar la adecuada gestión de los datos y de la privacidad.

Víctor Millán, abogado especialista en esta materia de esta consultora, ha apuntado a EFE que las empresas tratarán de realizar todo tipo de estrategias de optimización fiscal, y con ese objetivo buscarán incentivos fiscales y subvenciones para el desarrollo e implementación de sistemas de inteligencia artificial, o invertirán en formación y reciclaje profesional para que sus empleados se adapten a los cambios tecnológicos y asegurar un uso “seguro y ético” de éstos.

A su juicio, la nueva ley presenta para las empresas “desafíos y oportunidades”, porque fomenta la innovación “responsable” e incentiva a las empresas a desarrollar tecnologías basadas en la inteligencia artificial “siempre que sean éticas y seguras”, pero establece un marco regulador “riguroso”.

Sesgos algorítmicos, discriminación y falta de transparencia

La consultora tecnológica internacional Entelgy, presente en varios países de Europa y América, ha observado que aunque la mayoría de la población conoce la existencia de este nuevo reglamento europeo, sólo un porcentaje mínimo -que cifra en el 7 por ciento- conoce cómo le va a afectar la nueva regulación.

La empresa ha corroborado cómo la inteligencia artificial ha avanzado a pasos agigantados, transformado la sociedad y generado grandes oportunidades, pero también las preocupaciones sobre privacidad, seguridad y ética que genera, debido a la proliferación de aplicaciones sin una supervisión adecuada que exponen vulnerabilidades como los “sesgos algorítmicos”, la discriminación o la falta de transparencia.

Ha incidido esta consultora en las implicaciones para las empresas proveedoras de IA, que deben modificar sus procesos para cumplir la nueva norma, lo que va a suponer hacer evaluaciones exhaustivas de riesgos y asegurar la conformidad con los requisitos técnicos y de transparencia e incorporar principios éticos y de seguridad en todas las fases del desarrollo de sistemas de IA.

Los responsables de esta empresa han valorado que el nuevo reglamento europeo, al garantizar la protección de los derechos fundamentales y mejorar la seguridad de las aplicaciones de IA, va a fomentar la confianza de los ciudadanos en las tecnologías emergentes, y han augurado que la influencia de la norma se extenderá a todo el mundo ya que todas las empresas que operan a nivel global deberán adaptarse a este marco para operar en el mercado europeo, lo que incentivará la adopción de prácticas más responsables en todo el mundo.

Líneas rojas, lagunas y fallos

En el mismo sentido, la empresa Enreach, especializada en servicios de comunicaciones como la automatización de los servicios de atención al cliente, ha incidido en cómo la inteligencia artificial puede ser un aliado perfecto de las empresas para atender a sus clientes a través de múltiples disciplinas como el “aprendizaje automático”, el “procesamiento del lenguaje natural” o la IA generativa.

Esta compañía ha observado que, de acuerdo con la nueva norma, los sistemas de IA que impliquen niveles de riesgo “mínimos” se pueden usar libremente; los de riesgo “limitado” -como los “chatbots” que simulan una conversación y proveen respuestas automáticas- requieren que se informe de su uso; y los de “alto riesgo” sólo se podrán usar en el territorio UE si respetan los valores y derechos europeos y estarán estrictamente vigilados.

La Federación de Consumidores y Usuarios CECU ha valorado las “líneas rojas” que incluye el Reglamento, aunque considera no protege adecuadamente a las personas porque tiene “lagunas y fallos” y deja fuera de la regulación la mayoría de los algoritmos que se usan en la actualidad y que permiten discriminar a unas personas frente a otras o los que permiten hacer un perfilado de los consumidores.

Para más información puedes visitar la Web Oficial o seguir las redes sociales oficiales como la Cuenta de Twitter.

Comments are closed.