Nueva ley de IA europea: ¿Qué debemos saber los ciudadanos y las empresas?

Nueva Ley de IA europea: ¿Qué debemos saber los ciudadanos y las empresas?

La Ley de Inteligencia Artificial europea entró en vigor el pasado 1 de agosto, y aunque cuenta con un periodo de aplicación de 2 años, los primeros plazos comienzan a los 6 meses. Así, en febrero de 2025 se deberán implementar las disposiciones generales, las obligaciones de los sistemas prohibidos o de riesgo inaceptable y los códigos de conducta (de carácter voluntario). Pero, ¿qué debemos saber sobre esta ley los ciudadanos y las empresas?

Bruselas espera que la Ley de IA se transforme en un referente a nivel global, como ocurrió con el Reglamento Europeo de Protección de Datos. Sin embargo, son muchas las dudas sobre si esta Ley acabará siendo asimilada con la misma eficiencia. Al respecto, José Andrés García, country leader de Qlik para España y Portugal, explica a PRNoticias los pormenores de la normativa, y su repercusión.

¿Está Europa a la vanguardia, o ya hay precedentes?

Con la aprobación de este reglamento, la Unión Europea se ha posicionado como líder indiscutible a nivel global en la regulación de este tipo de soluciones tecnológicas y protección del usuario, ya que se obliga a los proveedores a adaptar sus productos a las restricciones europeas, con altas sanciones en caso de no hacerlo, y crea un mecanismo de presentación de quejas para que los usuarios puedan denunciar cualquier vulneración de sus derechos fundamentales.

¿Qué debemos saber los ciudadanos sobre la Ley de Inteligencia Artificial?

Antes de nada, los ciudadanos han de comprender que estamos ante un reglamento europeo que tiene como objetivo la regulación de la Inteligencia Artificial. Así pues, entre sus prioridades se encuentran la seguridad y el respeto de los derechos fundamentales, en conclusión, proteger al ciudadano. Es importante saber que esta es la primera regulación de la IA a gran escala promovida por un actor supranacional y busca que las diferentes ramas de la Inteligencia Artificial tengan un impacto positivo en nuestra vida. Es decir, limitar los posibles usos negativos que puedan existir. La Ley divide los sistemas de IA en categorías, en función del riesgo potencial que suponen para la sociedad. Y a los que se considera de alto riesgo se les aplican normas estrictas antes de que puedan entrar en el mercado de la UE.

¿Y qué deben saber las empresas?

En su otra vertiente, la empresarial, se busca impulsar la innovación. La creación de un marco jurídico definido permite a las compañías actuar de forma clara y concreta a la hora de desarrollar sus productos y recibir el apoyo de las administraciones nacionales y supranacionales. Por ejemplo, se establecen “sandboxes” regulatorios para fomentar la innovación y realizar pruebas controladas. De esta forma, se pone a disposición de las PYMES y empresas emergentes espacios seguros para entrenar modelos basados en Inteligencia Artificial. Por otro lado, esta ley tiene un componente internacional muy marcado y establece en sus prioridades la creación de una cooperación global que ayude a fomentar el desarrollo, pero siempre desde un apartado ético y moral.

Aspectos Clave de la Ley de IA Europea

¿Qué es lo más importante de esta ley?

La Ley de Inteligencia Artificial es un paso importante hacia un futuro más seguro y ético en el desarrollo y uso de la IA. Establece un marco regulatorio que fomenta la transparencia, la responsabilidad y la protección de los derechos fundamentales. Además de promover una innovación tecnológica responsable. Se espera que su implementación tenga un impacto significativo, posicionando a Europa como un líder global en la regulación de IA. Y que, además de minimizar riesgos, garantice que los avances tecnológicos son en beneficio de la sociedad en su conjunto.

En cuanto al primer Código de buenas prácticas, ¿qué deberán contemplar las disposiciones generales? ¿Y los códigos de conducta?

La Unión Europea será la encargada de elaborar dicho código y se reserva el derecho de invitar a todos los proveedores de modelos de Inteligencia Artificial de uso general, así como a las autoridades nacionales pertinentes a participar en la elaboración del código de buenas prácticas. Además, organizaciones de carácter civil, académico y otras partes interesadas podrán ser llamadas a apoyar el proceso. Las disposiciones generales de dicho código estarán enfocadas a salvaguardar y garantizar el cumplimiento de las restricciones recogidas en la normativa. Así, la Oficina de la Inteligencia Artificial y el Consejo tratarán de garantizar que los códigos de buenas prácticas establezcan claramente sus objetivos específicos y contengan compromisos o medidas, incluidos indicadores clave de resultados, según proceda, para asegurar la consecución de dichos objetivos, y que tengan debidamente en cuenta las necesidades e intereses de todas las partes interesadas, incluidas las personas afectadas, a escala de la Unión.

¿Cuáles son los sistemas prohibidos? ¿Y cuáles están sujetos a más controles?

La ley clasifica las aplicaciones de Inteligencia Artificial en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Las aplicaciones y sistemas que se consideran de riesgo inaceptable están prohibidos de manera absoluta. Aquellos que se catalogan como de alto riesgo deben cumplir con requisitos legales específicos antes de poder ingresar al mercado. El resto, por ahora, permanece mayormente sin regulación. Así, se consideran de riesgo inaceptable aquellas utilidades como la vigilancia biométrica en tiempo real en espacios públicos o los sistemas de puntuación social. También incluye la captura indiscriminada de imágenes faciales de internet o el uso de grabaciones de cámaras de vigilancia. En resumen, estas son aplicaciones que vulneran los derechos de la ciudadanía.

¿A qué sectores afecta principalmente esta ley?

La Inteligencia Artificial ya se encuentra democratizada entre la sociedad a través de grandes modelos de lenguaje como Chat GPT, lo que conlleva que hayamos racionalizado la IA como una herramienta más en nuestro día a día. Esto implica que todos los sectores, en mayor o menor medida, se van a ver afectados. Sin lugar a dudas, el sector tecnológico va a ser el mayor perjudicado. Hasta ahora los desarrolladores de grandes modelos de Inteligencia Artificial no disponían de un marco jurídico que delimitase su actividad, por lo que en muchas ocasiones la ética y la moral quedaban en un segundo plano a la hora de entrenar a los algoritmos. Gracias a esta ley, los ciudadanos europeos gozarán de privacidad y seguridad frente a cualquier solución del estilo.

¿Qué es lo más difícil de acatar?

La mayor dificultad se encuentra en garantizar la privacidad de los datos de los usuarios y el cumplimiento del RGPD. Para desarrollar los grandes modelos de lenguaje es necesario entrenar a los algoritmos con grandes volúmenes de datos e información, por lo que se ha de tener mucho cuidado para asegurar que todo lo que se está incluyendo es verídico y no vulnera en ningún momento la privacidad de los ciudadanos.

¿En qué medida afectará esta Ley al desarrollo de la IA en Europa?

La principal función de este reglamento, más allá de garantizar los derechos fundamentales y la privacidad de los ciudadanos, es potenciar la innovación empresarial y posicionar a Europa como líder global en materia de Inteligencia Artificial. Contar con un marco jurídico delimitado permite a las empresas actuar con claridad y vislumbrar una guía que les enseña por donde avanzar sin incumplir la ley. Además, la Unión y los países miembros se encargarán de apoyar económicamente y dotar de infraestructura a las compañías para que desarrollen sus productos. Como hablábamos anteriormente se van a establecer entornos diseñados para llevar a cabo prácticas y ensayos en materia de IA. Además, los países de la UE contarán con oficinas locales para supervisar y apoyar la inserción de la Inteligencia Artificial en las compañías, como es en España el caso de la AESIA, sita en A Coruña.

Seguiremos Informando…

Fuente de info: Prnoticias