Ley de Inteligencia Artificial (IA) de la Unión Europea

Luego de un arduo proceso de negociaciones, el Parlamento Europeo, la Comisión Europea (CE) alcanzaron un acuerdo político sobre la Ley de IA de la Unión Europea (UE) el 8 de diciembre de 2023. De ahí en adelante se lleva a cabo un proceso de adecuación, armonización y ajustes considerando las diferentes particularidades nacionales y que está a punto de culminar (https://artificialintelligenceact.eu/es/ai-act-explorer/).

Una vez en vigor, será probablemente la primera regulación integral de la IA del mundo. Aquí se presenta la versión de finales de febrero de 2024. La ley de IA, según la CE, garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA plantean riesgos limitados o nulos y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que se deben abordar para evitar resultados indeseables.

Objetivos de la norma
Según la CE la ley de IA tiene como objetivo proporcionar a los desarrolladores e implementadores de IA requisitos y obligaciones claros con respecto a usos específicos de la IA. Al mismo tiempo, el reglamento pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYME).

La ley es parte de un paquete más amplio de medidas políticas para apoyar el desarrollo de una IA confiable, que también incluye el paquete de Innovación y el Plan Coordinado sobre IA. Juntas, estas medidas garantizarían la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. También fortalecerían la adopción, la inversión y la innovación en IA en toda la UE.

Esta ley es el primer marco jurídico integral sobre IA en todo el mundo. El objetivo de las nuevas normas es fomentar una IA fiable en Europa y más allá, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes.

Elementos clave
Según la CE la ley clasifica la IA en función de su riesgo. Al respecto, se prohíben los riesgos inaceptables (por ejemplo, los sistemas de puntuación social y la IA manipuladora). Por otra parte, la mayor parte del texto aborda los sistemas de IA de alto riesgo, que están regulados.

Una sección más pequeña se ocupa de los sistemas de IA de riesgo limitado, sujetos a obligaciones de transparencia más ligeras: los desarrolladores e implantadores deben garantizar que los usuarios finales sean conscientes de que están interactuando con IA (chatbots y deepfakes). El riesgo mínimo no está regulado (incluida la mayoría de las aplicaciones de IA actualmente disponibles en el mercado único de la UE, como los videojuegos.

Responsabilidades
La mayoría de las obligaciones recaen en los proveedores (desarrolladores) de sistemas de IA de alto riesgo anota la CE. Esto incluye a los que pretendan comercializar o poner en servicio sistemas de IA de alto riesgo en la UE, independientemente de que tengan su sede en la UE o en un tercer país; y también proveedores de terceros países en los que el producto del sistema de IA de alto riesgo se utiliza en la UE.

Los usuarios son personas físicas o jurídicas que despliegan un sistema de IA a título profesional, no usuarios finales afectados. Los usuarios (implantadores) de sistemas de IA de alto riesgo tienen algunas obligaciones, aunque menos que los proveedores (desarrolladores). Esto se aplica a los usuarios ubicados en la UE y a los usuarios de terceros países en los que la producción del sistema de IA se utiliza en la UE.

IA de propósito general (GPAI)
La norma entiende por modelo GPAI cuando se ha entrenado con una gran cantidad de datos utilizando autosupervisión a escala, que muestra una generalidad significativa y es capaz de realizar de forma competente una amplia gama de tareas distintas, independientemente de la forma en que se comercialice el modelo, y que puede integrarse en una variedad de sistemas o aplicaciones posteriores.

Todos los proveedores de modelos GPAI deben proporcionar documentación técnica, instrucciones de uso, cumplir la directiva sobre derechos de autor y publicar un resumen sobre los contenidos utilizados para la formación. Los proveedores de modelos GPAI de licencia libre y abierta sólo tienen que respetar los derechos de autor y publicar el resumen de datos de formación, a menos que presenten un riesgo sistémico.

Todos los proveedores de modelos GPAI que presenten un riesgo sistémico -abiertos o cerrados- también deben realizar evaluaciones de modelos, pruebas de adversarios, rastrear y notificar incidentes graves y garantizar protecciones de ciberseguridad.

Sistemas prohibidos
La lista elaborada por la CE incluye sistemas que desplieguen técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, causando un daño significativo. Asimismo, explotar las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos.

Por otra parte, incorpora sistemas de categorización biométrica que infieran atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida u orientación sexuales), excepto el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente o cuando las fuerzas de seguridad categoricen datos biométricos.

Contemplan también sistemas de puntuación social, es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato perjudicial o desfavorable a esas personas.

IA predictiva
La norma incluye dentro de los prohibidos a los sistemas de IA para evaluar el riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad, excepto cuando se utilice para aumentar las evaluaciones humanas basadas en hechos objetivos y verificables directamente relacionados con la actividad delictiva.

La compilación de bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de Internet o de grabaciones de CCTV; inferir emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad.

También la identificación biométrica remota (RBI) en tiempo real en espacios de acceso público para las fuerzas de seguridad con precondiciones excepto en: a) caso de búsqueda de personas desaparecidas, víctimas de secuestros y personas víctimas de la trata de seres humanos o la explotación sexual; b) prevenir una amenaza sustancial e inminente para la vida, o un ataque terrorista previsible; c) identificar a sospechosos de delitos graves.

Definición alto riesgo
Según la CE los sistemas de IA se consideran siempre de alto riesgo si realizan perfiles de las personas, es decir, el tratamiento automatizado de datos personales. Esto incluye a los que se utilizan para evaluar diversos aspectos de la vida de una persona, como su rendimiento laboral, su situación económica, su salud, sus preferencias, sus intereses, su fiabilidad, su comportamiento, su ubicación o sus movimientos.

También son de alto riesgo los sistemas que utilizan como componente de seguridad o producto cubierto por la legislación de la UE; asimismo aquellos incorporados en lista específica relativos a algunos sistemas que trabajen con datos biométricos; infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicas esenciales; fuerzas y cuerpos de seguridad; gestión de la migración, el asilo y el control de fronteras; y sobre la administración de justicia y procesos democráticos.

Requisitos alto riesgo
Según la ley los proveedores de IA de alto riesgo deben cumplir un conjunto de normas: a) establecer un sistema de gestión de riesgos a lo largo del ciclo de vida del sistema de IA de alto riesgo; b) llevar a cabo la gobernanza de los datos, garantizando que los conjuntos de datos de formación, validación y prueba sean pertinentes, suficientemente representativos y, en la medida de lo posible, estén libres de errores y completos de acuerdo con la finalidad prevista.

Luego, c) elaborar documentación técnica para demostrar la conformidad y facilitar a las autoridades la información necesaria para evaluar dicha conformidad; d) diseñar su sistema de IA de alto riesgo para que pueda registrar automáticamente los eventos relevantes para identificar los riesgos a nivel nacional y las modificaciones sustanciales a lo largo del ciclo de vida del sistema; e) proporcionar instrucciones de uso a los encargados de la implantación posterior para permitir el cumplimiento por parte de estos últimos.

Por último, f) diseñar su sistema para permitir a los desplegadores aplicar la supervisión humana; g) diseñar su sistema para alcanzar los niveles adecuados de precisión, solidez y ciberseguridad; h) establecer un sistema de gestión de la calidad para garantizar el cumplimiento.

Gobernanza
De acuerdo con la ley se creará la Oficina Europea de AI, dependiente de la CE, para supervisar la aplicación efectiva y el cumplimiento de las normas establecidas juntamente con los gobiernos nacionales que la aplicarán. Asimismo, se creará el Consejo Europeo de IA que estará compuesto por un representante de cada Estado miembro. El Supervisor Europeo de Protección de Datos participará en calidad de observador. El Consejo asesorará y asistirá a la CE y a los Estados miembros para facilitar la aplicación coherente y eficaz de la ley.

La Oficina de AI también asistirá a las reuniones del Consejo sin tomar parte en las votaciones. El Consejo podrá invitar a las reuniones, caso por caso, a otras autoridades, organismos o expertos nacionales y de la Unión, cuando las cuestiones debatidas sean pertinentes para ellos.

El Consejo establecerá dos subgrupos permanentes para proporcionar una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y las autoridades notificantes sobre cuestiones relacionadas con la vigilancia del mercado y los organismos notificados, respectivamente.

Evaluación y revisión
La CE evaluará la necesidad de modificar la lista de prácticas de IA prohibidas y de alto riesgo una vez al año tras la entrada en vigor de la ley y hasta el final del periodo de delegación de poderes. La CE presentará los resultados de dicha evaluación al Parlamento Europeo y al Consejo.

A más tardar tres años después de la fecha de aplicación de la presente ley, y posteriormente cada cuatro años, la CE presentará al Parlamento Europeo y al Consejo un informe sobre la evaluación y revisión de la ley. Dicho informe incluirá una evaluación de la estructura de la aplicación y de la posible necesidad de crear una agencia de la Unión para resolver las deficiencias detectadas. Por último, se establecen otras fechas para ir actualizando y mejorando diferentes aspectos particulares de la norma.

COMENTARIOS

No hay comentarios.

DEJE SU COMENTARIO

La finalidad de este servicio es sumar valor a las noticias y establecer un contacto más fluido con nuestros lectores. Los comentarios deben acotarse al tema de discusión. Se apreciará la brevedad y claridad.


No se lee? Cambie el texto.


TODOS los blogs


Invirtiendo a futuro

Gino Bettocchi

La era inteligente

Rafael Lemor Ferrand

Doña cata

Rosa Bonilla

Blindspot

Alfonso de los Heros

Construyendo Xperiencias

Rodrigo Fernández de Paredes A.

Diversidad en acción

Pamela Navarro

Sin data no hay paraíso

Carlo Rodriguez

Conexión ESAN

Conexión ESAN

Conexión universitaria

Conexion-universitaria

Café financiero

 Sergio Urday

La pepa de Wall Street

Vania Diez Canseco Rizo Patrón

Comunicación en movimiento

Benjamín Edwards

Zona de disconfort

Alana Visconti

Universo físico y digital

Patricia Goicochea

Desde Columbia

Maria Paz Oliva

Inversión alternativa

James Loveday

Con sentido de propósito

Susy Caballero Jara

Shot de integridad

Carolina Sáenz Llanos

Detrás del branding

Daniela Nicholson

Persona in Centro

Cecilia Flores

Mindset en acción

Víctor Lozano

Marketing de miércoles

Jorge Lazo Arias

Derecho y cultura política

Adrián Simons Pino

VITAMINA ESG

Sheila La Serna

ID: Inteligencia Digital

por Eduardo Solis

Coaching para liderar

Mariana Isasi

El buen lobby

Felipe Gutiérrez

TENGO UNA QUEJA

Debora Delgado

De Pyme a Grande

Hugo Sánchez

Sostenibilidad integrada

Adriana Quirós C.

Gestión de la Gobernanza

Marco Antonio Zaldivar

Marca Personal 360º

Silvia Moreno Gálvez

Creatividad al natural

Andrés Briceño

Mindset de CEO

Carla Olivieri

Clic Digital

IAB Perú

Market-IN

Jose Oropeza

Cuadrando Cuentas

Julia y Luis

Liderazgo con ciencia

Mauricio Bock

Pluma Laboral

Alonso J. Camila

Economía e Integridad

Carlos Bustamante B.

Aprendiendo - nivel CEO

Francisco Pinedo

Portafolio Global

BlackRock

Menos face más book

Rafael Zavala Batlle

Visiones para el desarrollo

CAF –Banco de Desarrollo de América Latina y el Caribe–

Te lo cuento fácil

Alumnos de la Universidad del Pacífico

Fuera de la caja

María Camino

Orquestación Estratégica

Dr. Diego Noreña

Más allá del efectivo

Felipe Rincón

Mujer, ejecutiva y trasgresora

Zendy Manzaneda Cipriani

Disrupcion en la nube

Disrupción en la Nube

Revolución digital

Pablo Bermudez

Economía desde el campus

Grupo Económica

Síntesis legislativa

José Ignacio Beteta Bazán

La parábola del mudo

Javier Dávila Quevedo

Arturo Goga

Arturo Goga

Sumando Valores

Superintendencia del Mercado de Valores

@infraestructura

Rosselló Abogados

Minería 2021

Instituto de Ingenieros de Minas del Perú (IIMP)

Conciencia Corporativa

Verónica Roca Rey

Agenda Legal

Estudio Echecopar

Perspectiva Forestal

Comité Forestal SNI y Comité de Madera e Industria de la Madera ADEX

Pensando laboralmente

César Puntriano

Auditoria del Siglo 21

Karla Barreto

Economía conductual

Bertrand Regader

Cultura financiera

Walter Eyzaguirre

Triple enfoque

Cecilia Rizo Patrón

Gestiona tus Finanzas

Giovanna Prialé Reyes

Segunda opinión

Eduardo Herrera Velarde

Parte de Guerra

Pablo O'Brien

El cine es un espejo

Raúl Ortiz Mory

Ruarte's - Washington Capital

R. Washington Lopez

Atalaya Económica

Manuel Romero Caro

Terapia de Pareja

Luciana Olivares

Próspero Perú

Gladys Triveño

Herejías Económicas

Germán Alarco

Inversión e Infraestructura

Profesor de ESAN Graduate School of Business Sergio Bravo Orellana

Blog Universitario

Blog Universitario

Juegomaniáticos

Juan Pablo Robles

Gestión del Talento

Ricardo Alania Vera

Personas Power

Ana Romero

Millennials

Pamela Romero Wilson

Reglas de Juego

Pierino Stucchi

Humor S.A.

Jaime Herrera

Bitácora bursátil.

Equipo de Análisis de Intéligo SAB

Vivir Seguro

Asociación Peruana de Empresas de Seguros

El deporte de hacer negocios

Luis Carrillo Pinto

Zona de Intercambio

Julio Guadalupe

Innovar o ser cambiado

Andy Garcia Peña

Economía aplicada

Juan Mendoza

El Vino de la Semana

José Bracamonte

Carpeta Gerencial

IE Business School

Desafíos para el progreso

Banco Interamericano de Desarrollo

Diálogo a fondo

Fondo Monetario Internacional

Predio legal

Martín Mejorada

e-strategia

José Kusunoki Gutiérrez

Vinos, piscos y mucho más

Sommelier Giovanni Bisso

Palabra de Gestión

Julio Lira Segura

Impacto ambiental

Lorenzo de la Puente

Inversiones Globales

Carlos Palomino Selem

Moda Inc.

Daniel Trelles

Divina Ejecutiva

Fiorella

Menú Legal

Oscar Sumar

Analizando tus inversiones

Diego Alonso Ruiz

Reformas incompletas

Instituto Peruano de Economía

Empresa&Familia

Pablo Domínguez

Hoy sí atiendo provincias

Félix Villanueva - Aurum Consultoría y Mercado

Smart money

Luis Ramírez

Consumer Psyco

Cristina

Gestión de servicios

Otto Regalado Pezúa

Marketing 20/20

Michael Penny

Mercados&Retail

Percy Vigil Vidal

CAFÉ TAIPÁ

Milton Vela

Anuncias, luego existes

Alexander Chiu Werner

Marcas & Mentes

Lizardo Vargas Bianchi

Riesgos Financieros

Gregorio Belaunde

Economía para todos

Carlos Parodi

De regreso a lo básico

Paúl Lira Briceño