You have not selected any currencies to display

Bl0ckch41nnewsLa UE aprueba la primera Ley de Inteligencia Artificial del mundo

39


Los Estados y la Eurocámara superan sus diferencias en torno a cómo regular
los modelos fundacionales y las líneas rojas en materia de sistemas de
vigilancia biométrica y cierran un acuerdo provisional que todavía debe ser
ratificado antes de que entre en vigor.

La Unión Europea será la primera región del mundo en regular de forma completa
los usos de la Inteligencia Artificial (IA) a través de
Ley de IA de la UE. Los Estados y el Parlamento Europeo han llegado, casi en la medianoche del
viernes al sábado, y después de tres días de intensas y duras negociaciones, a
un acuerdo provisional,
un texto final que todavía deberá ser ratificado por las dos partes antes
de entrar en vigor, previsiblemente a finales de 2026,

aunque algunas partes empezarán a funcionar antes.

Este texto define las obligaciones y normas por las que deberá regirse una
tecnología que está aquí para quedarse y que está transformando completamente
la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de
ellos ni siquiera aún imaginables.

Estos son los 7 puntos clave: 5 prohibidos y 2 muy regulados.

  • Prohibidos los sistemas de categorización biométrica (por creencias
    políticas, religiosas, filosóficas o por orientación sexual o raza).
  • Prohibidos los sistemas para expandir o crear bases de datos faciales
    captando datos de manera indiscriminada a través de internet o de
    grabaciones audiovisuales y televisión.
  • Prohibido el reconocimiento de emociones en el lugar de trabajo y en
    instituciones educativas.
  • Prohibido el social scoring (sistemas que puntúan a las personas en función
    de su comportamiento social o características personales).
  • Prohibidos los sistemas que manipulan comportamiento humano y la IA usada
    para explotar las vulnerabilidades de las personas (por ejemplo por su edad
    o situación social o económica).
  • Se permitirán los sistemas de vigilancia biométrica en tiempo real en
    espacios públicos, solo podrán ser empleados por las fuerzas del orden y
    estarán muy limitados y rodeados de estrictas salvaguardias.
  • Los sistemas de inteligencia artificial generativa en los que se basan
    modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia,
    como especificar que si un texto, una canción o una fotografía se han
    generado a través de la inteligencia artificial, así como garantizar que los
    datos que se han empleado para entrenar a los sistemas respetan los derechos
    de autor.

«El reglamento tiene como objetivo garantizar que los sistemas de IA
utilizados en la UE sean seguros y respeten los derechos fundamentales y los
valores europeos»
, ha asegurado en X (antes Twitter) la
Presidencia española del Consejo de la UE. Cerrar esta ley, que quiere convertirse en una referencia o estándar para
otras regiones más allá de las fronteras comunitarias, era una de las
prioridades fijadas por España para su semestre europeo, que acaba este mes de
diciembre.

Los Veintisiete aseguran que quieren garantizar las posibilidades y limitar al
máximo los riesgos, para lo que han negociado una ley «a prueba del futuro»
que contenga la flexibilidad suficiente como para poder regular funciones o
tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que
experimenten las ya existentes. Pero el diablo, como siempre, está en los
detalles, y las negociaciones, «apasionadas», como las calificaron testigos de
los interminables tira y afloja que comenzaron el miércoles y acabaron rozando
la medianoche del viernes al sábado, se alargaron debido al pulso entre
Estados y eurodiputados —y a veces entre cada parte entre sí— sobre qué es un
riesgo o no y qué excepciones y salvaguardias poner para garantizar que los
derechos fundamentales individuales no se arriesgan en aras de no perjudicar
la economía o los intereses de los Estados.

La letra pequeña está aún por conocerse, pero, tras 36 horas de negociaciones,
una de las más largas que se recuerdan de estos formatos, todas las partes se
declararon satisfechas por el «equilibrio» logrado entre los dos objetivos.

«La UE se convierte en el primer continente que pone reglas claras para el
uso de la IA»
, ha señalado mientras tanto el comisario de Mercado Interior, Thierry
Breton, uno de los grandes impulsores de la normativa y para quien la ley
propuesta es
«mucho más que un paquete de normas, es una lanzadera para que las startups
europeas y los investigadores lideren la carrera global por la IA»
.

Sobre todo, ha acotado Artigas, porque da una «certeza legal y técnica» a los
ciudadanos y a las empresas que ahorrará previsiblemente muchas acciones
legales. Para ello, la normativa quiere tener dientes suficientes como para no
quedar en papel mojado, para lo que prevé un sistema de sanciones, bien un
porcentaje del volumen total de negocios de la compañía infractora el año
fiscal previo o incluso una cantidad predeterminada «aún mayor». Además, se
establece la creación de un ente supervisor independiente, una Oficina de IA
ligada a la Comisión Europea y que estará asesorada por un panel científico y
la sociedad civil.

La presidenta de la Comisión, Ursula von der Leyen, ha celebrado una normativa
«pionera en el mundo». Un marco legal «único para el desarrollo de una IA en
el que se puede confiar», ha saludado en X la jefa del Ejecutivo europeo.
«Europa ha liderado y ha cumplido», ha acotado la presidenta del
Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la
conoce en inglés, es una legislación
«vanguardista y responsable que impone estándares globales».

Junto a la satisfacción por cerrar un acuerdo que muchas veces parecía
escaparse, había también gestos de alivio entre los principales responsables
de las negociaciones, y no solo porque por fin podían irse a casa, sino
porque, subrayaron todos, lo hacían seguros de que han hecho bien unos deberes
con muchas trabas.

Entre ellos, los más espinosos fueron, como se preveía, la cuestión de cómo
regular los modelos de IA de propósito general (la IA generativa o
modelos fundacionales) en los que se basan populares herramientas como el ChatGPT, así como los
sistemas de vigilancia biométrica (como el reconocimiento facial), que al
final acabó siendo el punto más arduamente negociado y prolongó las
discusiones hasta este viernes, debido a los fuertes recelos que despiertan
estas tecnologías que potencialmente —y en algunos casos ya realmente, como se
ve en algunos países con poco músculo democrático— permiten una supervisión y
control estatal que puede colisionar directamente con los derechos
fundamentales de los ciudadanos.

El Parlamento Europeo ha celebrado que la ley
«busca garantizar que los derechos fundamentales, la democracia, el Estado
de derecho y la sostenibilidad medioambiental están protegidos de IA de alto
riesgo, a la par que se impulsa la innovación y se hace de Europa un líder
en el sector»
.

El texto final recoge, aseguran los eurodiputados, sus principales líneas
rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia
biométrica que consideraban inaceptables: los sistemas de categorización
biométrica (por creencias políticas, religiosas, filosóficas o por orientación
sexual o raza); los sistemas para expandir o crear bases de datos faciales
captando datos de manera indiscriminada a través de internet o de grabaciones
audiovisuales y televisión; el reconocimiento de emociones en el lugar de
trabajo y en instituciones educativas; el social scoring (sistemas que puntúan
a las personas en función de su comportamiento social o características
personales); sistemas que manipulan comportamiento humano y la IA usada para
explotar las vulnerabilidades de las personas (por ejemplo por su edad o
situación social o económica).
Vigilancia biométrica

Por otro lado, aunque se permitirán los sistemas de
vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados
y rodeados de estrictas salvaguardias: se requerirá una autorización judicial
y la lista de crímenes que lo autoricen será muy restrictiva. En el caso del
uso «ex post», solo se permitirá para la búsqueda de una persona condenada o
sospechosa de haber cometido un crimen grave.

En el caso de la vigilancia en tiempo real, su uso estará limitado en «tiempo
y locación» y solo se permitirá para la búsqueda de víctimas de secuestro,
tráfico humano o explotación sexual, para la prevención de una amenaza
terrorista «genuina y previsible» o «genuina y presente», es decir, que se
está produciendo en el mismo momento, o para la localización o identificación
de un sospechoso de crímenes específicos: terrorismo, tráfico, asesinato,
secuestro, violación, robo armado o un crimen medioambiental, entre otros).

En cuanto al otro gran punto de las negociaciones, la regulación de los
sistemas de inteligencia artificial generativa en los que se basan modelos
como ChatGPT, estos tendrán que cumplir criterios de transparencia, como
especificar que si un texto, una canción o una fotografía se han generado a
través de la inteligencia artificial, así como garantizar que los datos que se
han empleado para entrenar a los sistemas respetan los derechos de autor.

Se trata de una tecnología que apenas se conocía cuando Bruselas propuso la
ley, en abril de 2021, por lo que ha habido que incorporar medidas y
salvaguardias a posteriori, lo que ha constituido a la vez un recordatorio de
que la legislación debe ser adaptable a sistemas del futuro aún inimaginables.
El reglamento no prohíbe su uso, pero sí establece una serie de criterios para
detectar los modelos que pueden generar un alto riesgo en función del contexto
en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas
más estrictas antes de sacarlos al mercado.

Ningún otro país tiene aún una
regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un
decreto que obliga a las tecnológicas
a notificar al Gobierno cualquier avance que suponga un «riesgo grave para la
seguridad nacional». Días después, el primer ministro británico, Rishi Sunak,
convocó a una cumbre de la que surgió el primer compromiso de 28 países y de
la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances.

Si no ocurren imprevistos, es decir, si ninguna de las partes se echa atrás y
tanto los Estados como la Eurocámara ratifican la ley en los próximos meses
(los negociadores no creen que el proceso pueda empezar antes de febrero, ya
bajo presidencia europea belga), la Ley de IA debería poder entrar totalmente
en vigor hacia finales de 2026, aunque algunas partes lo harán antes: está
previsto que la Oficina de IA empiece a funcionar en cuanto se ratifique el
reglamento, mientras que la prohibición de los sistemas prohibidos de
inteligencia artificial llegará a los seis meses y los requisitos para los
sistemas y modelos de IA generativa, a los 12 meses.

Fuente:
El País





Source link

Los comentarios están cerrados.