Por: David Ferrer • Colombia.com

Límites y excepciones: La UE define un Marco Regulatorio Innovador para la IA

En un histórico paso para la historia reciente, la Unión Europea pasa de la Negociación a la acción y establece reglas detalladas para la IA y sus riesgos

Foto: Pexels
Foto: Pexels

En un histórico paso para la historia reciente, la Unión Europea pasa de la Negociación a la acción y establece reglas detalladas para la IA y sus riesgos

La Unión Europea ha alcanzado un hito significativo al aprobar un acuerdo histórico que establece las primeras normas para mitigar los riesgos asociados con la Inteligencia Artificial (IA). Esta regulación, cuya entrada en vigor se espera para 2026, ha sido aclamada como la primera de su tipo a nivel internacional.

La secretaría de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, expresó su orgullo por este logro, liderando el equipo negociador del Consejo en Bruselas.

Las negociaciones entre el Parlamento Europeo, la Comisión Europea y el Consejo alcanzaron su punto culminante en la última ronda, que se prolongó hasta el viernes. Durante este proceso, se superaron obstáculos cruciales relacionados con la vigilancia biométrica y su aplicación por parte de las fuerzas de seguridad.

La normativa adopta un enfoque basado en el riesgo al categorizar los niveles de riesgo y establecer restricciones correspondientes según la escala. Se prohíben casos de riesgo "inasumible", como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o aquellos que manipulan el comportamiento.

A pesar de estas prohibiciones, se contemplan excepciones estrictas que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre y cuando exista una orden judicial previa y se limite a una lista definida de delitos.

El Parlamento Europeo propuso inicialmente una extensa lista de usos prohibidos, pero el Consejo abogó por clasificar algunos sistemas como de alto riesgo en lugar de vetarlos de inmediato, ajustando las restricciones.

Carme Artigas sostuvo que este cambio no implica que se permita un uso irrestricto, ya que la categoría de alto riesgo conlleva estrictas salvaguardas, como la necesidad de una orden judicial o evaluaciones de impacto en los derechos fundamentales.

La regulación también identifica sistemas de IA autorizados pero considerados de muy alto riesgo debido a su impacto significativo en la salud, seguridad, derechos fundamentales, medio ambiente y Estado de derecho.

Los sistemas de IA utilizados para influir en elecciones y comportamientos de votantes se clasifican como de alto riesgo, otorgando a los ciudadanos el derecho de presentar quejas y recibir explicaciones sobre decisiones basadas en estos sistemas.

La legislación aborda específicamente los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que surgieron después de la presentación de la primera propuesta de regulación por parte de la Comisión Europea.

Para garantizar el cumplimiento, la regulación establece sanciones que varían desde los 35 millones de euros o el 7% del volumen de negocios global hasta los 7.5 millones, dependiendo del tamaño de la empresa.

El objetivo fundamental de esta nueva regulación es establecer estándares de seguridad y derechos fundamentales que impidan el uso represivo, manipulador o discriminatorio de la tecnología, sin que ello resulte en una hiperregulación que afecte la competitividad de la Unión Europea.