Europa pone límites al uso de la inteligencia artificial
Los legisladores quieren evitar que la IA decida sobre selección de personal o a quién dar un crédito
La Ley Europea de Inteligencia Artificial (Ley de IA), el primer reglamento global sobre esta tecnología en el mundo, entró en vigor ayer pero la mayoría de la normas contempladas comenzarán a aplicarse el 2 de agosto de 2026, tal como advierte la Comisión Europea (CE) en un comunicado. En concreto, la normativa está diseñada para garantizar que la IA desarrollada y utilizada en la Unión Europea (UE) sea “fiable” y proteja los derechos fundamentales de las personas. La normativa establece diferentes niveles de riesgo sobre los sistemas de IA, que van desde el “mínimo” hasta el “inaceptable”, como sería el caso de los juguetes que incorporan asistencia vocal pero suponen un claro riesgo por fomentar el comportamiento peligroso en los niños.
Riesgo mínimo y específico
En la categoría de riesgo mínimo se encuentran la mayoría de los sistemas de IA, como los de recomendación basados en esta tecnología y los filtros de correo no deseado. “Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales”, detalla la CE.
Los sistemas con “riesgo específico de transparencia”, como, por ejemplo, los chatbots, que deberán revelar “claramente” a los usuarios que están interactuando con una máquina.”Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando lo utilicen”, destaca la CE.
Alto riesgo e inaceptable
Por otro lado, los sistemas de IA considerados de “alto riesgo” estarán obligados a cumplir requisitos estrictos, como la “alta calidad” de sus conjuntos de datos, el registro de la actividad, documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Entre ellos, los usados para la contratación de personal o para evaluar si alguien tiene derecho a obtener un préstamo, entre otras cuestiones. Asimismo, la IA de “riesgo inaceptable” -que estará prohibida- es aquella que se considere una clara amenaza para los derechos fundamentales de las personas.
“Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores o empresas y determinadas aplicaciones de la actuación policial predictiva”, indicó la CE. También estarán prohibidos algunos usos de sistemas biométricos, por ejemplo, los de reconocimiento de emociones utilizados en el lugar de trabajo.
Plazos y multas
La CE subrayó que se impondrán multas a las empresas que no cumplan las normas, unas sanciones que podrían ascender hasta el 7% de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3% en el caso de incumplir otras obligaciones y hasta el 1,5% por el suministro de información incorrecta.
En este contexto, los miembros de la UE tienen hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas a la IA y llevarán a cabo actividades de vigilancia del mercado. Sin embargo, las prohibiciones de los sistemas de IA que se consideren que presentan un “riesgo inaceptable” se aplicarán ya al cabo de seis meses, mientras que para los denominados modelos de IA de uso general será dentro de 12 meses.
Contenido patrocinado
También te puede interesar
Lo último
Condado/Paradanta
El arte urbano cambia la estética del IES de Salvaterra
Elecciones en Extremadura
Cerca de 900.000 extremeños están llamados a las urnas