Comparte

La Ley de IA de la Unión Europea, que regula la inteligencia artificial según su nivel de riesgo, entró en vigor el 1 de agosto de 2024. Esta legislación impone una serie de plazos de cumplimiento para los desarrolladores y aplicaciones de IA, con la mayoría de las disposiciones aplicables a partir de mediados de 2026.
Plazos y Alcance:
Seis meses: Se prohíben ciertos usos de alto riesgo de IA, como la identificación biométrica remota en lugares públicos.Mediados de 2026: La mayoría de las disposiciones serán completamente aplicables.IA de Alto Riesgo: Requiere cumplimiento con evaluaciones de conformidad y auditorías regulatorias.
Clasificación de Riesgos:
Bajo/Ningún Riesgo: La mayoría de las aplicaciones de IA están exentas.Alto Riesgo: Incluye biometría, software médico y IA en educación y empleo, con requisitos estrictos.Riesgo Limitado: Tecnologías como chatbots y deepfakes deben cumplir con requisitos de transparencia.
Sanciones:
Aplicaciones prohibidas: Multas de hasta el 7% de la facturación anual global.Incumplimientos menores: Multas de hasta el 3%.Información incorrecta a reguladores: Multas de hasta el 1.5%.
IA de Propósito General (GPAIs):
Requisitos ligeros de transparencia para la mayoría de los desarrolladores.Modelos de alta potencia deben realizar evaluaciones de riesgos.
Recomendaciones y Desarrollo de Estándares:
OpenAI colaborará con la Oficina de IA de la UE y aconseja clasificar sistemas y consultar con asesores legales.Los estándares específicos para IA de alto riesgo se finalizarán para abril de 2025 y deberán ser aprobados por la UE.
En resumen, la Ley de IA de la UE busca regular las aplicaciones de IA según su riesgo, con plazos escalonados y sanciones por incumplimiento. Las organizaciones deben prepararse para cumplir con estas nuevas normativas y mantenerse al tanto de los desarrollos futuros.

Toda la información en el siguiente enlace: https://artificialintelligenceact.eu/es/

Deja tu comentario