
La Ley de IA de la Unión Europea, que regula la inteligencia artificial según su nivel de riesgo, entró en vigor el 1 de agosto de 2024. Esta legislación impone una serie de plazos de cumplimiento para los desarrolladores y aplicaciones de IA, con la mayoría de las disposiciones aplicables a partir de mediados de 2026. |
| Plazos y Alcance: |
| Seis meses: Se prohíben ciertos usos de alto riesgo de IA, como la identificación biométrica remota en lugares públicos.Mediados de 2026: La mayoría de las disposiciones serán completamente aplicables.IA de Alto Riesgo: Requiere cumplimiento con evaluaciones de conformidad y auditorías regulatorias. |
| Clasificación de Riesgos: |
| Bajo/Ningún Riesgo: La mayoría de las aplicaciones de IA están exentas.Alto Riesgo: Incluye biometría, software médico y IA en educación y empleo, con requisitos estrictos.Riesgo Limitado: Tecnologías como chatbots y deepfakes deben cumplir con requisitos de transparencia. |
| Sanciones: |
| Aplicaciones prohibidas: Multas de hasta el 7% de la facturación anual global.Incumplimientos menores: Multas de hasta el 3%.Información incorrecta a reguladores: Multas de hasta el 1.5%. |
| IA de Propósito General (GPAIs): |
| Requisitos ligeros de transparencia para la mayoría de los desarrolladores.Modelos de alta potencia deben realizar evaluaciones de riesgos. |
| Recomendaciones y Desarrollo de Estándares: |
| OpenAI colaborará con la Oficina de IA de la UE y aconseja clasificar sistemas y consultar con asesores legales.Los estándares específicos para IA de alto riesgo se finalizarán para abril de 2025 y deberán ser aprobados por la UE. |
| En resumen, la Ley de IA de la UE busca regular las aplicaciones de IA según su riesgo, con plazos escalonados y sanciones por incumplimiento. Las organizaciones deben prepararse para cumplir con estas nuevas normativas y mantenerse al tanto de los desarrollos futuros. |
Toda la información en el siguiente enlace: https://artificialintelligenceact.eu/es/




