Evaluación de Conformidad IA
La Evaluación de Conformidad IA es el proceso obligatorio de verificación de que un sistema de inteligencia artificial cumple todos los requisitos del AI Act antes de su comercialización o puesta en servicio.
01 Definición
La evaluación de conformidad es el proceso por el que se verifica que un sistema de IA de alto riesgo cumple los requisitos del AI Act antes de ser puesto en servicio o comercializado. Para la mayoría de los sistemas de alto riesgo, esta evaluación puede realizarla el propio proveedor (autoevaluación), con algunas excepciones que requieren un organismo notificado externo.
El proceso incluye: evaluación del sistema de gestión de calidad, revisión de la documentación técnica, y verificación de que el sistema cumple los requisitos de datos, robustez, transparencia, supervisión humana y ciberseguridad. Los resultados se documentan en una declaración de conformidad UE que acompaña al sistema.
02 Qué significa para las AAPP
Las AAPP que despliegan sistemas de IA propios (desarrollados internamente o por encargo) deben asegurarse de que pasan la evaluación de conformidad antes de ponerlos en producción. Para sistemas desarrollados por proveedores externos, la responsabilidad de la evaluación recae en el proveedor, pero el organismo debe verificar que dispone de la documentación correspondiente.
Los organismos también deben considerar que algunos sistemas de IA ya en funcionamiento antes de agosto de 2024 tienen periodos transitorios para adaptarse al AI Act, que en algunos casos se extienden hasta 2026.
03 Cómo lo aborda Agento
Agento, como sistema de riesgo limitado, no está sujeto a evaluación de conformidad formal bajo el AI Act. Sin embargo, Eivor Systems mantiene documentación técnica completa del sistema disponible para auditorías, ha realizado un análisis propio de conformidad, y aplica las mejores prácticas del AI Act como referencia de diseño responsable.