
Tras un proceso piloto en el que participaron más de 350 partes interesadas, se revisó un prototipo anterior de la lista y se tradujo en una herramienta para apoyar a los desarrolladores e implementadores de IA en el desarrollo de una IA fiable.
La herramienta respalda la viabilidad de los requisitos clave descritos en las Directrices éticas para una inteligencia artificial fiable (IA), presentadas por el Grupo de expertos de alto nivel sobre IA (AI HLEG) presentado a la Comisión Europea en abril de 2019. Las Directrices éticas introdujeron el concepto de IA fiable, basado en siete requisitos clave:
- agencia humana y supervisión
- robustez técnica y seguridad
- privacidad y gobernanza de los datos
- transparencia
- diversidad, no discriminación y equidad
- bienestar ambiental y social y
- responsabilidad
A través de la lista de evaluación de la IA fiable (ALTAI), los principios de la IA se traducen en una lista de comprobación accesible y dinámica que guía a los desarrolladores e implementadores de IA en la aplicación de dichos principios en la práctica. ALTAI ayudará a garantizar que los usuarios se beneficien de la IA sin estar expuestos a riesgos innecesarios al indicar un conjunto de pasos concretos para la autoevaluación.
Descargue la Lista de Evaluación de Inteligencia Artificial Confiable (ALTAI) (.pdf)
El ALTAI también está disponible en una versión de herramienta basada en la web.
Más información sobre la herramienta web de ALTAI