Según las Directrices, la IA fiable debe ser:
(1) legal — respeto de todas las disposiciones legales y reglamentarias aplicables
(2) ética — respeto de los principios y valores éticos
(3) robusto, ambos desde una perspectiva técnica, teniendo en cuenta al mismo tiempo su entorno social
Descargue las Directrices en la siguiente lengua:
BG | CS | DE | DA | EL | EN | ES | Y | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV
Las Directrices presentan un conjunto de 7 requisitos clave que los sistemas de IA deben cumplir para ser considerados fiables. Una lista de evaluación específica tiene por objeto facilitar la verificación del cumplimiento de cada uno de esos requisitos fundamentales:
- Intervención y supervisión humanas: Los sistemas de IA deben empoderar a los seres humanos, permitiéndoles tomar decisiones con conocimiento de causa y fomentando sus derechos fundamentales. Al mismo tiempo, deben garantizarse mecanismos de supervisión adecuados, lo que puede lograrse mediante enfoques humanos en el bucle, humanos en el bucle y humanos en el bucle.
- Solidez técnica y seguridad: Los sistemas de IA deben ser resilientes y seguros. Deben ser seguros, garantizar un plan de retroceso en caso de que algo salga mal, así como ser exactos, fiables y reproducibles. Esta es la única manera de garantizar que también puedan minimizarse y evitarse los daños involuntarios.
- Privacidad y gestión de datos: además de garantizar el pleno respeto de la privacidad y la protección de datos, también deben garantizarse mecanismos adecuados de gobernanza de datos, teniendo en cuenta la calidad y la integridad de los datos, y garantizando un acceso legítimo a los datos.
- Transparencia: los modelos de negocio de los datos, los sistemas y la IA deben ser transparentes. Los mecanismos de trazabilidad pueden ayudar a lograrlo. Además, los sistemas de IA y sus decisiones deben explicarse de manera adaptada a las partes interesadas afectadas. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA y deben estar informados de las capacidades y limitaciones del sistema.
- Diversidad, no discriminación y equidad: Debe evitarse el sesgo injusto, ya que podría tener múltiples consecuencias negativas, desde la marginación de los grupos vulnerables hasta la exacerbación de los prejuicios y la discriminación. Fomentar la diversidad, los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e implicar a las partes interesadas pertinentes a lo largo de todo su ciclo vital.
- Bienestar social y medioambiental: Los sistemas de IA deben beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, debe garantizarse que sean sostenibles y respetuosas con el medio ambiente. Además, deben tener en cuenta el medio ambiente, incluidos otros seres vivos, y debe estudiarse detenidamente su impacto social y social.
- Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de inteligencia artificial y de sus resultados. La auditabilidad, que permite la evaluación de algoritmos, datos y procesos de diseño, desempeña un papel clave, especialmente en aplicaciones críticas. Además, debe garantizarse una reparación accesible.
El Grupo de Alto Nivel sobre IA también ha elaborado un documento que desarrolla una definición de inteligencia artificial utilizada a efectos de las Directrices.
Descargue la definición de IA en su lengua siguiente:
BG | CS | DE | DA | EL | EN | ES | Y | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV
Proceso piloto
El documento también proporciona una lista de evaluación que pone en práctica los requisitos clave y ofrece orientaciones para aplicarlos en la práctica. A partir del 26 de junio, esta lista de evaluación se sometió a un proceso piloto, al que se invitó a todas las partes interesadas a poner a prueba la lista de evaluación y a proporcionar información práctica sobre cómo puede mejorarse.
Se recibieron comentarios a través de diferentes vías:
- Una encuesta abierta o un «análisis cuantitativo» enviado a todas las personas que se inscribieron en el piloto
- Entrevistas en profundidad con una serie de organizaciones representativas para recabar información más detallada sobre los diferentes sectores
- Posibilidad continua de cargar comentarios y mejores prácticas a través de la Alianza Europea de InteligenciaArtificial
La fase piloto finalizó el 1 de diciembre de 2019
Sobre la base de las observaciones recibidas, el Grupo de Alto Nivel sobre IA presentó la lista de evaluación final para una IAfiable (ALTAI) en julio de 2020. Altai es una herramienta práctica que traduce las directrices éticas en una lista de control accesible y dinámica (autoevaluación). La lista de control puede ser utilizada por los desarrolladores e implementadores de IA que deseen aplicar los requisitos clave en la práctica. Esta nueva lista está disponible como prototipo de herramienta web y en formato PDF.