Directrices éticas del Grupo de Expertos de la UE para una IA confiable
Un Marco para una IA Fiable
La fiabilidad de la Inteligencia Artificial (IA) se apoya en tres componentes que deben satisfacerse a lo largo de todo el ciclo de vida del sistema:
1. IA Lícita
Cumplir todas las leyes y reglamentos aplicables.
2. IA Ética
Garantizar el respeto de los principios y valores éticos.
3. IA Robusta
Tanto desde el punto de vista técnico como social, ya que incluso con buenas intenciones, la IA puede provocar daños accidentales.
Capítulo I: Fundamentos - 4 Principios Éticos
1. Respeto de la autonomía humana
Los sistemas de IA no deberían subordinar, coaccionar, engañar, manipular o dirigir a los seres humanos. Deben diseñarse para aumentar, complementar y potenciar las aptitudes humanas, garantizando la supervisión y el control humanos.
2. Prevención del daño
Los sistemas de IA no deberían provocar daños ni agravar los existentes. Esto incluye la protección de la integridad física y mental, la seguridad, y la consideración del entorno natural y todos los seres vivos. Se debe prestar especial atención a las asimetrías de poder.
3. Equidad
El desarrollo, despliegue y utilización de la IA debe ser equitativo. Implica una distribución justa de beneficios y costes, y asegurar que no se sufran sesgos injustos, discriminación ni estigmatización. También conlleva la capacidad de oponerse a las decisiones algorítmicas.
4. Explicabilidad
Los procesos deben ser transparentes. Las capacidades y la finalidad de los sistemas de IA deben comunicarse abiertamente, y las decisiones deben poder explicarse a las partes afectadas. Esto es crucial para la confianza y para poder impugnar una decisión.
Capítulo II: Realización - 7 Requisitos Clave
1. Acción y supervisión humanas
Los sistemas deben respaldar la autonomía humana y permitir la supervisión. Esto incluye garantizar los derechos fundamentales, la acción humana (tomar decisiones con conocimiento de causa) y la supervisión (control humano sobre el sistema).
2. Solidez técnica y seguridad
Requiere un enfoque preventivo frente a los riesgos. Incluye resistencia a ataques, un plan de repliegue y seguridad general, precisión en las predicciones, fiabilidad y reproducibilidad de los resultados.
3. Gestión de la privacidad y de los datos
Se debe garantizar la protección de la intimidad y de los datos durante todo el ciclo de vida. Incluye la calidad e integridad de los datos (evitar sesgos) y protocolos de acceso seguros.
4. Transparencia
Incluye la trazabilidad (documentar datos y procesos), la explicabilidad (que las decisiones sean comprensibles) y la comunicación (informar a los usuarios de que están interactuando con una IA).
5. Diversidad, no discriminación y equidad
Garantizar la inclusión y la diversidad. Esto implica evitar sesgos injustos en los datos y algoritmos, asegurar la accesibilidad (diseño universal) y fomentar la participación de todas las partes interesadas.
6. Bienestar social y ambiental
Se debe tener en cuenta a la sociedad y al medio ambiente. Fomentar una IA sostenible y respetuosa con el medio ambiente, y evaluar el impacto social sobre las instituciones, la democracia y la sociedad en su conjunto.
7. Rendición de cuentas
Establecer mecanismos para garantizar la responsabilidad. Incluye la auditabilidad de los sistemas, la minimización de efectos negativos, la documentación de los equilibrios alcanzados y la provisión de mecanismos de compensación.