Rendición de cuentas (accountability).
NATURALEZA
De accountability se habla en Derecho Parlamentario y en Ciencia Política al exponer la responsabilidad política de los gobernantes;este principio obliga a los responsables a informar sobre sus decisiones con la finalidad de controlar, impedir abusos y sancionar irregularidades,dándolas a conocer a la opinión pública. Es una obligación responder por los actos propios durante el ejercicio de un cargo, y someterse a controles o fiscalizaciones que evalúen las actuaciones, así como permitir las críticas. Análogamente, es también un principio esencial en el desarrollo de la inteligencia artificial pues, según se vuelve más capaz y susceptible de adoptar decisiones propias, debe asumir mayores responsabilidades ante los usuarios y el público sobre la conveniencia y oportunidad de las mismas.
CONCEPTO
Todos los sujetos que intervienen en la implantación de un sistemas de inteligencia artificial (desde los diseñadores hasta los supervisores) tienen el deber de responsabilizarse por las decisiones y acciones tomadas por estos sistemas. La rendición de cuentas exige que esos sistemas sean evaluados y supervisados. Esta responsabilidad incluye tener en cuenta valores constitucionales y derechos fundamentales en el uso de la tecnología como ocurre con la privacidad y la seguridad de los datos, respetando el pluralismo e impidiendo discriminaciones.
IMPORTANCIA
Los sistemas de inteligencia artificial deben ser transparentes, explicables y responsables de su funcionamiento. Si bien los mecanismos de fiscalización son todavía débiles, las leyes deben regularlos e impulsar su implementación en especial por las administraciones públicas. La Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación impone por vez primera la rendición de cuentas y la promoción de evaluaciones de impacto discriminatorio; otro tanto hace la Carta de Derechos Digitales y la propuesta de Reglamento Europeo de Inteligencia Artificial. Es, en general, necesario responsabilizar a los creadores de los criterios científicos y a las organizaciones que usan inteligencia artificial, para impedir que se generen daños. Los usuarios o los afectados tienen derecho a solicitar una supervisión e impugnar las decisiones automatizadas. Existen pautas y recomendaciones de entidades internacionales para un desarrollo ético de la inteligencia artificial.
USOS Y RIESGOS
Los usuarios deben poder comprender cómo un sistema de IA adopta decisiones; la transparencia y las explicaciones fomentan la confianza. Todos los que intervienen en el proceso de vida de una herramienta de IA han de estar en condiciones de explicar su funcionamiento desde su diseño hasta la supervisión de su aplicación y, en concreto, poder determinar a quien corresponde la responsabilidad en cada una de las fases. Ha de tenerse en cuenta que las herramientas pueden tener sesgos injustos (discriminatorios) , pueden resultar intrusivas en los derechos de las personas o afectar a valores básicos de convivencia. La explicación del funcionamiento de una herramienta de IA por quiénes adoptan las decisiones de diseño y aplicación es no solo una forma de garantizar la responsabilidad por los daños que eventualmente causen, sino, sobretodo, una fórmula para garantizar el control ciudadano y judicial de la IA.
AUTORES
Javier García Roca.