Efecto caja negra (black box)

NATURALEZA

Concepto que trata de emular la falta de comprensibilidad al entendimiento humano que produce una caja opaca y sellada. Empleado en el campo de la aviación, ha adoptado un inusitado protagonismo en sistemas de inteligencia artificial que producen este efecto redes neuronales o los que emplean deep learning.

CONCEPTO

Dispositivo que recopila información a través de procesos no transparentes ni accesibles al entendimiento humano. Se basa en complejos modelos matemáticos y conjuntos de datos de alta dimensión que crean intrincadas relaciones y patrones que guían sus procesos de toma de decisiones, lo que dificulta la comprensibilidad del proceso y de los resultados que se alcanzan.

IMPORTANCIA

Es importante porque muchos de los softwares que emplean los poderes públicos utilizan algoritmos o modelos que pueden tener una estructura intricada de difícil o imposible auditabilidad. Sin embargo, los resultados que ofrecen estos sistemas proporcionan resultados muy atinados que son de enorme utilidad para extraer patrones en aquellos usos de tratamiento masivo de datos a los que se da lugar en el ámbito jurídico.

USOS Y RIESGOS

Se produce una falta de comprensibilidad de los procesos de toma de decisiones que puede desembocar en resultados discriminatorios y sesgados que afectarían los derechos e intereses jurídicos de los ciudadanos. Esta opacidad también dificulta la evaluación de conformidad que ha de realizar el correspondiente organismo regulador que audite el sistema de IA. La falta de transparencia supone una difícil identificación de posibles vulnerabilidades o de aplicación de salvaguardias de mitigación de riesgos. Encontrar solución a estos problemas supone un reto regulatorio sin precedentes.
Estas dificultades solo pueden abordarse a través de una promoción de la transparencia, la explicabilidad y la responsabilidad en los sistemas de IA. Para ello resultan clave la IA explicable (XAI) y los modelos de código abierto, buscando la primera salvar la distancia entre la complejidad delos sistemas de IA y la necesidad de su interpretación humana, mientras que los segundos son eficaces para conceder pleno acceso a sus algoritmos y datos. Esta mayor transparencia producirá un mayor escrutinio y colaboración entre desarrolladores, investigadores y usuarios.
La Ley de Inteligencia Artificial que se está aprobando en la Unión Europea aborda cuestiones relacionadas con el efecto caja negra, promoviendo la transparencia y la responsabilidad en el desarrollo y uso de sistemas de IA.

AUTORES

Manuel Pereiro Cárceles

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound