Sandbox
NATURALEZA
El término inglés “sandbox” ha sido traducido al español como “entorno de pruebas”. Originariamente alude al arenero en que los niños juegan a salvo de daños físicos. Análogamente, en un contexto tecnológico, ha sido empleado en el marco de las Fintech, (palabra que hace referencia a actividades que utilizan la tecnología en el marco de la comercialización de productos financieros) en el Reino Unido (2016). En España se ha introducido en la Ley 7/2020, de Transformación digital del sistema financiero.
CONCEPTO
El Real Decreto 817/2023, de 8 de noviembre, sobre Entorno de Pruebas para la aplicación de la propuesta de Reglamento UE sobre IA define la sandbox en el art. 3.2. como un “entorno o experiencia, con una duración determinada, que proporciona un contexto estructurado para el desarrollo de las actuaciones necesarias que posibiliten a proveedores y usuarios de los sistemas de inteligencia artificial de alto riesgo,sistemas de propósito general y modelos fundacionales que realicen las pruebas necesarias para la implementación de los requisitos establecidos en este real decreto, bajo la supervisión del órgano competente” antes de ser lanzados al mercado. Otras definiciones inciden en que se trata de un entorno emulado sin acceso a la red por lo que se puede ejecutar la IA antes de su implementación a gran escala de manera que pueden anticiparse sus efectos sobre los derechos de las personas y efectuar las correcciones oportunas. En fin pueden ser entornos físicos o virtuales en los que pueden probarse los sistemas de IA sin peligro o fuertemente supervisados como podría ser un barrio o zona de una ciudad en la que probar semáforos o coches automáticos.
IMPORTANCIA
En España, la Carta de Derechos Digitales se refiere a los entornos controlados de pruebas en el marco de los derechos del ámbito laboral y empresarial como espacios de pruebas controladas para desarrollar modelos de negocio nuevos, aplicaciones y productos tecnológicos.También se contempla en la Estrategia Nacional de Inteligencia Artificial, en el Eje Estratégico tercero, sobre Plataformas de Datos e Infraestructuras Tecnológicas que den soporte a la IA. En la misma línea, a nivel supraestatal, el (borrador de) Reglamento UE de la IA (art. 53) lo contempla como un entorno controlado que facilita el desarrollo, la prueba y validación de sistemas de IA innovadores. Su objetivo es, por tanto, promover la innovación sin perjuicio del cumplimiento de las exigencias del futuro Reglamento. El Parlamento Europeo ha llegado a un acuerdo de consenso sobre la literalidad del texto planteando la necesidad de entornos de pruebas híbridos y virtuales, y no sólo un sandbox a nivel estatal, sino uno para varios Estados UE o para diferentes niveles. La recomendación sobre la Ética de la IA de la Unesco también contempla la experiencia de los entornos de pruebas reguladores de la IA, junto con mecanismos de intercambio de experiencias y guías de evaluación para que los actores de la IA vean si cumplen las recomendaciones de la Unesco al respecto.
Las sandboxes tienen una importancia capital en la búsqueda de el equilibrio entre la investigación y la innovación frente a sus implicaciones y repercusiones. En un mundo donde la tecnología va más rápida que la actualización de las leyes a sus posibles usos buenos o malos, es importante permitir «vacios legales de I+d+I» para evaluar el impacto y luego poder regular en función de los resultados obtenidos.
USOS Y RIESGOS
Entre sus ventajas se encuentra: (I) Las Administraciones Públicas que tengan previsto utilizar IA en sus relaciones con los administrados o en su gestión diaria tendrán que probar los sistemas de IA antes de aplicarlos, de la misma forma que lo harán las empresas. Por lo tanto, el conjunto del Ordenamiento Jurídico será respetado y, en particular, los derechos, principios y valores constitucionales. Esto se aplica tanto a la administración proveedora de sistemas de IA, como a la que actúa en calidad de usuario. (II) Se reducirán los riesgos de daños a intangibles constitucionales o a bienes físicos, cuando se haya obtenido el sello o certificado correspondiente tras superar las pruebas.
Los principales riesgos se refieren, en este momento, al propio y actual concepto de “sandbox”; para estudiosos como Jorge Cerdio, de ITAM(México), la sandbox será fallida si no está vigente antes la norma de referencia en la medida en que el entorno de pruebas debe poner a prueba la propia regulación y debe permitir ver cómo reacciona el sector y qué información llega al regulador. La regulación de la IA en la UE no incentiva la participación de los actores de la IA al prever sanciones incluso para quienes se estén sometiendo al sandbox (art. 14 del R.D. 817/2023). España, al estar trabajando desde 2022 en la sandbox, publicará guías de regulación que podrán influir en la regulación europea y estatal, antes de que ésta se apruebe. No habrá sido un caso de colaboración entre el regulador y los actores de la IA, sino que, posiblemente, el regulador desoiga a los regulados dando lugar a litigios, o el regulador termine siendo capturado por los regulados. Este es un gran riesgo que restaría credibilidad al sandbox y, en consecuencia, a los usos de la IA.
AUTORES
Pilar Cousido