Una importante investigación sobre Transparencia Algorítmica llevó a cabo el GobLab para el Open Government Partnership, entidad que usó este documento como base en su nueva Guía para Escépticos del Gobierno Abierto.
Investigación sobre Transparencia Algorítmica del GobLab es utilizada por la OGP en su guía para directivos públicos
31 de julio 2023
Una importante investigación sobre Transparencia Algorítmica llevó a cabo el GobLab para el Open Government Partnership, entidad que usó este documento como base en su nueva Guía para Escépticos del Gobierno Abierto.
Alineado a su objetivo de contribuir a la innovación en políticas públicas, el GobLab, efectuó un exhaustivo estudio sobre transparencia algorítmica, en colaboración con la Alianza para el Gobierno Abierto (Open Government Partnership – OGP). Esta temática es uno de los temas relevantes de la discusión de la gobernanza de la Inteligencia Artificial (IA) en el mundo. “La OGP nos contactó, a fines de 2022, para realizar esta publicación de manera conjunta, dada nuestra trayectoria y experiencia trabajando en investigaciones aplicadas en transparencia algorítmica desde 2019”, afirma María Paz Hermosilla, Directora del GobLab, y autora del estudio junto a Romina Garrido, Subdirectora del GobLab, y Matías Valderrama, sociólogo.
En este sentido, la alianza con la OGP es muy relevante para el GobLab porque es un organismo multilateral e influyente a nivel internacional. “El hecho de que haya querido colaborar con nosotros demuestra que estamos avanzando en nuestra visión de ser reconocidos por contribuir a la transformación del sector público, y al impacto social mediante ciencia de datos utilizada de manera ética y responsable”, afirma Hermosilla.
La investigación – que consideró una revisión de la literatura y estado del arte a nivel mundial – abordó la evidencia existente sobre mecanismos para promover la transparencia algorítmica, además de sus impactos y resultados. “La importancia de esta publicación es que llena un vacío existente respecto de los resultados de la transparencia algorítmica en el mundo, efectuando una revisión exhaustiva de literatura. Era fundamental tener una mirada global sobre la materia, ya que las experiencias existentes están fragmentadas y lo qué se entiende por transparencia algorítmica también varía”, destaca la Directora del GobLab.
Una investigación que traspasa fronteras
La investigación identificó un corpus de 41 documentos relevantes, con información de 2015 a 2022 en inglés y español. De la revisión sistemática se identificaron múltiples mecanismos para promover la transparencia algorítmica, agrupándolos en (1) la divulgación de información, (2) explicaciones y (3) evaluaciones. Estos mecanismos varían en términos de quienes rinden cuenta de sistemas algorítmicos, en qué etapas del sistema, y hacia qué tipos de actores o públicos se dirigen.
Esta investigación fue utilizada por la OGP en su nueva Guía para Escépticos del Gobierno Abierto, dirigida a tomadores de decisiones en el sector público. De este modo, en su capítulo 8, da cuenta de todos los temas relacionados a Transparencia Algorítmica. “Esta guía llega a una audiencia global de tomadores de decisiones en políticas públicas, lo que permite ampliar la visibilidad y alcance de nuestro trabajo, más allá de América Latina. Y en un formato no técnico y accesible para una audiencia más amplia”, sostiene la directora.
Según la investigación, esta adopción generalizada de sistemas de decisiones automatizadas (SDA) en temas delicados ha generado preocupaciones sobre cómo los algoritmos toman decisiones, y si podrían tener sesgos. Sin embargo, se ha demostrado que la implementación de diferentes métodos de transparencia algorítmica permite evidenciar esos posibles sesgos, rendir cuenta sobre el uso de algoritmos y generar mayor confianza del público en las decisiones gubernamentales que dependen de algoritmos. Diversas organizaciones e instituciones han establecido principios y estándares para la Inteligencia Artificial Ética, y un gran porcentaje concuerda en que la transparencia es fundamental en este campo.
Promoviendo la transparencia algorítmica
Como se menciona más arriba, hoy existen diferentes mecanismos que promueven la transparencia algorítmica. Estos varían en función de los responsables de los algoritmos, momento en que se hace pública la información, y la audiencia objetivo. Entre estos se pueden distinguir categorías de métodos con sus subcategorías, y ejemplos de cómo se aplican. En primer lugar, se encuentran las Divulgaciones, que implican revelar información directamente sobre los algoritmos. En este ítem se pueden encontrar la divulgación de información que se realizan a través de Solicitudes de Información (conocidas como “Transparencia Reactiva”); fichas de modelos (Model Cards); liberar el código fuente; y la creación de registros de algoritmos o de inteligencia artificial.
Segundo, se posicionan las explicaciones, existiendo diferentes modos en que se están diseñando sistemas computacionales para explicar al usuario la forma en que un sistema algorítmico llegó a una decisión o resultado (por ejemplo, que características o variables fueron claves para un determinado puntaje), para aumentar la confianza en el usuario sobre el uso del sistema algorítmico.
En tercer lugar, se encuentran las evaluaciones que se dividen en auditorías y evaluaciones de impacto. Estas permiten poner a prueba los modelos de Inteligencia Artificial y las bases de datos que se usaron para entrenarlos y con ello examinar críticamente sus impactos a grupos marginalizados. Con ello se puede avanzar en dar mayores garantías del uso responsable de los algoritmos y establecer responsabilidades en los actores que diseñan estos sistemas computacionales. Es importante mencionar que a pesar de que los SDA son una tecnología nueva en su implementación, hay pruebas fehacientes de sus impactos.
Esto es lo que dice la evidencia de los beneficios de la Transparencia Algorítmica:
- Igualdad: La transparencia algorítmica permite identificar sesgos en los algoritmos.
- Confianza: Una investigación demostró que las personas confían más en la toma de decisiones del Gobierno cuando la entienden, y que la información compartida a través de la transparencia algorítmica debe adaptarse a un tipo de audiencia para mayor confiabilidad. Asimismo, el gobierno necesita adoptar SDA teniendo en cuenta los valores públicos e impactos potenciales, puesto que sin esto es muy mal calificado.
- Control de la Corrupción: exponer posibles conflictos de interés previene posibles discriminaciones, al mismo tiempo que permite tomar mejores decisiones.
En relación a los límites a la evidencia, se pudo determinar que el sector público está adoptando rápidamente los SDA, pero desde hace poco tiempo. Además, falta un vocabulario uniforme para la transparencia algorítmica, y un mayor cuerpo de evidencia. Por último, existen implicaciones éticas de experimentar con SDA para las autoridades públicas que la están usando para una mejor toma de decisiones.