Algoritmos y Responsabilidad

By 31 de August de 2021 NOTICIAS, OPINIÓN

Recientemente a la organización alemana AlgorithmWatch y al observatorio de avisaje de la New York University se les denegó el acceso a información vital para el estudio del funcionamiento de los algoritmos utilizados en redes sociales

Algoritmos y Responsabilidad

31 de agosto 2021

Recientemente a la organización alemana AlgorithmWatch y al observatorio de avisaje de la New York University se les denegó el acceso a información vital para el estudio del funcionamiento de los algoritmos utilizados en redes sociales, sobre los cuales estaban investigando. AlgorithmWatch realizaba un análisis sobre el modo en que Instagram prioriza cierto tipo de contenido en el feed de cada usuario. Dicho estudio se detuvo abruptamente cuando Facebook, actual dueña de Instagram, advirtió de posibles acciones legales debido a infracciones a los términos de servicio de la misma por los investigadores. En el caso de NYU’s Ad Observatory, la compañía utilizó el mismo argumento para bloquear el acceso de la universidad a la plataforma Facebook e inhabilitar las cuentas asociadas al estudio que dicho centro realizaba sobre los anuncios políticos mostrados por la red social.

La negativa de Facebook a facilitar a los investigadores el acceso a los datos necesarios para analizar los algoritmos utilizados demuestra una falta de voluntad de la empresa, y el vacío existente en materia de rendición de cuentas y transparencia en la explotación de datos. Lo que vemos en nuestro feed no es inofensivo. Ya se ha hecho visible cómo el uso indebido de información privada puede tener consecuencias importantes, al punto de definir los destinos políticos de las naciones. Resulta por tanto imprescindible que aquellos que basan sus negocios en los datos de los usuarios sean transparentes y responsables, permitiendo el escrutinio del funcionamiento y el diseño de sus algoritmos y el tratamiento de datos.

Este escrutinio se puede realizar de diferentes maneras, incluso si es que los sistemas utilizan datos sensibles. Por ejemplo, desde 2018 está implementado en el sistema de atención primaria de Chile DART, un software de inteligencia artificial de desarrollo nacional para la detección temprana de la retinopatía diabética, principal causa de pérdida de visión y ceguera en personas en edad laboral. Este software tuvo un proceso de validación clínica previo a su despliegue, lo cual es una de las herramientas de responsabilidad de algorítmicas disponibles. Esta validación permitió comprobar que tiene el desempeño necesario para poder ser utilizado como una herramienta eficaz en el monitoreo de la salud de los pacientes con diabetes. También es posible realizar auditorías de los sistemas o evaluaciones de impacto en protección de datos, donde no sólo el manejo de los datos es relevante sino también poder demostrar la responsabilidad correlativa de quienes diseñan y aplican los algoritmos. De esta manera, será posible validar que estos funcionan adecuadamente, sin amplificar los sesgos existentes y respetando la privacidad de los usuarios.

Romina Garrido, investigadora asociada GobLab UAI

María Paz Hermosilla, Directora GobLab UAI

 

Columna publicada originalmente en La Segunda