Existen múltiples ejemplos en el mundo donde esta tecnología ha resultado en discriminaciones arbitrarias, con consecuencias negativas para las personas, que no podemos ignorar: necesitamos conocer cuándo se usan estas tecnologías en decisiones que nos afectan significativamente y comprender la lógica de su funcionamiento
10 de julio 2023
Un modelo de responsabilidad para la regulación de la inteligencia artificial
Existen múltiples ejemplos en el mundo donde esta tecnología ha resultado en discriminaciones arbitrarias, con consecuencias negativas para las personas, que no podemos ignorar: necesitamos conocer cuándo se usan estas tecnologías en decisiones que nos afectan significativamente y comprender la lógica de su funcionamiento.
Consultada respecto de la presentación de una propuesta regulatoria para la inteligencia artificial (IA), la ministra de Ciencia, Aisén Etcheverry, indicó que esto debiera ocurrir “relativamente pronto, probablemente durante este año”. Este anuncio abre una nueva pregunta: ¿qué tipo de regulación deberíamos tener?
Esta regulación debiera estar basada en un modelo de responsabilidad o accountability, lo que significa que las entidades que la implementen se deban hacer cargo y respondan por los efectos que la IA pueda producir, y para ello se requiere identificar y mitigar los riesgos que presenta el uso de la IA para las personas. Sobre esto existen múltiples ejemplos en el mundo donde esta tecnología ha resultado en discriminaciones arbitrarias, con consecuencias negativas para las personas, que no podemos ignorar: necesitamos conocer cuándo se usan estas tecnologías en decisiones que nos afectan significativamente y comprender la lógica de su funcionamiento. Más aún, su uso en sectores donde existen otras regulaciones de seguridad, como la salud, debe incluir las pruebas y revisiones para asegurar que los productos funcionan y son seguros.
Una experiencia útil para la construcción de la regulación de la IA con mecanismos concretos de responsabilidad es el proyecto Algoritmos Éticos, iniciativa que ejecutamos en la Universidad Adolfo Ibáñez desde 2021 con el apoyo del Banco Interamericano del Desarrollo. En este marco estamos colaborando con organismos estatales para introducir un uso responsable de la IA en Chile. Así, en 2022 la División de Gobierno Digital publicó una guía para evaluar riesgos éticos en el diseño de proyectos y en enero de 2023 ChileCompra publicó una base estandarizada para la compra de IA y ciencia de datos que exigen, entre otros, medir el desempeño de los sistemas incorporando métricas de equidad, lo que significa entender, por ejemplo, si un sistema que detecta enfermedades tiene la misma tasa de error para hombres y mujeres.
Todo ha ido acompañado con la capacitación de sobre 120 funcionarios públicos y la realización de pilotos de estas tecnologías con FONASA, el Instituto de Previsión Social y la Defensoría Penal Pública. En paralelo, hemos apoyado al Consejo para la Transparencia en la preparación de una Instrucción General de Transparencia Algorítmica, normativa que abre la puerta a un mayor control sobre las decisiones automatizadas en el Estado, y que será la primera norma vinculante en América Latina sobre la materia.
Todos estos logros son importantes avances dejan a Chile en una posición de liderazgo regional y es experiencia práctica que puede ser usada para la construcción de la regulación de la IA que ya se ve en el horizonte, con mecanismos de responsabilidad concretos y probados.
Columna publicada en La Segunda el 6 de julio de 2023.