(Español) Experiencia del IPS: Cómo evaluamos si había o no sesgos en el modelo predictivo No Cobros de la PGU

By Thursday June 13th, 2024 June 14th, 2024 Blog

Sorry, this entry is only available in European Spanish.

Desde 2022 el Instituto de Previsión Social (IPS) ha estado vinculado a la plataforma Algoritmos Públicos de la Universidad Adolfo Ibáñez (UAI). Primero, publicaron en el Repositorio su primer algoritmo de ciencia de datos: FuzzyRUT; y luego se incorporaron a los pilotos de Algoritmos Éticos con su Proyecto No Cobros.

 

“La universidad nos ha asesorado y nos ha apoyado en la implementación ética de nuestros modelos de ciencia de datos e IA (Modelo Predictivo de No Cobros y Clustering de Caducados). Ahora seguimos vinculados al trabajo del GobLab para compartir nuestra experiencia y mejorar el diseño de las tres nuevas herramientas mediante su evaluación y retroalimentación”, señala José Francisco Silva, jefe del Proyecto No Cobros del IPS, quien ha sido la contraparte técnica del equipo UAI durante este tiempo.

 

En esta entrevista, nos comparte tanto aspectos de los modelos desarrollados por la institución como su experiencia con las Herramientas de Algoritmos Éticos.

 

 

¿En qué consiste el Proyecto No Cobros y cuál es su importancia para la ciudadanía?

 

El Proyecto No Cobros se relaciona con un propósito central para el Instituto de Previsión Social (IPS): asegurar que las personas accedan a sus beneficios estatales. El IPS realiza, en promedio, cerca de 3,2 millones de pagos mensuales de pensiones y beneficios de seguridad social, de los cuales aproximadamente el 1% no se cobra a tiempo. El resultado es que, al cabo de cinco años, pueden acumularse pagos no retirados de hasta 600 mil personas.

 

Las causas del no cobro pueden ser variadas: poca información, falta de red de apoyo, dificultades de desplazamiento por problemas de conectividad, pérdida de autonomía de las personas, y hasta confusión en algunos casos o simple olvido. Entonces el Proyecto No Cobros comprende un conjunto de iniciativas para que la mayor cantidad de personas retire sus beneficios disponibles, las que incluyen desde contactos y depósitos proactivos hasta el uso de algoritmos.

 

Así fue que partimos con el “Modelo Predictivo de No Cobros PGU” (Pensión Garantizada Universal), que comenzó el año 2022 por compromiso con la Superintendencia de Pensiones, uno de nuestros organismos reguladores. Primero probamos un prototipo, luego juntamos un año de datos, realizamos un plan piloto por dos meses y en julio de 2024, lo implementaremos en régimen.

 

¿Qué significa que sea un modelo predictivo?

 

Un modelo predictivo es un modelo matemático que puede, con una alta probabilidad, indicarnos qué pasará en el futuro. Para crearlo se recopilan datos, lo cual puede incluir una gran variedad de información, tanto interna como externa y en diferentes formatos, que luego sirve para formular un modelo de data science que analiza los datos y busca patrones y relaciones que puedan indicar comportamientos y tendencias útiles hacia el futuro.

 

Entonces nuestro modelo predice, un mes antes, quiénes no cobrarán su PGU, y para ese grupo de personas realizamos un arduo trabajo de limpieza y cruces de datos, con el fin de contactarlos mediante email y mensajes de textos. Así, hemos logrado que al menos el 50% de ellos cobren su beneficio, lo que implica más de 2 mil personas por mes.

 

¿Qué desafíos éticos implicaba aplicar esta tecnología en un ámbito sensible como es el pago de beneficios?

 

El primer desafío fue convencerse de que existen sesgos que se reproducen y se propagan, y que es importante mantenerlos controlados. Desde ahí, se debían definir las variables protegidas, en nuestro caso nacionalidad, edad y género, para asegurarnos de que al usar este sistema no se generaran o reprodujeran sesgos que afectaran negativamente los derechos de la ciudadanía. En síntesis, que no se produjera discriminación.

 

Entonces hicimos una evaluación con el apoyo de la UAI, aplicando distintas herramientas,  y vimos que en primera instancia todas las variables presentaban sesgos estadísticos. Por ello, se debió aplicar una ingeniería reversa para analizar dónde se originaban los sesgos y si ellos se debían al modelo predictivo o no, es decir, si eran legítimos o había que aplicar medidas de control.

 

Por ejemplo, el sesgo en la variable nacionalidad era explicable porque la norma exige 20 años de residencia en Chile; los sesgos de edad se explicaban por la composición de la pirámide poblacional en Chile. Entonces ahí no había un problema.

 

Pero al analizar la variable de género vimos que el 69% de los “no cobros” de PGU correspondía a mujeres. Esto se explicaba en parte porque el 59% de las personas beneficiarias de la PGU eran mujeres, lo que a su vez se justifica porque viven más que los hombres. Sin embargo, esas causas no explicaban toda la diferencia, por lo que se diseñó como medida de mitigación una campaña comunicacional para fomentar el cobro con enfoque de género.

 

Finalmente, realizados los análisis, la conclusión más importante en esta fase fue que ninguno de los sesgos se debía al modelo predictivo propiamente tal y por tanto no era necesario introducir medidas de control. El modelo se podía usar en régimen y como equipo podíamos tener tranquilidad sobre lo que estábamos haciendo.

 

¿Qué herramienta del proyecto Algoritmos Éticos decidieron utilizar en este caso y para qué les sirvió aplicarla?

 

Usamos las siguientes:

  • Herramientas de transparencia: Ficha de Prefactibilidad y Model Card.
  • Herramientas de Evaluación de Impacto Algorítmico: evaluación de impacto ex ante y evaluación de impacto de UNESCO.
  • Herramientas de Análisis de Equidad y Sesgo: análisis de sesgo estadístico con Aequitas.
  • Herramientas de evaluación de resultados: evaluación del modelo por el Centro de Sistemas Públicos de la Facultad de Ingeniería de la Universidad de Chile.

 

Todo este proceso nos ha servido a nosotros, pero además la retroalimentación sobre el uso de cada una de estas herramientas le ha servido al GobLab para el desarrollo de las herramientas publicadas en 2024 y que están disponibles actualmente para que otros servicios públicos las prueben.

 

¿Por qué cree que otros organismos públicos deben sumarse al pilotaje de las nuevas Herramientas de Algoritmos Éticos?

 

Es fundamental avanzar en este ámbito. El Estado puede invertir en investigación y desarrollo, así como en programas educativos de IA ética, y puede colaborar con la industria para establecer estándares éticos y promover prácticas responsables en el uso de la IA. Por otra parte, la ciudadanía y la academia están exigiendo cada vez mayor participación en el debate público, así como más transparencia y rendición de cuentas.

 

A través del uso y pilotaje de estas herramientas, tanto quienes desarrollamos internamente como las instituciones que compran e implementan sistemas, podemos ofrecer una mejor rendición de cuentas sobre cómo se usan los datos de las personas y cómo se toman las decisiones por parte de los sistemas de IA que los involucran.