(Español) Universidad Adolfo Ibáñez lidera iniciativas clave en el Plan de Acción de la Política Nacional de Inteligencia Artificial para un uso responsable de la tecnología

By Friday May 3rd, 2024 June 26th, 2024 Algoritmos Éticos, NEWS

Sorry, this entry is only available in European Spanish.

La Universidad colabora con organismos públicos para implementar transparencia, equidad y responsabilidad en diferentes etapas de los proyectos de IA.

UAI lidera iniciativas clave en el Plan de Acción de la Política Nacional de Inteligencia Artificial para un uso responsable de la tecnología

3 de mayo 2024

El Plan de Acción de la Política Nacional de Inteligencia Artificial del Gobierno de Chile, presentado por la ministra de Ciencia, Aisén Etcheverry, abarca más de 100 acciones comprometidas para 2026. En una colaboración sin precedentes entre la academia y el gobierno, la Universidad Adolfo Ibáñez (UAI) destaca por su papel fundamental en la implementación de cuatro medidas cruciales para una Inteligencia Artificial (IA) ética y responsable en Chile. Estas medidas son parte del proyecto “Algoritmos Éticos, Responsables y Transparentes”, liderado por el GobLab de la Escuela de Gobierno UAI y financiado por la Agencia Nacional de Investigación y Desarrollo (ANID). 

En el marco de este proyecto, se están desarrollado herramientas y metodologías innovadoras en alianza con organismos públicos como el Ministerio de Ciencia, ChileCompra, la Secretaría de Gobierno Digital del Ministerio de Hacienda, el Consejo para la Transparencia, el Instituto de Previsión Social (IPS), el Servicio Civil y la Superintendencia de Seguridad Social (SUSESO). El plan de acción destaca cuatro de ellas: 

 

  • Ficha de transparencia de los modelos algorítmicos: Esta herramienta proporciona información estandarizada que ayuda a explicar el diseño, funcionamiento y uso de modelos algorítmicos, fortaleciendo la transparencia y la confianza en las aplicaciones de IA. 
  • Herramienta para la medición de sesgos y equidad de los modelos: Permite identificar sesgos en el desempeño de modelos de IA durante su etapa de evaluación, para resguardar la equidad y no perpetuar desigualdades. 
  • Evaluación de impacto algorítmica: Consiste en una evaluación estructurada de los riesgos éticos de un proyecto en todo su ciclo de vida, para identificar posibles impactos y mecanismos de mitigación. 
  • Elaboración de metodología para monitorear la confianza en aplicaciones de IA del sector público: Se desarrollará una metodología cualitativa para medir si la implementación de estándares éticos en algoritmos contribuye a la confianza en aplicaciones de IA en servicios públicos. 

El proyecto cuenta con un equipo de investigación multidisciplinaria con participación de investigadores de la Facultad de Artes Liberales y la Escuela de Comunicaciones y Periodismo, quienes están probando las herramientas y metodologías en proyectos reales con los organismos públicos, de manera de proteger los derechos de las personas y promover la confianza en el uso de la IA. Conoce más aquí.