Aumentar las oportunidades y abordar los retos sobre el uso ético de datos y la inteligencia artificial ya es posible gracias al modelo de autoevaluación PIO de la Universidad de Girona.

¿Cuáles son los riesgos y beneficios de la inteligencia artificial? ¿Quién se ve afectado por ella y cómo? ¿Cómo mejorar el bienestar de las personas con estas tecnologías? Con el objetivo general de responder a estas preguntas y demostrar que es posible avanzar en esta dirección, el Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC) presenta la web e informe sobre el modelo PIO (Principios, Indicadores, Observables) "Una propuesta de autoevaluación organizativa sobre el uso ético de datos y sistemas de Inteligencia Artificial", diseñado y desarrollado por el propio OEIAC con el apoyo del Departamento de la Vicepresidencia y de Políticas Digitales y Territorio, de la Universidad de Gerona y de la Fundación i2cat.

¿Cuáles son los objetivos específicos?

  • Sensibilizar a los diferentes agentes de la cuádruple hélice, es decir, la presencia de los cuatro pilares clave en cualquier proceso innovador: universidades y centros de investigación, administración pública, tejido empresarial y ciudadanía, que utilizan datos y sistemas de inteligencia artificial , sobre la importancia de adoptar principios éticos fundamentales para minimizar riesgos conocidos y desconocidos y maximizar oportunidades.
  • Identificar acciones adecuadas o inadecuadas a través de una propuesta de autoevaluación basada en principios, indicadores y observables para valorizar, recomendar y avanzar en el uso ético de datos y sistemas de inteligencia artificial.

El modelo PIO es un paso más para avanzar en esta dirección puesto que proporciona una integración de la teoría a la práctica de principios éticos fundamentales de la IA. En este sentido, propone la utilización de un modelo que puede utilizarse en cualquier fase del ciclo de vida de los datos y sistemas de IA.