Augmentar les oportunitats i abordar els reptes sobre l'ús ètic de dades i la intel·ligència artificial ja és possible gràcies al model d’autoavaluació PIO de la Universitat de Girona.

Quins són els riscos i beneficis de la intel·ligència artificial? Qui es veu afectat per ella i com? De quina manera es pot millorar el benestar de les persones amb aquestes tecnologies? Amb l’objectiu general de respondre a aquestes preguntes i demostrar que és possible avançar en aquesta direcció, l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC) presenta la web i informe sobre el model PIO (Principis, Indicadors, Observables) "Una proposta d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’Intel·ligència Artificial", dissenyat i desenvolupat pel mateix OEIAC amb el suport del Departament de la Vicepresidència i de Polítiques Digitals i Territori, de la Universitat de Girona i de la Fundació i2cat.

Quins són els objectius específics?

  • Sensibilitzar als diferents agents de la quàdruple hèlix, és a dir, la presència dels quatre pilars clau en qualsevol procés innovador: universitats i centres de recerca, administració pública, teixit empresarial, i ciutadania, que utilitzen dades i sistemes d'intel·ligència artificial, sobre la importància d’adoptar principis ètics fonamentals per minimitzar riscos coneguts i desconeguts i maximitzar oportunitats.
  • Identificar accions adequades o inadequades a través d’una proposta d’autoavaluació basada en principis, indicadors i observables per valoritzar, recomanar i avançar en l’ús ètic de dades i sistemes d’intel·ligència artificial.

El model PIO és un pas més per avançar en aquesta direcció ja que proporciona una integració de la teoria a la pràctica de principis ètics fonamentals de la IA. En aquest sentit, proposa la utilització d’un model que es pot utilitzar en qualsevol fase del cicle de vida de les dades i sistemes d’IA.