Eticas Foundation impulsa un directori per conèixer els riscos i els reptes dels sistemes d'aprenentatge automatitzat que ens afecten directament i que governs i grans empreses fan servir. Coneix el projecte!

Algoritmes
Algoritmes.

OASI és el primer cercador per trobar els algorismes que utilitzen els governs i les empreses sobre els i les ciutadanes.Creat per la Fundació Eticas, aquest observatori d'algoritmes amb impacte social, recull informació de desenes d'algorismes utilitzats per Administracions Públiques i empreses d'arreu del món per conèixer més sobre el seu impacte social. L'objectiu és donar accés públic a la informació tant dels governs com dels algorismes de les empreses, i saber qui els utilitza, qui els desenvolupa, quines amenaces representen i si han estat auditats, entre altres característiques.

Actualment, tant les empreses com les Administracions Públiques automatitzen les decisions gràcies a algorismes. Tanmateix, el seu desenvolupament i posada en marxa no segueix controls de qualitat externs, ni és tan transparent com hauria de ser, la qual cosa deixa desprotegida la població. Amb aquest cercador qualsevol persona pot conèixer més coses sobre aquests algorismes: qui els ha desenvolupat, qui els utilitza, el seu àmbit d'aplicació, si han estat auditats, els seus objectius o el seu impacte social i les amenaces que representen.

De moment, OASI porta recollits 149 algorismes. Entre ells, 24 ja estan sent aplicats als EUA pel Govern i les empreses Big Tech. Per exemple, ShotSpotter, una eina d'algorisme desplegada pel Departament de Policia d'Oakland per combatre i reduir la violència armada mitjançant micròfons de control de so, i un algorisme per predir possibles abusos i negligències infantils utilitzat pel comtat d'Allegheny, Pennsilvània. Un altre exemple d'una corporació és Rekognition, el sistema de reconeixement facial d'Amazon, que va ser auditat pel MIT Media Lab a principis del 2019, i es va trobar que tenia un rendiment substancialment pitjor en identificar el gènere d'una persona si era dona o de pell més fosca.

La discriminació més habitual és per edat, gènere, raça o discapacitat, produïda sense voler per desenvolupadors que no tenen habilitats socioeconòmiques per entendre l'impacte d'aquesta tecnologia. En aquest sentit, aquests enginyers dissenyen els algorismes basant-se només en habilitats tècniques, i com que no hi ha controls externs i sembla que funciona com s'esperava, l'algoritme segueix aprenent de dades deficients