Eticas Foundation impulsa un directorio para conocer los riesgos y los retos de los sistemas de aprendizaje automatizado que nos afectan directamente y que utilizan gobiernos y grandes empresas. ¡Conoce el proyecto!

Algoritmos
Algoritmos.

OASI es el primer buscador para encontrar los algoritmos que utilizan los gobiernos y las empresas sobre los y las ciudadanas. Creado por la Fundación Eticas , este observatorio de algoritmos con impacto social, recoge información de decenas de algoritmos utilizados por Administraciones Públicas y empresas de todo el mundo para conocer más sobre su impacto social. El objetivo es dar acceso público a la información tanto de los gobiernos como de los algoritmos de las empresas , y saber quién los utiliza, quién los desarrolla, qué amenazas representan y si han sido auditados, entre otras características.

Actualmente, tanto las empresas como las Administraciones Públicas automatizan las decisiones gracias a algoritmos. Sin embargo, su desarrollo y puesta en marcha no sigue controles de calidad externos, ni es tan transparente como debería ser, lo que deja desprotegida a la población. Con este buscador cualquier persona puede conocer más sobre estos algoritmos : quién los ha desarrollado, quién los utiliza, su ámbito de aplicación, si han sido auditados, sus objetivos o su impacto social y las amenazas que representan.

De momento, OASI lleva recogidos 149 algoritmos . Entre ellos, 24 ya están siendo aplicados en EE.UU. por el Gobierno y las empresas Big Tech. Por ejemplo, ShotSpotter, una herramienta de algoritmo desplegada por el Departamento de Policía de Oakland para combatir y reducir la violencia armada mediante micrófonos de control de sonido, y un algoritmo para predecir posibles abusos y negligencias infantiles utilizado por el condado de Allegheny, Pensilvania . Otro ejemplo de una corporación es Rekognition, el sistema de reconocimiento facial de Amazon, que fue auditado por el MIT Media Lab a principios de 2019, y se encontró con un rendimiento sustancialmente peor al identificar el género de una persona si era mujer o piel más oscura.

La discriminación más habitual es por edad, género, raza o discapacidad , producida sin querer por desarrolladores que carecen de habilidades socioeconómicas para entender el impacto de esta tecnología. En este sentido, estos ingenieros diseñan los algoritmos basándose sólo en habilidades técnicas, y dado que no hay controles externos y parece que funciona como se esperaba, el algoritmo sigue aprendiendo de datos deficientes