Liga de la justicia algorítmica


La Algorithmic Justice League (AJL) es una organización de defensa digital con sede en Cambridge, Massachusetts . Fundada por la científica informática Joy Buolamwini en 2016, AJL tiene como objetivo crear conciencia sobre las implicaciones sociales de la inteligencia artificial a través del arte y la investigación. [1] Apareció en el documental de 2020 Coded Bias . [2]En otras palabras, es una combinación de arte y varias formas de investigación para resaltar la desfiguración de la IA. La plataforma se describe a sí misma como un grupo de activistas que tienen como objetivo alterar un uso más ético de la inteligencia artificial mediante la creación de seminarios y reuniones abiertos en línea, con la esperanza de educar a otras personas sobre la noción de tecnología de reconocimiento racial. [3]

Buolamwini fundó la Liga de la Justicia Algorítmica en 2016 después de una experiencia personal con un software de detección facial sesgado: el software no pudo detectar su rostro "altamente melancólico" hasta que se puso una máscara blanca. AJL se formó para exponer la ubicuidad de tal sesgo en la inteligencia artificial y la amenaza que representa para los derechos civiles. [4] Las primeras campañas de AJL se centraron principalmente en el software de reconocimiento facial , mientras que las campañas recientes se han ocupado más ampliamente de cuestiones de equidad y responsabilidad en la IA, incluidos el sesgo algorítmico, la toma de decisiones algorítmica , la gobernanza algorítmica y la auditoría algorítmica .

En 2018, el fundador Buolamwini colaboró ​​con el especialista en ética de inteligencia artificial Timnit Gebru para publicar un estudio histórico sobre el sesgo racial y de género en los algoritmos de reconocimiento facial. Su investigación, titulada Gender Shades , determinó que el software de análisis facial lanzado por IBM y Microsoft era menos preciso al analizar rostros femeninos y de piel oscura, en comparación con rostros masculinos y de piel clara. [5] [6] [7] El trabajo ha sido citado con frecuencia por defensores e investigadores desde su publicación, con más de 1,000 citas académicas a diciembre de 2020. Su publicación fue acompañada por el lanzamiento de Safe Face Pledge, una iniciativa diseñada con el Centro de Privacidad y Tecnología de Georgetown que instó a los desarrolladores de reconocimiento facial a autorregularse.[8] Elproyecto Gender Shades y la promoción posterior emprendida por AJL y grupos similares llevaron a varias empresas de tecnología, incluidas Amazon e IBM, a abordar los sesgos en el desarrollo de sus algoritmos e incluso prohibir temporalmente el uso de sus productos por parte de la policía en 2020. [ 9] [10]

Una colaboración de investigación que involucró a AJL llevó a la publicación de un documento técnico en mayo de 2020 que pedía la creación de una oficina federal para regular el uso del reconocimiento facial por parte del gobierno. [11] En julio, AJL se unió a la ACLU y al Centro de Derecho de la Universidad de Georgetown para pedir una moratoria federal sobre la tecnología de reconocimiento facial. [12]

En marzo de 2020, AJL lanzó un proyecto de palabra hablada , titulado Voicing Erasure, que aborda el sesgo racial en los algoritmos de reconocimiento de voz . La pieza fue realizada por numerosas investigadoras femeninas y no binarias en el campo, incluidas Ruha Benjamin , Sasha Costanza-Chock , Safiya Noble y Kimberlé Crenshaw . [13]

En 2019, Buolamwini representó a AJL en una audiencia del Congreso del Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes de los EE. UU., Donde se discutieron las implicaciones sociales y éticas de la IA. [14] [15]