Transparencia algorítmica


La transparencia algorítmica es el principio de que los factores que influyen en las decisiones tomadas por los algoritmos deben ser visibles o transparentes para las personas que usan, regulan y se ven afectadas por los sistemas que emplean esos algoritmos. Aunque la frase fue acuñada en 2016 por Nicholas Diakopoulos y Michael Koliska sobre el papel de los algoritmos para decidir el contenido de los servicios de periodismo digital, [1] el principio subyacente se remonta a la década de 1970 y al auge de los sistemas automatizados para calificar el crédito al consumidor.

Las frases "transparencia algorítmica" y "responsabilidad algorítmica" [2] a veces se usan indistintamente, especialmente porque fueron acuñadas por las mismas personas, pero tienen significados sutilmente diferentes. Específicamente, la "transparencia algorítmica" establece que las entradas al algoritmo y el uso del algoritmo en sí deben conocerse, pero no es necesario que sean justos. La "responsabilidad algorítmica" implica que las organizaciones que usan algoritmos deben ser responsables de las decisiones tomadas por esos algoritmos, aunque las decisiones las tome una máquina y no un ser humano. [3]

La investigación actual sobre la transparencia algorítmica está interesada tanto en los efectos sociales del acceso a servicios remotos que ejecutan algoritmos, [4] como en los enfoques matemáticos y de informática que se pueden usar para lograr la transparencia algorítmica [5] En los Estados Unidos, la Comisión Federal de Comercio ' La Oficina de Protección al Consumidor estudia cómo los consumidores utilizan los algoritmos realizando su propia investigación sobre la transparencia algorítmica y financiando investigaciones externas. [6] En la Unión Europea , las leyes de protección de datos que entraron en vigor en mayo de 2018 incluyen un "derecho a la explicación" de las decisiones tomadas por algoritmos, aunque no está claro qué significa esto. [7]