De Wikipedia, la enciclopedia libre
Ir a navegaciónSaltar a buscar

Joy Adowaa Buolamwini es una científica informática y activista digital ghanesa-estadounidense que trabaja en el MIT Media Lab . Fundó la Algorithmic Justice League , una organización que busca desafiar el sesgo en el software de toma de decisiones. La organización hace esto combinando arte e investigación para resaltar las implicaciones sociales y los daños de la IA. [2]


Educación y vida temprana

Buolamwini nació en Edmonton , Alberta , creció en Mississippi y asistió a Cordova High School . [3] A los 9 años, se inspiró en Kismet , el robot del MIT , y aprendió por sí misma XHTML , JavaScript y PHP . [4] [5] Era una saltadora con pértiga competitiva. [6]

Como estudiante, Buolamwini estudió ciencias de la computación en el Instituto de Tecnología de Georgia , donde investigó informática de la salud. [7] Buolamwini se graduó como Becario del Presidente de Sellos de Georgia Tech en 2012, [8] y fue el finalista más joven del Premio Georgia Tech InVenture en 2009. [9]

Buolamwini es becario de Rhodes , becario Fulbright , becario de Stamps, becario de astronauta y becario del Instituto Anita Borg . [10] Como becaria Rhodes , estudió aprendizaje y tecnología en Jesus College, Oxford . [11] [12] Durante su beca, participó en el primer año de servicio formal, trabajando en proyectos centrados en la comunidad. [12] [13] Obtuvo una maestría del MIT en 2017 por una investigación supervisada por Ethan Zuckerman . [1]

Carrera e investigación

En 2011, se asoció con el programa de Tracoma en Carter Center , para desarrollar un sistema de evaluación basado en Android para Etiopía y ayudar a erradicar la enfermedad en todo el mundo. [14] [4]

Joy Buolamwini en Wikimania 2018 en Ciudad del Cabo

Como becario Fulbright , en 2013 Buolamwini trabajó con científicos informáticos locales en Zambia para empoderar a los jóvenes zambianos para que se convirtieran en creadores de tecnología. [15] El 14 de septiembre de 2016, Buolamwini apareció en la cumbre de la Casa Blanca sobre Ciencias de la Computación para Todos. [ cita requerida ]

Es investigadora del MIT Media Lab , donde identifica sesgos en algoritmos y desarrolla prácticas de responsabilidad durante su diseño; [16] En el laboratorio, Buolamwini es miembro de Ethan Zuckerman 's Centro de Medios Cívicos grupo. [17] [18] Durante su investigación, Buolamwini mostró sistemas de reconocimiento facial 1.000 rostros y les pidió que identificaran si los rostros eran femeninos o masculinos, descubrió que al software le resultaba difícil identificar a las mujeres de piel oscura. [19] Su proyecto, Gender Shades , ha atraído una gran atención de los medios y se ha convertido en parte de su tesis del MIT. [1] [20] Su artículo de 2018Sombras de género: disparidades de precisión interseccional en la clasificación comercial de género , [21] suscitó respuestas de IBM y Microsoft , quienes rápidamente mejoraron su software. [22] [23] También creó el Aspire Mirror, un dispositivo que te permite ver un reflejo de ti mismo basado en lo que te inspira. [24] Su programa, Liga de la Justicia Algorítmica, tiene como objetivo resaltar el sesgo en el código que puede conducir a la discriminación contra grupos subrepresentados. [25] Ha creado dos películas, "Code4Rights" y "La liga de la justicia algorítmica: desenmascarando el sesgo". [26] [27]Es directora de tecnología de Techturized Inc, una empresa de tecnología para el cuidado del cabello. [7]

La investigación de Buolamwini se cita como una influencia para Google, Microsoft al abordar los prejuicios de género y raza en sus productos y procesos. [28]

Activismo

Joy Buolamwini fundó la Algorithmic Justice League (AJL) en 2016 para liderar el cargo en la adquisición de inteligencia artificial (IA) equitativa y responsable . [29] La organización AJL combina arte e investigación para iluminar las implicaciones sociales y los daños de la IA. La misión de la empresa es concienciar al público sobre los impactos de la IA, equipar a la sociedad con investigación, dar voz a las comunidades más vulnerables e impulsar la industria tecnológica y el congreso.

El sitio web de AJL funciona como un lugar para ubicar información y como un blog en vivo. [30] Hay varias secciones en el sitio donde las personas pueden compartir sus historias y tomar medidas para donar o escribir a representantes del Congreso.

Borrado de voz

Voicing Erasure es una de las secciones de investigación más recientes que se encuentran en el sitio web de AJL. [31] Joy Buolamwini, Allison Koenecke, Safiya Noble, Ruha Benjamin , Kimberle Crenshaw , Megan Smith y Sasha Costanza-Chock produjeron una palabra hablada sobre el sesgo en los sistemas de voz. [32] Buolamwini y Koenecke son los investigadores principales que descubren los sesgos de los sistemas de voz. Han descubierto que los sistemas de reconocimiento de voz tienen más problemas con los hablantes de inglés vernáculo afroamericano , a pesar del hecho perturbador de que estos sistemas escuchan en secreto nuestras conversaciones. El último tema abordado son los estereotipos de género nocivos perpetuados por la naturaleza servil deSiri , Alexa y Cortona.

La mirada codificada: desenmascarando el sesgo algorítmico

The Coded Gaze es un mini documental que debutó en el Museo de Bellas Artes de Boston en 2016 y actualmente está disponible a través de YouTube. Buolamwini utiliza el mini documental para concentrarse en el sesgo que subyace en la función de la inteligencia artificial. La inspiración para el mini documental y su investigación llegó cuando estaba en el MIT, creando su arte "Aspire Mirror", que utiliza el reconocimiento facial para reflejar en tu rostro a otra persona que te inspira. [33] Buolamwini anticipó tener a Serena Williams, otra mujer de piel oscura, reflejada en su rostro. Sin embargo, la tecnología no reconoció su rostro. La investigación de Buolamwini investiga por qué estaba ocurriendo esto y, en consecuencia, llevó a Buolamwini a concluir que la exclusión de personas que se parecen a ella fue el resultado de un término que ella llamó, la "mirada codificada"." [34]Además, analiza este concepto en el mini documental, "The Coded Gaze". El documental explora cómo la IA está sujeta a prejuicios raciales y de género que reflejan los puntos de vista y los antecedentes culturales de quienes la desarrollan. [35]

Sesgo codificado

The Coded Bias es un documental dirigido por Shalini Kantayya que presenta la investigación de Joy Buolamwini sobre las inexactitudes de la inteligencia artificial en la tecnología de reconocimiento facial y el software de evaluación automatizada. [36] [37] Se centra en la falta de regulación de las herramientas de reconocimiento facial vendidas por IBM , Microsoft y Amazon que perpetúan los prejuicios raciales y de género. La película cuenta la historia de una batalla entre los inquilinos de Brooklyn y una empresa de administración de edificios que intentó iniciar el reconocimiento facial para ingresar al edificio. La película presentada incluye a la autora de Weapons of Math Destruction , Cathy O'Neill.y miembros de Big Brother Watch , incluido Silkie Carlo , que se encuentra en Londres. El 5 de abril de 2021, el documental estuvo disponible para su transmisión en Netflix . [38]

Premios y reconocimientos

En 2017, Buolamwini recibió el gran premio en la categoría profesional en el concurso Search for Hidden Figures , vinculado al estreno de la película Hidden Figures en diciembre de 2016. [39] El concurso, patrocinado por PepsiCo y 21st Century Fox , tenía como objetivo para "ayudar a descubrir la próxima generación de mujeres líderes en ciencia, tecnología, ingeniería y matemáticas", [40] y atrajo 7,300 presentaciones de mujeres jóvenes en todo Estados Unidos. [8]

Buolamwini pronunció una charla TEDx en Beacon Street titulada Cómo estoy luchando contra el sesgo en los algoritmos . [41] [42] [43] En 2018 apareció en TED Radio Hour . [44] Apareció en Smart Girls de Amy Poehler en 2018. [3] La revista Fast Company la incluyó como una de los cuatro "héroes del diseño que defienden la democracia en línea". [45] Fue incluida como una de las 100 mujeres de la BBC en 2018. [46]

En 2019, Buolamwini fue incluido en la lista 2019 de los líderes más grandes del mundo de la revista Fortune. La revista también la calificó de "la conciencia de la revolución de la IA". [47] También hizo la lista inaugural de Time 100 Next en 2019. [48] En 2020, Joy Buolamwini apareció en una campaña de empoderamiento de la mujer de Levi's para el 8 de marzo, Día Internacional de la Mujer. [49] También apareció en el documental Coded Bias . [50]

Vida personal

Buolamwini ha vivido en Ghana; Barcelona, ​​España; Oxford, Reino Unido; y en Estados Unidos, Memphis, Tennessee y Atlanta, Georgia. [9]

Referencias

  1. ↑ a b c Buolamwini, Joy Adowaa (2017). Tonos de género: evaluación fenotípica y demográfica interseccional de conjuntos de datos faciales y clasificadores de género (tesis de maestría). MIT. hdl : 1721,1 / 114068 . OCLC  1026503582 .
  2. ^ "Liga de la justicia algorítmica - desenmascarar los daños y prejuicios de la IA" . Liga de la justicia algorítmica: desenmascarando los daños y prejuicios de la IA . Consultado el 15 de mayo de 2021 .
  3. ^ a b "El futuro de la informática y la tecnología: 12 mujeres jóvenes para ver - Parte 2" . Chicas inteligentes de Amy Poehler . 19 de febrero de 2018 . Consultado el 24 de marzo de 2018 .
  4. ^ a b "Joy Buolamwini | TryComputing.org" . www.trycomputing.org . Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
  5. ^ "Conozca al activista digital que está eliminando los prejuicios humanos de nuestras máquinas" . Bloomberg.com . 26 de junio de 2017 . Consultado el 24 de marzo de 2018 .
  6. ^ "Salto con pértiga de CHS - Joy Buolamwini" . vault.awardspace.com . Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
  7. ^ a b "Tech Startup of The Week: Techturized Wins With Hair Care Company" . Black Enterprise . 15 de marzo de 2013 . Consultado el 24 de marzo de 2018 .
  8. ^ a b "Joy Buolamwini gana el concurso nacional por su trabajo en la lucha contra el sesgo en el aprendizaje automático" . Noticias del MIT . Consultado el 24 de marzo de 2018 .
  9. ^ a b "Rhodes Scholar muestra 'compasión a través de la computación ' " . www.news.gatech.edu . Consultado el 24 de marzo de 2018 .
  10. ^ "Cineastas colaborativos | Perfil" . filmmakerscollab.org . Consultado el 24 de marzo de 2018 .
  11. ^ Buolamwini, Joy Adowaa (2014). Aumento de la participación en la educación en ciencias de la computación a nivel de posgrado: un estudio de caso de la maestría en ciencias de la computación del Instituto de Tecnología de Georgia . bodleian.ox.ac.uk (tesis de maestría). Universidad de Oxford. OCLC 908967245 . 
  12. ^ a b "Perfil de Joy Buolamwini" . El Proyecto Rhodes . Consultado el 24 de marzo de 2018 .
  13. ^ "Plataforma de lanzamiento de Oxford: Confesiones de un emprendedor: Joy Buolamwini | Oxford emprendedor" . www.eship.ox.ac.uk . Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
  14. ^ "Scholar Spotlight: Joy Buolamwini | Fundación de becas de astronauta" . astronautscholarship.org . Consultado el 24 de marzo de 2018 .
  15. ^ ZamrizeMedia (28 de abril de 2013), Joy Buolamwini | Becario Fulbright 2013 | Zambia , consultado el 24 de marzo de 2018
  16. ^ "Resumen del proyecto‹ Liga de la justicia algorítmica - MIT Media Lab " . Laboratorio de Medios del MIT . Consultado el 24 de marzo de 2018 .
  17. ^ "entrevista: alegría buolamwini | Admisiones del MIT" . mitadmissions.org . Consultado el 24 de marzo de 2018 .
  18. ^ "Grupo de personas‹ Medios cívicos - MIT Media Lab " . Laboratorio de Medios del MIT . Consultado el 24 de marzo de 2018 .
  19. ^ "ID de algoritmos de foto hombres blancos bien, mujeres negras, no tanto" . CON CABLE . Consultado el 24 de marzo de 2018 .
  20. ^ Kleinman, Zoe (14 de abril de 2017). "¿Es la inteligencia artificial racista?" . BBC News . Consultado el 24 de marzo de 2018 .
  21. Buolamwini, Joy (2018). "Tonos de género: disparidades de precisión interseccional en la clasificación comercial de género" . Conferencia sobre Equidad, Responsabilidad y Transparencia . 81 : 77–91 - a través de mir.press.
  22. ^ "Mitigación del sesgo en modelos de inteligencia artificial (AI) - IBM Research" . www.ibm.com . 16 de mayo de 2016 . Consultado el 24 de marzo de 2018 .
  23. ^ "Tonos de género: disparidades de precisión interseccional en la clasificación comercial de género" (PDF) . Actas de la investigación sobre aprendizaje automático . 2018 . Consultado el 24 de marzo de 2018 .
  24. ^ "Aspire Mirror" . Aspire Mirror . Consultado el 24 de marzo de 2018 .
  25. ^ Internacional, Youth Radio - Youth Media (28 de febrero de 2017). "Una búsqueda de 'figuras ocultas' encuentra alegría" . Huffington Post . Consultado el 24 de marzo de 2018 .
  26. ^ "Cineastas colaborativos | Code4Rights" . filmmakerscollab.org . Consultado el 24 de marzo de 2018 .
  27. ^ "Cineastas colaborativos | Liga de la justicia algorítmica: desenmascarar sesgos" . filmmakerscollab.org . Consultado el 24 de marzo de 2018 .
  28. ^ 2 de marzo; Burt, 2020 | Chris (2 de marzo de 2020). "Gigantes de la tecnología presionados para seguir a Google en la eliminación de etiquetas de género de los servicios de visión por computadora" . Actualización biométrica . Consultado el 9 de marzo de 2020 .
  29. ^ "Misión, equipo e historia - La Liga de la justicia algorítmica" . www.ajl.org . Consultado el 9 de mayo de 2021 .
  30. ^ "Spotlight - Documental de sesgo codificado" . www.ajl.org . Consultado el 9 de mayo de 2021 .
  31. ^ "Borrado de voz" . www.ajl.org . Consultado el 9 de mayo de 2021 .
  32. ^ Voicing Erasure - A Spoken Word Piece Exploring Bias in Voice Recognition Technology , recuperado el 9 de mayo de 2021
  33. ^ Rockefellerfoundation https://www.rockefellerfoundation.org/case-study/unpacking-biases-in-algorithms-that-perpetuate-inequity/ . Consultado el 15 de mayo de 2021 . Falta o vacío |title=( ayuda )
  34. ^ "La mirada codificada: desembalar sesgos en algoritmos que perpetúan la desigualdad" . La Fundación Rockefeller . Consultado el 20 de junio de 2021 .
  35. ^ Fastcompany https://www.fastcompany.com/90354348/alexandria-ocasio-cortez-congress-face-recognition-hearing-ai-bias . Consultado el 15 de mayo de 2021 . Falta o vacío |title=( ayuda )
  36. ^ "Sesgo codificado | Películas | PBS" . Lente independiente . Consultado el 9 de mayo de 2021 .
  37. ^ "Spotlight - Documental de sesgo codificado" . www.ajl.org . Consultado el 9 de mayo de 2021 .
  38. ^ "Revisión de RAND: marzo-abril de 2021" . 2021. doi : 10.7249 / cpa682-4 . Cite journal requiere |journal=( ayuda )
  39. ^ "No oculto más: STEM Spotlight brilla en 'figuras ocultas' como Joy Buolamwini del MIT" . Radio Juvenil . 27 de febrero de 2017 . Consultado el 24 de marzo de 2018 .
  40. ^ " " Figuras ocultas "inspira un concurso de becas para aspirantes de minorías STEM" . Empresa rápida . 19 de enero de 2017 . Consultado el 24 de marzo de 2018 .
  41. ^ "Altavoz Joy Buolamwini: cómo lucho contra el sesgo en los algoritmos" . scholar.harvard.edu . Consultado el 24 de marzo de 2018 .
  42. Buolamwini, Joy. "Cómo estoy luchando contra el sesgo en los algoritmos - MIT Media Lab" . Laboratorio de Medios del MIT . Consultado el 24 de marzo de 2018 .
  43. ^ TED (29 de marzo de 2017), Cómo lucho contra el sesgo en los algoritmos | Joy Buolamwini , consultado el 24 de marzo de 2018
  44. ^ Joy Buolamwini: ¿Cómo ve el software de reconocimiento facial el color de la piel? , consultado el 24 de marzo de 2018
  45. ^ Schwab, Katharine, Conoce a 4 héroes del diseño que defienden la democracia en línea , Revista Fast Company , consultado el 21 de julio de 2018
  46. ^ "BBC 100 Women 2018: ¿Quién está en la lista?" . BBC News . 19 de noviembre de 2018 . Consultado el 21 de noviembre de 2018 .
  47. ^ "Joy Buolamwini" . Fortuna . Consultado el 26 de noviembre de 2019 .
  48. ^ "TIEMPO 100 Próximo 2019: Joy Buolamwini" . Tiempo . Consultado el 16 de diciembre de 2019 .
  49. ^ "Ella está reescribiendo el código" . Off The Cuff . Consultado el 9 de marzo de 2020 .
  50. ^ "Nuevo documental 'sesgo codificado' explora cómo la tecnología puede ser racista y sexista: cambio de código" . NPR . Consultado el 12 de diciembre de 2020 .