Joy Buolamwini

From Wikipedia, the free encyclopedia

Nacimiento 1989 Ver y modificar los datos en Wikidata
Edmonton (Canadá) Ver y modificar los datos en Wikidata
Nacionalidad Canadiense
Supervisor doctoral Ethan Zuckerman Ver y modificar los datos en Wikidata
Joy Buolamwini
Información personal
Nacimiento 1989 Ver y modificar los datos en Wikidata
Edmonton (Canadá) Ver y modificar los datos en Wikidata
Nacionalidad Canadiense
Educación
Educada en
Supervisor doctoral Ethan Zuckerman Ver y modificar los datos en Wikidata
Información profesional
Ocupación Informática teórica Ver y modificar los datos en Wikidata
Área Ciencias de la computación Ver y modificar los datos en Wikidata
Empleador Instituto Tecnológico de Massachusetts Ver y modificar los datos en Wikidata
Afiliaciones MIT Media Lab Ver y modificar los datos en Wikidata
Sitio web www.poetofcode.com Ver y modificar los datos en Wikidata
Distinciones

Joy Adowaa Buolamwini (Edmonton, 1989) es una informática y activista digital ghanesa-estadounidense que trabaja para en el MIT Media Lab. Fundó la Algorithmic Justice League, una organización que buscaba desafiar el sesgo del software en la toma de decisiones.[1]

Buolamwini nació en Canadá, creció en Misisipi y asistió al Instituto Cordova.[2] A los 9 años, basándose en el Robot Kismet, del Instituto de Tecnología de Massachusetts (MIT), y aprendió de manera autodidacta XHTML, Javascript y PHP.[3][4][5] Fue saltadora de pértiga profesional.[6]

Como universitaria, Buolamwini estudió informática en el Instituto de Tecnología de Georgia, donde investigó informática médica.[7] Fue becada en el Programa de Becas Stamps President's Scholar en el Instituto de Tecnología de Georgia en 2012, y fue la finalista más joven del Premio de Tech InVenture de Georgia en 2009.[8][9]

Consiguió las becas Rhodes, Fulbright, Stamps, Astronaut y la del Instituto Anita Borg.[10] Como becaria de Rhodes, estudió educación y tecnología en la Universidad de Oxford.[11][12] Durante su beca, participó en el primer Servicio del Año, trabajando en proyectos para la comunidad.[12][13] Se licenció por el MIT en 2017 con una investigación supervisada por el ciberactivista Ethan Zuckerman.[14]

Carrera e investigación

En 2011, formó parte del programa Tracoma en el Centro Carter, para desarrollar un sistema de diagnóstico en Etiopía basado en Android para ayudar en la erradicación de la enfermedad en todo el mundo.[15][4]

Joy Buolamwini en Wikimania 2018 en Ciudad del Cabo

Durante su beca del Programa Fulbright en 2013, Buolamwini trabajó con informáticos locales en Zambia para empoderar a los jóvenes de Zambia para convertirse en creadores de tecnología.[16] El 14 de septiembre de 2016, Buolamwini compareció en la cumbre Computer Science for All en la Casa Blanca.[17][18]

Como investigadora en el MIT Media Lab, identificó el sesgo en los algoritmos y desarrolló una política de responsabilidad durante su diseño; en el MIT, Buolamwini es miembro del Centro de Medios Cívicos de Ethan Zuckerman.[19][20][21] Durante su investigación, Buolamwini descubrió que los sistemas de reconocimiento facial tenían dificultades para identificar a las mujeres de piel oscura, preguntando al software identificar hombre o mujeres a partir de 1.000 caras.[22][23] Su proyecto, Sombras de Género, atrajo la atención de importantes medios de comunicación y formó parte de su tesis en el MIT.[24][25][26][27][28][29][30][31] Su publicación de 2018, Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, logró la reacción de IBM y Microsoft, quienes rápidamente mejoraron su software.[32][33] También creó el Espejo de las Aspiraraciones, un dispositivo que te muestra un reflejo de ti mismo a partir de aquello que te inspira.[34] Su programa, Liga de Justicia Algorítmica, denuncia el sesgo en el código que puede llevar a la discriminación de grupos minoritarios.[35] Ha creado dos películas, 'Code4Rights' y 'Liga de Justicia Algorítmica: Desenmascarando Sesgo'.[36][37] Es Jefa de Tecnología en Techturized Inc., un compañía tecnológica de cuidado capilar.[7]

"Coded Bias" es un documental dirigido por Shalini Kantayya que presenta la investigación de Buolamwini sobre las inexactitudes de la inteligencia artificial en la tecnología de reconocimiento facial y el software de evaluación automatizada. La película destaca cómo los sistemas de reconocimiento facial pueden causar problemas para ciertos grupos porque a menudo no reconocen a todos por igual. A medida que las empresas utilizan más aprendizaje automático, los algoritmos discutidos tienen una influencia sustancial sobre la información que percibimos, determinando a las personas que navegan con éxito a través de procesos de contratación automatizados, aquellos que tienen acceso a la atención médica y aquellos que están sujetos a un escrutinio más riguroso dentro del sistema policial.[38]

Reconocimientos

Vida personal

Referencias

Related Articles

Wikiwand AI