Twitter Algorithm's Racial Bias Tumuturo sa Mas Malaking Tech Problem

Talaan ng mga Nilalaman:

Twitter Algorithm's Racial Bias Tumuturo sa Mas Malaking Tech Problem
Twitter Algorithm's Racial Bias Tumuturo sa Mas Malaking Tech Problem
Anonim

Mga Key Takeaway

  • Inaasahan ng Twitter na lutasin ang tinatawag ng mga user na racial bias sa kanilang image preview software.
  • Ang call-out ng tech giant ay maaaring ang kultural na pagtutuos na kailangan ng industriya upang matugunan ang mga isyu ng pagkakaiba-iba.
  • Ang kakulangan ng pagkakaiba-iba ng Tech ay nakakasira sa bisa ng mga pagsulong nito sa teknolohiya.
Image
Image

Twitter ay nakatakdang maglunsad ng pagsisiyasat sa picture-cropping algorithm nito matapos itong maging trending na paksa na nag-udyok ng mas malawak na pag-uusap sa mga isyu sa pagkakaiba-iba sa industriya ng tech.

Ang social media juggernaut ay naging mga headline pagkatapos matuklasan ng mga user ang maliwanag na pagkiling sa lahi sa algorithm ng preview ng larawan nito. Ang pagtuklas ay nangyari matapos gamitin ng Twitter user na si Colin Madland ang platform para tawagan ang pagkabigo ni Zoom na kilalanin ang kanyang mga Black na kasamahan na gumamit ng green screen na teknolohiya, ngunit sa isang engrandeng palabas ng kabalintunaan, nakita niya ang image-cropping algorithm ng Twitter na kumikilos nang katulad at inalis ang priyoridad ng mga Black na mukha.

Tiyak, napakalaking isyu ito para sa sinumang minorya, ngunit sa tingin ko ay may mas malawak ding isyu.

Nakasama ang ibang mga user sa trend na nagpasimula ng serye ng mga viral tweet na nagpapakita sa algorithm na patuloy na inuuna ang mga mapuputi at mas maputi ang balat na mga mukha, mula sa mga tao hanggang sa mga cartoon character at maging sa mga aso. Ang kabiguan na ito ay nagpapahiwatig ng isang mas malaking kilusang pangkultura sa industriya ng tech na patuloy na nabigo sa pagsasaalang-alang sa mga grupo ng minorya, na dumaloy sa teknikal na bahagi.

"Nakakatakot ang mga minorya, na parang hindi sila mahalaga, at maaari itong gamitin para sa iba pang bagay na maaaring magdulot ng mas malubhang pinsala sa hinaharap, " Erik Learned-Miller, propesor ng computer science sa Unibersidad ng Massachusetts, sinabi sa isang panayam sa telepono."Kapag napagpasyahan mo na kung para saan ang isang piraso ng software at ang lahat ng pinsalang maaaring mangyari, magsisimula na tayong pag-usapan ang mga paraan para mabawasan ang pagkakataong mangyari iyon."

Canary sa Timeline

Ang Twitter ay gumagamit ng mga neural network upang awtomatikong i-crop ang mga larawang naka-embed sa mga tweet. Ang algorithm ay dapat na makakita ng mga mukha upang i-preview, ngunit ito ay lumilitaw na may isang kapansin-pansin na puting bias. Ang tagapagsalita ng kumpanya na si Liz Kelley ay nag-tweet ng tugon sa lahat ng mga alalahanin.

Nag-tweet si Kelley, "salamat sa lahat ng nagtaas nito. sinubukan namin para sa bias bago ipadala ang modelo at wala kaming nakitang ebidensya ng pagkiling sa lahi o kasarian sa aming pagsubok, ngunit malinaw na mayroon kaming higit pang pagsusuri sa gawin. bubuksan namin ang aming gawa para masuri at matiklop ng iba."

Co-author ng white paper na "Facial Recognition Technologies in The Wild: A Call for a Federal Office, " Ang Learned-Miller ay isang nangungunang researcher sa kalabisan ng face-based AI learning software. Tinatalakay niya ang potensyal na negatibong epekto ng software sa pag-aaral ng imahe sa loob ng maraming taon, at sinabi niya ang tungkol sa kahalagahan ng paglikha ng katotohanan kung saan ang mga bias na ito ay nababawasan sa abot ng kanilang makakaya.

Maraming algorithm para sa facial recognition technology ang gumagamit ng mga reference set para sa data, na kadalasang kilala bilang training set, na isang koleksyon ng mga larawang ginagamit upang i-fine-tune ang gawi ng image-learning software. Sa huli, pinapayagan nito ang AI na madaling makilala ang isang malawak na hanay ng mga mukha. Gayunpaman, ang mga reference set na ito ay maaaring kulang sa magkakaibang pool, na humahantong sa mga isyu tulad ng naranasan ng Twitter team.

"Tiyak, ito ay isang malaking isyu para sa sinumang minorya, ngunit sa palagay ko ay may mas malawak na isyu din," sabi ni Learned-Miller. "Nauugnay ito sa kakulangan ng pagkakaiba-iba sa sektor ng teknolohiya at ang pangangailangan para sa isang sentralisadong puwersang pangregulasyon upang ipakita ang wastong paggamit ng ganitong uri ng makapangyarihang software na madaling gamitin at maabuso."

Tech Lacking Diversity

Ang Twitter ay maaaring ang pinakabagong tech na kumpanya sa chopping block, ngunit ito ay malayo sa isang bagong problema. Ang tech field ay nananatiling isang pangunahing puti, permanenteng pinangungunahan ng mga lalaki at nalaman ng mga mananaliksik na ang kakulangan ng pagkakaiba-iba ay nagdudulot ng pagtitiklop ng mga sistematikong, makasaysayang imbalances sa binuong software.

Sa isang ulat noong 2019 ng AI Now Institute ng New York University, nalaman ng mga mananaliksik na wala pang 6 na porsiyento ng mga manggagawa sa mga nangungunang tech firm sa bansa ang Black people. Katulad nito, ang mga kababaihan ay nagkakaloob lamang ng 26 porsiyento ng mga manggagawa sa larangan-isang istatistikang mas mababa kaysa sa kanilang bahagi noong 1960.

Nakakatakot ang mga minorya, na parang hindi sila mahalaga, at maaari itong gamitin para sa iba pang bagay na maaaring magdulot ng mas malubhang pinsala sa hinaharap.

Sa ibabaw, ang mga isyung representasyonal na ito ay maaaring mukhang pangmundo, ngunit sa pagsasagawa, ang pinsalang naidulot ay maaaring maging malalim. Iminumungkahi ng mga mananaliksik sa ulat ng AI Now Institute na nauugnay ito sa mga isyu sa software na kadalasang hindi natutukoy ang mga hindi puti at hindi lalaki na populasyon. Kung ito man ay mga infrared na dispenser ng sabon na nabigong makakita ng mas maitim na balat o ang AI software ng Amazon na nabigong ibahin ang mga mukha ng babae mula sa mga mukha ng kanilang mga katapat na lalaki, ang pagkabigo na tugunan ang pagkakaiba-iba sa industriya ng teknolohiya ay humahantong sa kabiguan ng teknolohiya upang harapin ang magkakaibang mundo.

"Maraming tao ang hindi napag-isipang mabuti ang mga isyu at hindi talaga alam kung paano maaaring magdulot ng pinsala ang mga bagay na ito at kung gaano kalaki ang mga pinsalang ito, " iminungkahi ni Learned-Miller tungkol sa AI image learning. "Sana, lumiliit ang bilang ng mga tao!"

Inirerekumendang: