Mga Key Takeaway
- Ang software ng awtomatikong paghihigpit sa edad ng YouTube ay sanhi ng pag-aalala para sa nilalaman ng LGBTQ+ sa platform.
- Ang kumpanya ay napinsala ng kontrobersya tungkol sa LGBTQ+ content creator na nagpapatibay ng pagdududa.
- Ang mga bias sa machine learning ay nagbibigay ng tiwala sa ideya na ang hindi perpektong pagpapatupad nito ng mga filter ay malamang na hindi makatarungang maghihigpit sa pag-access.
Sa kasaysayan ng hindi patas na pag-target sa mga LGBTQ+ content creator sa proseso ng pagmo-moderate nito, ang bagong AI-based na teknolohiya ng YouTube ay nakikita bilang isang nakakabagabag na susunod na hakbang para sa tech giant.
Sa opisyal na blog sa YouTube noong nakaraang linggo, inihayag ng platform ng pagbabahagi ng video ang mga planong maglabas ng bagong awtomatikong software para "mas tuluy-tuloy na maglapat ng mga paghihigpit sa edad" sa mga video na itinuturing na hindi naaangkop para sa mga nakababatang manonood.
Motivated ng mga kamakailang alalahanin tungkol sa mga bata sa app, ang bagong system ay nakabatay sa machine-learning artificial intelligence software na may kakayahang talikuran ang mga human moderator para sa mas awtomatikong proseso. Ang isyu? Ang mga automated system ng YouTube ay inakusahan ng pag-iisa ng LGBTQ+ na content at mga creator para lang sa umiiral na.
Kahit na hindi ito nakakahamak, na sa tingin ko ay hindi iyon, ito ay kakulangan ng input mula sa magkakaibang boses-o hindi bababa sa kawalan ng paggalang.
"Ang pag-aaral ng makina ay alam at nilikha ng mga tao, at posibleng magkaroon ng mga bias na iyon na likas dito o natutunan mismo ng makina," sabi ng YouTuber na si Rowan Ellis sa isang panayam sa telepono sa Lifewire. "Ang pagkiling nito sa nilalaman ng [LGBTQ+] ay makikita sa mga nakaraang karanasan ng [LGBTQ+] na mga YouTuber, at wala akong nakitang ebidensya na may nagawa na para pigilan itong mangyari."
Baby, May Masamang Dugo Kami
Ang Ellis ay isang YouTuber na gumagawa ng pang-edukasyong content na may feminist at queer bent, at noong 2017 ay nag-publish siya ng video sa restricted mode ng kumpanya. Bilang paunang pagpasok sa awtomatikong pag-moderate ng nilalaman, pinapayagan ng mode na ito ang mga user na opsyonal na i-pre-screen ang "potensyal na mature na nilalaman" mula sa mga mungkahi at rekomendasyon sa paghahanap.
Nakakuha ng higit sa 100, 000 na panonood, naniniwala siyang may sinasadyang pagsisikap na pigilan ang kanyang channel mula sa paghihigpit dahil sa kanyang tinig na pagsalungat laban sa mga kalabisan ng bagong hakbang ng YouTube tungo sa pagmo-moderate. Hindi gaanong pinalad ang ibang mga user sa platform, at ipinaalam nila ito sa YouTube.
Ang isang class-action na demanda laban sa YouTube ay isinampa noong Agosto 2019 ng isang grupo ng walong LGBTQ+ creator na inakusahan ang kumpanya ng Silicon Valley ng paghihigpit sa mga queer at trans video maker at content. Ang demanda ay nagsasaad na ang site ay gumagamit ng "labag sa batas na regulasyon ng nilalaman, pamamahagi, at mga kasanayan sa pag-monetize na naninira, naghihigpit, nagha-block, nagde-demonetize at pinansiyal na pumipinsala sa LGBT Plaintiffs at sa mas malaking LGBT Community." Dumadaan pa rin ito sa mga korte ng California.
Ang machine learning ay alam at nilikha ng mga tao, at posibleng magkaroon ng mga bias na iyon na likas dito o natutunan ng machine mismo.
Noong Hunyo ng taon ding iyon, tumanggap ang platform ng baha ng atensyon ng media pagkatapos tumanggi na mabilis na sawayin ang sikat na konserbatibong komentarista na si Steven Crowder para sa isang buwan, homophobic harassment campaign laban sa Vox journalist at host na si Carlos Maza. Pinatibay nito ang sinabi ni Ellis na isang pattern sa online na platform ng pagwawalang-bahala sa mga natatanging hamon na kinakaharap ng mga queer creator. Ang kawalan ng pananalig ng mga tagalikha ng LGBTQ+ sa kakayahan ng YouTube na magpakita para sa kanila ay walang merito.
"Sa palagay ko ay hindi nila naiintindihan ang pangangailangan na magkaroon ng transparency tungkol sa mga isyung panlipunan at pagtiyak ng pagkakapantay-pantay," aniya. "Mayroon pa ring mga bata sa buong mundo na lumaki na may ideya na ang pagiging bakla ay mali, at kapag sinimulan nilang kwestyunin ang paniniwalang iyon, ngunit napag-alaman na ito ay isinara sa pamamagitan ng isang ligtas na paghahanap o paghihigpit, ito ay magpapatibay sa ideya na ito. ay mali, hindi nararapat, matanda, masama, at marumi."
Nabigong Auto-Learn
Sa karumal-dumal na kasaysayan nito hinggil sa mga LGBTQ+ content creator sa platform nito, nababahala pa rin ang pag-aalala tungkol sa pagpapatupad ng kakayahan ng machine learning software na matukoy ang mas malalaking pamantayan. Si Don Heider, Executive Director sa Markkula Center for Applied Ethics, ay nagmumungkahi na ang potensyal para sa kahangalan ay napakalaking panganib para magsugal.
"Mahirap paniwalaan na epektibong mapapamahalaan ng AI ang content mula sa maraming bansa na may iba't ibang pamantayan at pamantayan sa kultura," isinulat niya sa isang panayam sa email. "Ang AI ay masyadong madalas na nakikita bilang sagot sa mga kumplikadong tanong. Sa puntong ito, ang AI at ang paraan ng pagkakalikha nito ay nahihirapang harapin kahit ang mga simpleng gawain, lalo pa ang anumang pag-moderate ng nilalaman na may anumang antas ng pagiging kumplikado."
Nagpasya ang YouTube sa paggamit ng teknolohiya ng AI dahil sa kakulangan ng pare-parehong pagmo-moderate ng mga taong moderator, ayon sa blog nito. Ang pagpapataas sa paggamit nito ng mga nakakompyuter na filter upang alisin ang mga video na itinuring na hindi angkop ay naging karaniwan, at ang pagpapatupad ng parehong mga pamamaraan para sa mga patakaran sa paghihigpit sa edad nito ay nakikita bilang isang lohikal na susunod na hakbang.
Bilang kumpanyang naghahangad na unti-unting pahusayin ang mga proseso nito pagkatapos ng matagal nang pagpuna patungkol sa kaugnayan nito sa mga batang consumer, hindi nakakagulat ang desisyong ito.
Sa palagay ko ay hindi nila naiintindihan ang pangangailangang magkaroon ng transparency tungkol sa mga isyung panlipunan at pagtiyak ng pagkakapantay-pantay.
Ang mga bata ay naging pangunahing demograpiko para sa site ng pagbabahagi ng video. Noong Agosto, nalaman ng digital-video analytics firm na Tubular na, bukod sa mga music video, ang content na naglalayon sa mga bata ay nangunguna sa listahan sa katapusan ng buwan para sa pinakapinapanood na mga video sa YouTube.
Ang interes ng kumpanya sa pagprotekta sa kumikita at umuusbong na powerhouse na ito sa platform ay may katuturan. Gayunpaman, ang mga tool na ginamit para ipatupad ang proteksyong ito ay nananatiling hindi komportable para sa mga nakahanap na ng kanilang sarili sa ibaba ng mga pamamaraan ng pagmo-moderate ng kumpanya.
"Ang pag-aalala ko ay malaki ang idudulot nito at hindi mapoprotektahan ang mga kabataang [LGBTQ+] na nangangailangan ng impormasyon, prangka, at tapat na content na maaaring ibigay ng maraming [LGBTQ+] YouTuber, ngunit na-flag sa system nito hindi nararapat," sabi ni Ellis."Kahit na hindi ito nakakahamak, na sa tingin ko ay hindi, ito ay isang kakulangan ng input mula sa magkakaibang boses-o hindi bababa sa kawalan ng paggalang.
"Nakikita namin iyan sa lahat ng oras sa tech. Kapag tumitingin ka sa pagkilala sa mukha na nabigo ang pagkakaiba sa iba't ibang mga Itim na mukha, o kapag tumitingin kami sa gamot at nakitang nasubok lang ang gamot sa isang partikular na kasarian. Ang mga ito ay mas malalaking pag-uusap, at ang YouTube ay hindi exempt doon."