Mga Key Takeaway
- Software na gumagamit ng artificial intelligence upang i-profile ang mga tao ay naglalabas ng mga alalahanin sa privacy.
- Pinagsasama ng Cryfe ang mga diskarte sa pagsusuri ng pag-uugali sa artificial intelligence.
- Nakaharap kamakailan ng batikos ang kumpanyang Tsino na Alibaba matapos maiulat na matukoy ng software nito ang mga Uighur at iba pang etnikong minorya.
Ang bagong software na pinapagana ng artificial intelligence na nilayon para sa mga employer na i-profile ang kanilang mga empleyado ay naglalabas ng mga alalahanin sa privacy.
Isang bagong software platform, na tinatawag na Cryfe, ay pinagsasama ang mga diskarte sa pagsusuri ng pag-uugali sa artificial intelligence. Sinasabi ng developer na sa pamamagitan ng pagsusuri ng mga minutong pahiwatig, maaaring ihayag ng software ang mga intensyon ng mga tao sa panahon ng mga panayam. Ngunit sinasabi ng ilang tagamasid na ang Cryfe at iba pang mga uri ng software na nagsusuri ng gawi ay maaaring manghimasok sa privacy.
"Lalong umaasa ang mga kumpanya sa AI para sa pag-profile," sabi ng eksperto sa AI na si Vaclav Vincale sa isang panayam sa email. "Ngunit kahit na ang mga taong nagko-code sa mga algorithm na ito, lalo na ang isang taong sumusuporta sa customer na iyong naaabot sa telepono, ay hindi makapagsasabi sa iyo kung bakit sila gumagawa ng anumang ibinigay na rekomendasyon."
More Than Words
Ang Cryfe ay binuo ng isang Swiss company na ang mga empleyado ay sinanay ng FBI sa mga diskarte sa pag-profile. "Ang Cryfe, sa lahat ng interpersonal na komunikasyon, ay hindi lamang nakikinig sa mga salita, ngunit kinikilala ang iba pang mga senyas na ibinubuga ng tao tulad ng mga emosyon, micro-expression, at lahat ng mga kilos," sabi ni Caroline Matteucci, ang tagapagtatag ng Cryfe, sa isang panayam sa email.
"Halimbawa, sa panahon ng recruitment, nagbibigay-daan ito sa amin na pumunta at hanapin ang tunay na personalidad ng aming kausap."
Sinabi ni Matteucci na protektado ang privacy ng mga user dahil transparent ang kumpanya kung paano gumagana ang software nito. "Ang user, bago magamit ang platform, ay dapat tanggapin ang mga pangkalahatang kundisyon," sabi niya.
"Ito ay tinukoy doon na ang user ay hindi maaaring magsumite ng isang pakikipanayam para sa pagsusuri nang hindi nakatanggap ng nakasulat na pahintulot ng kausap."
Ang Cryfe ay hindi lamang ang software na pinapagana ng AI na naglalayong suriin ang pag-uugali ng tao. Mayroon ding Humantic, na nagsasabing sinusuri ang gawi ng consumer. "Hinihulaan ng teknolohiyang sumisira sa landas ng Humantic ang pag-uugali ng lahat nang hindi nila kailangang kumuha ng pagsusulit sa personalidad," ayon sa website ng kumpanya.
Ang kumpanya ay nag-aangkin na gumagamit ng AI upang lumikha ng mga sikolohikal na profile ng mga aplikante batay sa mga salitang ginagamit nila sa mga resume, cover letter, LinkedIn profile, at anumang iba pang piraso ng text na kanilang isinumite.
Ang software sa pag-uugali ay nagkaroon ng mga legal na hamon sa nakaraan. Noong 2019, iniulat ng Bloomberg Law na ang Equal Employment Opportunity Commission (EEOC) ay tumingin sa mga kaso ng di-umano'y labag sa batas na diskriminasyon dahil sa algorithm-assisted, mga desisyon na nauugnay sa HR.
"Ang lahat ng ito ay kailangang ayusin dahil ang kinabukasan ng pagre-recruit ay AI," sabi ng abogadong si Bradford Newman sa Bloomberg.
Ang ilang mga tagamasid ay may isyu sa mga kumpanyang gumagamit ng software sa pagsubaybay sa pag-uugali dahil hindi ito sapat na tumpak. Sa isang panayam, sinabi ni Nigel Duffy, global artificial intelligence leader sa professional services firm na EY, sa InformationWeek na nababagabag siya sa software na gumagamit ng mga pagsusulit sa social media at nakakaapekto sa pagtuklas.
"Sa palagay ko mayroong ilang talagang nakakahimok na literatura tungkol sa potensyal para sa pag-detect ng epekto, ngunit ang pagkakaunawa ko ay ang paraan ng madalas na pagpapatupad ay medyo walang muwang," sabi niya.
"Ang mga tao ay nakakakuha ng mga hinuha na hindi talaga sinusuportahan ng agham [gaya ng] pagpapasya sa isang tao na isang potensyal na mahusay na empleyado dahil sila ay nakangiti nang husto o nagpapasya na may isang tao na gusto ang iyong mga produkto dahil sila ay nakangiti nang husto."
Mga Chinese na Kumpanya na Iniulat na Profile Minorities
Ang pagsubaybay sa gawi ay maaaring magkaroon din ng mas masasamang layunin, sabi ng ilang grupo ng karapatang pantao. Sa China, ang higanteng online marketplace na Alibaba ay nagdulot ng kaguluhan kamakailan pagkatapos nitong i-claim na ang software nito ay maaaring makakita ng mga Uighur at iba pang etnikong minorya.
Iniulat ng New York Times na ang negosyo ng cloud computing ng kumpanya ay may software na mag-i-scan ng mga larawan at video.
Ngunit kahit ang mga taong nagko-code sa mga algorithm na ito…ay hindi masabi sa iyo kung bakit sila gumagawa ng anumang ibinigay na rekomendasyon.
Iniulat din kamakailan ng Washington Post na ang Huawei, isa pang Chinese tech na kumpanya, ay sumubok ng software na maaaring mag-alerto sa pagpapatupad ng batas kapag na-detect ng mga surveillance camera nito ang mga mukha ng Uighur.
Ang A 2018 patent application ng Huawei ay iniulat na nag-claim na ang "identification of pedestrian attributes is very important" sa facial recognition technology."Ang mga katangian ng target na bagay ay maaaring kasarian (lalaki, babae), edad (tulad ng mga teenager, nasa katanghaliang-gulang, matanda) [o] lahi (Han, Uyghur), " sabi ng application.
Sinabi ng isang tagapagsalita ng Huawei sa CNN Business na ang tampok na pagkakakilanlan ng etnisidad ay dapat na "hindi kailanman naging bahagi ng application."
Ang lumalagong paggamit ng artificial intelligence upang pag-uri-uriin ang napakaraming data ay tiyak na maghahatid ng mga alalahanin sa privacy. Maaaring hindi mo na malalaman kung sino o ano ang nagsusuri sa iyo sa susunod na pagpunta mo para sa isang interbyu sa trabaho.