Bakit Maaaring Labagin ng Software na Nagbabasa ng Emosyon ang Iyong Privacy

Talaan ng mga Nilalaman:

Bakit Maaaring Labagin ng Software na Nagbabasa ng Emosyon ang Iyong Privacy
Bakit Maaaring Labagin ng Software na Nagbabasa ng Emosyon ang Iyong Privacy
Anonim

Mga Key Takeaway

  • Sinabi ng Zoom na gagamit ito ng AI para suriin ang antas ng damdamin o pakikipag-ugnayan ng isang user.
  • Hinihiling ng mga pangkat ng karapatang pantao sa Zoom na pag-isipang muli ang plano nito dahil sa mga alalahanin sa privacy at seguridad ng data.
  • Gumagamit din ang ilang kumpanya ng software sa pagdetect ng emosyon sa panahon ng mga panayam para masuri kung nagbibigay ng pansin ang user.
Image
Image

Ang lumalagong paggamit ng artificial intelligence (AI) para subaybayan ang mga emosyon ng tao ay nagdudulot ng mga alalahanin sa privacy.

Hinihiling ng mga organisasyon ng karapatang pantao sa Zoom na pabagalin ang plano nitong ipasok ang AI na nagsusuri ng emosyon sa software nito sa video conferencing. Naiulat na sinabi ng kumpanya na gagamitin nito ang AI para suriin ang antas ng damdamin o pakikipag-ugnayan ng isang user.

"Aminin ng mga eksperto na hindi gumagana ang pagsusuri sa emosyon," isinulat ng consortium ng mga human rights group, kabilang ang ACLU, sa isang liham sa Zoom. "Ang mga ekspresyon ng mukha ay kadalasang hindi nakakaugnay sa mga emosyon sa ilalim, at natuklasan ng pananaliksik na kahit ang mga tao ay hindi maaaring tumpak na basahin o sukatin ang mga emosyon ng iba minsan. Ang pagbuo ng tool na ito ay nagdaragdag ng tiwala sa pseudoscience at inilalagay ang iyong reputasyon sa taya."

Hindi agad tumugon ang Zoom sa isang kahilingan ng Lifewire para sa komento.

Pagsubaybay sa Iyong Mga Emosyon

Ayon sa artikulo ng Protocol, susuriin ng sistema ng pagsubaybay sa Zoom na tinatawag na Q for Sales ang ratio ng oras ng pag-uusap ng mga user, lag ng oras ng pagtugon, at madalas na pagbabago ng tagapagsalita upang masubaybayan kung gaano ka-engage ang tao. Gagamitin ng Zoom ang data na ito para magtalaga ng mga marka sa pagitan ng zero at 100, na may mas mataas na mga marka na nagpapahiwatig ng mas mataas na pakikipag-ugnayan o sentimento.

Inaaangkin ng mga pangkat ng karapatang pantao na ang software ay maaaring magpakita ng diskriminasyon laban sa mga taong may kapansanan o ilang partikular na etnisidad sa pamamagitan ng pag-aakala na ang lahat ay gumagamit ng parehong mga ekspresyon ng mukha, pattern ng boses, at wika ng katawan upang makipag-usap. Iminumungkahi din ng mga grupo na ang software ay maaaring isang panganib sa seguridad ng data.

Image
Image

"Ang pag-aani ng malalim na personal na data ay maaaring gawing target ang anumang entity na nag-deploy ng tech na ito para sa pag-i-snooping sa mga awtoridad ng gobyerno at mga malisyosong hacker, " ayon sa liham.

Si Julia Stoyanovich, isang propesor ng computer science at engineering sa New York University, ay nagsabi sa Lifewire sa isang panayam sa email na siya ay nag-aalinlangan tungkol sa mga pahayag sa likod ng pagtuklas ng emosyon.

"Hindi ko nakikita kung paano gumagana ang ganitong teknolohiya-ang emosyonal na pagpapahayag ng mga tao ay napaka-indibidwal, napaka-nakadepende sa kultura, at napaka-konteksto," sabi ni Stoyanovich."Ngunit, marahil ang mas mahalaga, hindi ko makita kung bakit gusto nating gumana ang mga tool na ito. Sa madaling salita, mas mahihirapan tayo kung gumana sila nang maayos. Ngunit marahil bago pa man isipin ang mga panganib, dapat nating magtanong-ano ang mga potensyal na benepisyo ng naturang teknolohiya?"

Ang Zoom ay hindi lamang ang kumpanyang gumagamit ng software na pantukoy ng emosyon. Si Theo Wills, ang senior director ng privacy sa Kuma LLC, isang kumpanya sa pagkonsulta sa privacy at seguridad, ay nagsabi sa Lifewire sa pamamagitan ng email na ang software upang makita ang mga emosyon ay ginagamit sa panahon ng mga panayam upang masuri kung ang gumagamit ay nagbabayad ng pansin. Sinusuri din ito sa industriya ng transportasyon upang subaybayan kung mukhang inaantok ang mga driver, sa mga video platform para sukatin ang interes at iangkop ang mga rekomendasyon, at sa mga pang-edukasyong tutorial upang matukoy kung nakakaengganyo ang isang partikular na paraan ng pagtuturo.

Ipinagpalagay ni Wills na ang kontrobersya sa paligid ng software sa pagsubaybay sa emosyon ay higit na tanong ng etika ng data kaysa sa privacy. Sinabi niya na ito ay tungkol sa system na gumagawa ng mga desisyon sa totoong mundo batay sa mga kutob.

"Sa teknolohiyang ito, inaakala mo na ngayon ang dahilan kung bakit mayroon akong partikular na ekspresyon sa aking mukha, ngunit ang impetus sa likod ng isang ekspresyon ay malawak na nag-iiba dahil sa mga bagay tulad ng panlipunan o kultural na pagpapalaki, pag-uugali ng pamilya, mga nakaraang karanasan, o kaba sa sandaling ito," dagdag ni Wills. "Ang pagbabase sa algorithm sa isang palagay ay likas na may depekto at potensyal na diskriminasyon. Maraming populasyon ang hindi kinakatawan sa populasyon kung saan nakabatay ang mga algorithm, at kailangang bigyang-priyoridad ang naaangkop na representasyon bago ito magamit."

Mga Praktikal na Pagsasaalang-alang

Ang mga problemang ibinangon ng software sa pagsubaybay sa emosyon ay maaaring praktikal pati na rin ang teoretikal. Sinabi ni Matt Heisie, ang co-founder ng Ferret.ai, isang AI-driven na app na nagbibigay ng relationship intelligence, sa Lifewire sa isang email na kailangang itanong ng mga user kung saan ginagawa ang pagsusuri ng mga mukha at kung anong data ang iniimbak. Ginagawa ba ang pag-aaral sa mga pag-record ng tawag, pinoproseso sa cloud, o sa lokal na device?

Gayundin, nagtanong si Heisie, habang natututo ang algorithm, anong data ang kinokolekta nito tungkol sa mukha o mga galaw ng isang tao na posibleng maalis sa algorithm at magamit upang muling likhain ang biometrics ng isang tao? Nag-iimbak ba ang kumpanya ng mga snapshot para i-verify o i-validate ang mga natutunan ng algorithm, at naabisuhan ba ang user tungkol sa bagong derivative data na ito o mga nakaimbak na larawan na posibleng makolekta mula sa kanilang mga tawag?

"Ito ang lahat ng mga problema na nalutas ng maraming kumpanya, ngunit mayroon ding mga kumpanya na nayanig ng iskandalo kapag lumabas na hindi nila ito nagawa nang tama," sabi ni Heisie. "Ang Facebook ay ang pinakamahalagang kaso ng isang kumpanya na ibinalik ang facial recognition platform nito dahil sa mga alalahanin tungkol sa privacy ng user. Kinukuha na ngayon ng parent company na Meta ang mga feature ng AR mula sa Instagram sa ilang hurisdiksyon tulad ng Illinois at Texas sa mga batas sa privacy na nakapalibot sa biometric data."

Inirerekumendang: