Mga Key Takeaway
- Ipinapakita ng bagong pananaliksik na hindi maaaring paghiwalayin ng mga tao ang mga imaheng binuo ng AI mula sa mga tunay.
- Ni-rate ng mga kalahok ang mga larawang binuo ng AI bilang mas mapagkakatiwalaan.
- Naniniwala ang mga eksperto na dapat tumigil ang mga tao sa pagtitiwala sa anumang nakikita nila sa internet.
Ang kasabihang 'nakikita ay naniniwala' ay hindi na nauugnay pagdating sa internet, at sinasabi ng mga eksperto na hindi ito magiging mas mahusay anumang oras sa lalong madaling panahon.
Natuklasan ng isang kamakailang pag-aaral na ang mga larawan ng mga mukha na nabuo ng artificial intelligence (AI) ay hindi lamang napaka-photo-realistic, ngunit lumilitaw din ang mga ito na mas mabait kaysa sa mga totoong mukha.
"Ang aming pagsusuri sa photorealism ng AI-synthesized na mga mukha ay nagsasaad na ang mga synthesis engine ay dumaan sa kahanga-hangang lambak, at may kakayahang lumikha ng mga mukha na hindi makikilala at mas mapagkakatiwalaan kaysa sa mga tunay na mukha," obserbasyon ng mga mananaliksik.
Hindi Umiiral ang Taong Iyan
Ang mga mananaliksik, sina Dr. Sophie Nightingale mula sa Lancaster University at Propesor Hany Farid mula sa University of California, Berkeley, ay nagsagawa ng mga eksperimento pagkatapos na kilalanin ang mga banta ng malalalim na pekeng naisapubliko, mula sa lahat ng uri ng online na panloloko hanggang sa nakapagpapasigla. disinformation campaign.
"Marahil ang pinakamasama ay ang kahihinatnan na, sa isang digital na mundo kung saan ang anumang larawan o video ay maaaring pekeng, ang pagiging tunay ng anumang hindi maginhawa o hindi kanais-nais na pag-record ay maaaring pagdudahan," ang pagtatalo ng mga mananaliksik.
Nangatuwiran sila na habang may pag-unlad sa pagbuo ng mga awtomatikong diskarte para makita ang malalim na pekeng nilalaman, ang mga kasalukuyang diskarte ay hindi mahusay at tumpak na sapat upang makasabay sa patuloy na daloy ng bagong nilalamang ina-upload online. Nangangahulugan ito na nasa mga mamimili ng online na content ang pag-uri-uriin ang totoo mula sa peke, iminumungkahi ng duo.
Jelle Wieringa, isang tagapagtaguyod ng kaalaman sa seguridad sa KnowBe4, ay sumang-ayon. Sinabi niya sa Lifewire sa pamamagitan ng email na ang paglaban sa aktwal na malalalim na peke ay napakahirap gawin nang walang espesyal na teknolohiya. "Maaaring magastos at mahirap ipatupad ang [mga teknolohiyang nagpapagaan] sa mga real-time na proseso, kadalasang nakakakita lamang ng deepfake pagkatapos ng katotohanan."
Sa pagpapalagay na ito, nagsagawa ang mga mananaliksik ng isang serye ng mga eksperimento upang matukoy kung ang mga kalahok ng tao ay maaaring makilala ang mga makabagong synthesized na mukha mula sa mga tunay na mukha. Sa kanilang mga pagsusuri, nalaman nila na sa kabila ng pagsasanay upang tumulong sa pagkilala ng mga peke, ang rate ng katumpakan ay umunlad lamang sa 59%, mula sa 48% nang walang pagsasanay.
Ito ang humantong sa mga mananaliksik na subukan kung ang mga pananaw sa pagiging mapagkakatiwalaan ay makakatulong sa mga tao na matukoy ang mga artipisyal na larawan. Sa ikatlong pag-aaral, hiniling nila sa mga kalahok na i-rate ang pagiging mapagkakatiwalaan ng mga mukha, para lamang matuklasan na ang average na rating para sa mga synthetic na mukha ay 7.7% na mas mapagkakatiwalaan kaysa sa average na rating para sa mga totoong mukha. Maaaring hindi gaanong tunog ang bilang, ngunit sinasabi ng mga mananaliksik na ito ay makabuluhan ayon sa istatistika.
Deeper Fakes
Ang malalalim na peke ay isa nang pangunahing alalahanin, at ngayon ang tubig ay lalong naputik ng pag-aaral na ito, na nagmumungkahi na ang ganitong mataas na kalidad na pekeng imahe ay maaaring magdagdag ng isang ganap na bagong dimensyon sa mga online na scam, halimbawa, sa pamamagitan ng pagtulong na lumikha ng higit pa nakakakumbinsi ng mga online na pekeng profile.
"Ang isang bagay na nagtutulak sa cybersecurity ay ang tiwala ng mga tao sa mga teknolohiya, proseso, at mga taong nagtatangkang panatilihing ligtas ang mga ito," pagbabahagi ni Wieringa. "Ang mga malalalim na pekeng, lalo na kapag naging photorealistic ang mga ito, ay sumisira sa tiwala na ito at, samakatuwid, ang pag-aampon at pagtanggap ng cybersecurity. Maaari itong humantong sa mga tao na maging walang tiwala sa lahat ng kanilang nakikita."
Chris Hauk, ang consumer privacy champion sa Pixel Privacy, ay sumang-ayon. Sa isang maikling email exchange, sinabi niya sa Lifewire na ang photorealistic deep fake ay maaaring magdulot ng "havoc" online, lalo na sa mga araw na ito kung kailan lahat ng uri ng account ay maa-access gamit ang photo ID technology.
Corrective Action
Sa kabutihang palad, sinabi ni Greg Kuhn, Direktor ng IoT, Prosegur Security, na may mga prosesong makakaiwas sa mapanlinlang na pagpapatotoo. Sinabi niya sa Lifewire sa pamamagitan ng email na ang mga sistema ng kredensyal na nakabatay sa AI ay tumutugma sa isang na-verify na indibidwal laban sa isang listahan, ngunit marami ang may built-in na mga safeguard upang suriin kung may "liveness."
"Ang mga uri ng system na ito ay maaaring mangailangan at gumabay sa isang user na magsagawa ng ilang partikular na gawain tulad ng pagngiti o paglingon sa kaliwa, pagkatapos ay pakanan. Ito ang mga bagay na hindi magawa ng mga statically generated na mukha," ibinahagi ni Kuhn.
Ang mga mananaliksik ay nagmungkahi ng mga alituntunin upang i-regulate ang kanilang paggawa at pamamahagi upang maprotektahan ang publiko mula sa mga sintetikong larawan. Bilang panimula, iminumungkahi nilang isama ang malalim na nakatanim na mga watermark sa mismong mga network ng image- at video-synthesis upang matiyak na ang lahat ng synthetic media ay mapagkakatiwalaang matukoy.
Hanggang noon, sinabi ni Paul Bischoff, tagapagtaguyod ng privacy at editor ng infosec research sa Comparitech, na ang mga tao ay nag-iisa."Kailangang matutunan ng mga tao na huwag magtiwala sa mga mukha online, tulad ng natutunan nating lahat (sana) na huwag magtiwala sa mga display name sa ating mga email," sabi ni Bischoff sa Lifewire sa pamamagitan ng email.