Maaaring Ihinto ng AI ang Pag-snooping Sa Pamamagitan ng Paghula sa Sasabihin Mo

Talaan ng mga Nilalaman:

Maaaring Ihinto ng AI ang Pag-snooping Sa Pamamagitan ng Paghula sa Sasabihin Mo
Maaaring Ihinto ng AI ang Pag-snooping Sa Pamamagitan ng Paghula sa Sasabihin Mo
Anonim

Mga Key Takeaway

  • Nakagawa ang mga mananaliksik ng isang paraan upang i-scramble ang mga pag-uusap upang talunin ang mga masasamang mikropono mula sa pagkuha ng aming mga pag-uusap.
  • Mahalaga ang paraan dahil gumagana ito nang real-time sa streaming audio at may kaunting pagsasanay.
  • Pinapalakpakan ng mga eksperto ang pananaliksik ngunit sa tingin nito ay hindi ito gaanong pakinabang sa karaniwang gumagamit ng smartphone.
Image
Image

Napapalibutan tayo ng mga matalinong device na may mga mikropono, ngunit paano kung nakompromiso ang mga ito upang mag-eavesdrop sa atin?

Sa pagsisikap na protektahan ang aming mga pag-uusap mula sa mga snooper, ang mga mananaliksik ng Columbia University ay nakabuo ng isang paraan ng Neural Voice Camouflage na nakakagambala sa mga awtomatikong sistema ng pagkilala sa pagsasalita nang real-time nang hindi nakakaabala sa mga tao.

"Sa pagsalakay ng [smart voice-activated device] sa ating buhay, ang ideya ng privacy ay nagsisimulang mawala habang ang mga listening device na ito ay palaging naka-on at sinusubaybayan kung ano ang sinasabi, " Charles Everette, Direktor ng Cyber Advocacy, Deep Instinct, sinabi sa Lifewire sa pamamagitan ng email. "Ang pananaliksik na ito ay isang direktang tugon sa pangangailangang itago o itago ang boses at pag-uusap ng isang indibidwal mula sa mga electronic na eavesdropper na ito, kilala o hindi kilala sa isang lugar."

Talking Over

Ang mga mananaliksik ay nakabuo ng isang sistema na bumubuo ng mga bulong-tahimik na tunog na maaari mong i-play sa anumang silid upang harangan ang mga masasamang mikropono sa pag-espiya sa iyong mga pag-uusap.

Ang paraan ng ganitong uri ng teknolohiya sa pag-counter ng eavesdropping ay nagpapaalala kay Everette ng mga headphone na nakakakansela ng ingay. Sa halip na bumuo ng mga bulong na tahimik na tunog upang kanselahin ang ingay sa background, ang mga mananaliksik ay nagbo-broadcast ng mga background na tunog na nakakagambala sa mga algorithm ng Artificial Intelligence (AI) na nagbibigay-kahulugan sa mga soundwave sa naiintindihan na audio.

Hindi natatangi ang mga ganitong mekanismo para i-camouflage ang boses ng isang tao, ngunit ang pinagkaiba ng Neural Voice Camouflage sa iba pang mga pamamaraan ay gumagana ito nang real-time sa streaming audio.

"Upang gumana sa live na pagsasalita, ang aming diskarte ay dapat hulaan [ang tamang scrambling audio] sa hinaharap upang ang mga ito ay maaaring i-play sa real-time, " tandaan ang mga mananaliksik sa kanilang papel. Sa kasalukuyan, gumagana ang pamamaraan para sa karamihan ng wikang Ingles.

Sinabi ni Hans Hansen, CEO ng Brand3D, sa Lifewire na napakahalaga ng pananaliksik dahil inaatake nito ang isang malaking kahinaan sa mga AI system ngayon.

Sa isang pag-uusap sa email, ipinaliwanag ni Hansen na ang kasalukuyang malalim na pag-aaral ng mga AI system sa pangkalahatan at natural na pagkilala sa pagsasalita sa partikular ay gumagana pagkatapos iproseso ang milyun-milyong record ng data ng pagsasalita na nakolekta mula sa libu-libong speaker. Sa kabaligtaran, gumagana ang Neural Voice Camouflage pagkatapos ikondisyon ang sarili nito sa dalawang segundo lang ng input speech.

Personal, kung nag-aalala ako tungkol sa mga device na nakikinig, ang solusyon ko ay hindi magdagdag ng isa pang device sa pakikinig na naglalayong lumikha ng ingay sa background.

Maling Puno?

Brian Chappell, punong security strategist sa BeyondTrust, ay naniniwala na ang pananaliksik ay mas kapaki-pakinabang sa mga user ng negosyo na natatakot na sila ay nasa gitna ng mga nakompromisong device na nakikinig para sa mga keyword na nagpapahiwatig ng mahalagang impormasyon na binibigkas.

"Kung saan ang teknolohiyang ito ay maaaring maging mas kawili-wili ay nasa isang mas awtoritaryan na estado ng pagsubaybay kung saan ang AI video at voice print analysis ay ginagamit laban sa mga mamamayan, " sinabi ni James Maude, ang Lead Cyber Security Researcher ng BeyondTrust, sa Lifewire sa pamamagitan ng email.

Iminungkahi ni Maude na ang isang mas mahusay na alternatibo ay ang pagpapatupad ng mga kontrol sa privacy sa kung paano kinukuha, iniimbak, at ginagamit ng mga device na ito ang data. Bukod dito, naniniwala si Chappell na limitado ang pagiging kapaki-pakinabang ng pamamaraan ng mananaliksik dahil hindi ito idinisenyo upang ihinto ang pag-eavesdrop ng tao.

"Para sa tahanan, tandaan na, kahit man lang sa teorya, ang paggamit ng ganoong tool ay magiging sanhi ng Siri, Alexa, Google Home, at anumang iba pang system na na-activate na may binibigkas na trigger word na hindi ka papansinin," sabi Chappell.

Image
Image

Ngunit naniniwala ang mga eksperto na sa dumaraming pagsasama ng partikular na teknolohiya ng AI/ML sa aming mga smart device, lubos na posible na ang teknolohiyang ito ay mapupunta sa loob ng aming mga telepono, sa malapit na hinaharap.

Maude ay nag-aalala dahil ang mga teknolohiya ng AI ay maaaring matuto nang mabilis na makilala ang pagkakaiba sa pagitan ng ingay at tunay na audio. Sa palagay niya, bagama't maaaring matagumpay ang system sa simula, maaari itong mabilis na maging laro ng pusa at daga habang natututo ang isang aparato sa pakikinig na i-filter ang mga ingay sa jam.

Mas nakakabahala, itinuro ni Maude na ang sinumang gumagamit nito ay maaaring, sa katunayan, makatawag ng pansin sa kanilang sarili dahil ang pagkagambala sa pagkilala ng boses ay lilitaw na hindi karaniwan at maaaring magpahiwatig na may sinusubukan kang itago.

"Personal, kung nag-aalala ako tungkol sa mga device na nakikinig, ang solusyon ko ay hindi magdagdag ng isa pang device sa pakikinig na naglalayong lumikha ng ingay sa background," ibinahagi ni Maude. "Lalo na dahil pinapataas lang nito ang panganib na ma-hack ang isang device o app at makakarinig sa akin."

Inirerekumendang: