Paano Masusubaybayan ng AI ang Mapanganib na Anak Nito

Talaan ng mga Nilalaman:

Paano Masusubaybayan ng AI ang Mapanganib na Anak Nito
Paano Masusubaybayan ng AI ang Mapanganib na Anak Nito
Anonim

Mga Key Takeaway

  • Isang bagong papel ang nagsasabing matutukoy ng artificial intelligence kung aling mga proyekto sa pananaliksik ang maaaring mangailangan ng higit pang regulasyon kaysa sa iba.
  • Bahagi ito ng lumalaking pagsisikap na matuklasan kung anong uri ng AI ang maaaring mapanganib.
  • Sabi ng isang eksperto, ang tunay na panganib ng AI ay maaari nitong gawing pipi ang mga tao.

Image
Image

Artificial intelligence (AI) ay nag-aalok ng maraming benepisyo, ngunit pati na rin ang ilang potensyal na panganib. At ngayon, nagmungkahi ang mga mananaliksik ng paraan para mabantayan ang kanilang mga computerized na likha.

Sabi ng isang international team sa isang bagong papel na matutukoy ng AI kung aling mga uri ng mga proyekto sa pananaliksik ang maaaring mangailangan ng higit pang regulasyon kaysa sa iba. Gumamit ang mga siyentipiko ng isang modelo na pinagsasama ang mga konsepto mula sa biology at matematika at bahagi ng lumalaking pagsisikap upang matuklasan kung anong uri ng AI ang maaaring mapanganib.

"Siyempre, habang ang 'sci-fi' na mapanganib na paggamit ng AI ay maaaring lumitaw kung kami ang magpapasya […], ang dahilan kung bakit mapanganib ang AI ay hindi ang AI mismo, ngunit [kung paano namin ito ginagamit], " Thierry Rayna, ang tagapangulo ng Technology for Change, sa École Polytechnique sa France, ay nagsabi sa Lifewire sa isang panayam sa email. "Ang pagpapatupad ng AI ay maaaring alinman sa pagpapahusay ng kakayahan (halimbawa, pinatitibay nito ang kaugnayan ng mga kasanayan at kaalaman ng tao/manggagawa) o pagsira sa kakayahan, ibig sabihin, ginagawang hindi gaanong kapaki-pakinabang o hindi na ginagamit ng AI ang mga kasalukuyang kasanayan at kaalaman."

Pagpapanatili ng Mga Tab

Isinulat ng mga may-akda ng kamakailang papel sa isang post na gumawa sila ng modelo para gayahin ang hypothetical AI competitions. Pinatakbo nila ang simulation nang daan-daang beses upang subukang hulaan kung paano gagana ang mga karera ng AI sa totoong mundo.

"Ang variable na nakita naming partikular na mahalaga ay ang "haba" ng karera-ang oras na kinuha ng aming mga simulate na karera upang maabot ang kanilang layunin (isang functional na produkto ng AI), " isinulat ng mga siyentipiko. "Nang mabilis na naabot ng mga karera ng AI ang kanilang layunin, nalaman namin na palaging nananalo ang mga kakumpitensya na na-code namin upang palaging makaligtaan ang mga pag-iingat sa kaligtasan."

Sa kabaligtaran, nalaman ng mga mananaliksik na ang mga pangmatagalang proyekto ng AI ay hindi kasing mapanganib dahil ang mga nanalo ay hindi palaging yaong nakaligtaan ang kaligtasan. "Dahil sa mga natuklasang ito, magiging mahalaga para sa mga regulator na itatag kung gaano katagal magtatagal ang iba't ibang mga karera ng AI, na nag-aaplay ng iba't ibang mga regulasyon batay sa kanilang inaasahang mga timescale," isinulat nila. "Iminumungkahi ng aming mga natuklasan na ang isang panuntunan para sa lahat ng karera ng AI-mula sa mga sprint hanggang sa mga marathon-ay hahantong sa ilang mga resulta na malayo sa perpekto."

David Zhao, ang managing director ng Coda Strategy, isang kumpanyang kumukunsulta sa AI, ay nagsabi sa isang email interview sa Lifewire na ang pagtukoy sa mapanganib na AI ay maaaring maging mahirap. Ang mga hamon ay nakasalalay sa katotohanan na ang mga modernong diskarte sa AI ay gumagamit ng malalim na diskarte sa pag-aaral.

"Alam namin na ang malalim na pag-aaral ay nagdudulot ng mas mahusay na mga resulta sa maraming sitwasyon ng paggamit, gaya ng pagtukoy ng larawan o pagkilala sa pagsasalita," sabi ni Zhao. "Gayunpaman, imposible para sa mga tao na maunawaan kung paano gumagana ang isang malalim na algorithm sa pag-aaral at kung paano ito gumagawa ng output nito. Samakatuwid, mahirap sabihin kung ang isang AI na gumagawa ng magagandang resulta ay mapanganib dahil imposible para sa mga tao na maunawaan kung ano ang nangyayari."

Maaaring "mapanganib" ang software kapag ginamit sa mga kritikal na sistema, na may mga kahinaan na maaaring pagsamantalahan ng mga masasamang aktor o makagawa ng mga maling resulta, sinabi ni Matt Shea, direktor ng diskarte sa AI firm na MixMode, sa pamamagitan ng email. Idinagdag niya na ang hindi ligtas na AI ay maaari ding magresulta sa hindi tamang pag-uuri ng mga resulta, pagkawala ng data, epekto sa ekonomiya, o pisikal na pinsala.

"Sa tradisyunal na software, ang mga developer ay nag-code up ng mga algorithm na maaaring suriin ng isang tao upang malaman kung paano isaksak ang isang kahinaan o ayusin ang isang bug sa pamamagitan ng pagtingin sa source code," sabi ni Shea."Gayunpaman, sa AI, ang isang pangunahing bahagi ng lohika ay nilikha mula sa data mismo, na naka-encode sa mga istruktura ng data tulad ng mga neural network at mga katulad nito. Nagreresulta ito sa mga system na "mga black box" na hindi masusuri upang mahanap at ayusin ang mga kahinaan tulad ng karaniwang software."

Mga Panganib sa Nauna?

Habang ang AI ay inilarawan sa mga pelikulang tulad ng The Terminator bilang isang masamang puwersa na naglalayong sirain ang sangkatauhan, ang mga tunay na panganib ay maaaring maging mas prosaic, sabi ng mga eksperto. Halimbawa, iminumungkahi ni Rayna na maaaring gawin tayong tanga ng AI.

“Maaari nitong ipagkait ang mga tao sa pagsasanay ng kanilang utak at pagbuo ng kadalubhasaan,” aniya. Paano ka magiging eksperto sa venture capital kung hindi mo ginugugol ang karamihan ng iyong oras sa pagbabasa ng mga application ng mga startup? Mas masahol pa, ang AI ay kilalang-kilala na 'black box' at hindi gaanong maipaliwanag. Ang hindi alam kung bakit kinuha ang isang partikular na desisyon ng AI ay nangangahulugang kakaunti ang matututuhan mula dito, tulad ng hindi ka maaaring maging isang dalubhasang runner sa pamamagitan ng pagmamaneho sa paligid ng stadium sa isang Segway.”

Mahirap sabihin kung mapanganib ang AI na gumagawa ng magagandang resulta, dahil imposibleng maunawaan ng mga tao kung ano ang nangyayari.

Marahil ang pinaka agarang banta mula sa AI ay ang posibilidad na makapagbigay ito ng mga bias na resulta, sinabi ni Lyle Solomon, isang abogado na nagsusulat sa mga legal na implikasyon ng AI, sa isang panayam sa email.

"Maaaring tumulong ang AI sa pagpapalalim ng pagkakahati-hati ng lipunan. Ang AI ay mahalagang binuo mula sa data na nakolekta mula sa mga tao," dagdag ni Solomon. "[Ngunit] sa kabila ng malawak na data, naglalaman ito ng kaunting mga subset at hindi isasama kung ano ang iniisip ng lahat. Kaya, ang data na nakolekta mula sa mga komento, pampublikong mensahe, review, atbp., na may likas na pagkiling ay magpapalaki sa AI ng diskriminasyon at poot."

Inirerekumendang: