Paano Nagpaplano ang ToxMod na Ayusin ang Toxic Gaming Chat

Talaan ng mga Nilalaman:

Paano Nagpaplano ang ToxMod na Ayusin ang Toxic Gaming Chat
Paano Nagpaplano ang ToxMod na Ayusin ang Toxic Gaming Chat
Anonim

Mga Key Takeaway

  • ToxMod, ng kumpanyang Modulate na nakabase sa Boston, ay nag-aangkin na awtomatikong matukoy at kumilos laban sa nakakagambalang pananalita, sa real time.
  • Sa halip na paghigpitan ng simpleng wika, ang ToxMod ay gumagamit ng machine learning para malaman ang mga intangibles gaya ng emosyon, volume, at ritmo.
  • Ang ToxMod ay kasalukuyang idinisenyo para gamitin sa mga in-game chat room, ngunit walang dahilan kung bakit hindi ito makapunta sa iyong Twitch channel.
Image
Image

Ang isang kumpanyang nakabase sa Boston ay gumagamit ng machine learning para gawin kung ano ang sinisingil nito bilang kauna-unahang voice-native moderation service sa mundo, na maaaring magsabi ng pagkakaiba sa pagitan ng sinasabi at kung ano ang ibig sabihin nito.

Ang ToxMod ay isang pagtatangka na lutasin ang kabalintunaan ng pagmo-moderate ng anumang open space sa Internet; walang sapat na tao para makasabay sa demand, ngunit hindi nauunawaan ng mga algorithm, filter, at system ng ulat ang pagkakaiba.

Sa database ng ToxMod, masusubaybayan nito ang mga salik sa pananalita ng mga manlalaro tulad ng emosyon at lakas ng tunog, na tumutulong sa pagkilala sa pagitan ng panandaliang paglipas at pattern ng pag-uugali. Kamakailan ay inanunsyo ito bilang karagdagan sa 7v7 American football game na Gridiron, na kasalukuyang nasa Steam Early Access.

"Alam ng lahat na ang panliligalig, mapoot na salita, at toxicity sa voice chat at gaming ay isang napakalaking problema. Iyan ay karaniwang nauunawaan," sabi ni Carter Huffman, punong opisyal ng teknolohiya at co-founder ng Modulate, sa isang Google Meeting kasama ang Lifewire. "Maaari naming kunin ang mga tampok na aming kinukuha sa pamamagitan ng iba't ibang sistema ng machine-learning na ito at pagsama-samahin iyon sa isang sistema na isinasaalang-alang ang lahat ng kaalamang ito ng eksperto na natutunan namin mula sa komunidad."

All All Our New Robot Moderators

Ang Modulate ay nagtatrabaho sa ToxMod mula noong nakaraang taglagas, at isinama ito bilang isa sa tatlong pangunahing serbisyo ng kumpanya. Nag-aalok din ito ng VoiceWear, isang voice disguiser na pinapagana ng machine learning, at VoiceVibe, isang aggregator service na nagbibigay-daan sa mga user na malaman kung ano ang tinatalakay ng mga tao sa kanilang mga komunidad.

Kapag tumatakbo ang ToxMod sa isang chat, maaari itong i-program sa pamamagitan ng admin panel ng Modulate upang magsagawa ng iba't ibang awtomatikong pagkilos, gaya ng pagbibigay ng mga babala, pag-mute ng mga manlalaro, o indibidwal na pagsasaayos ng volume.

Gumagamit ito ng system of triage kung saan ang lokal na instance nito ang unang gagawa ng aksyon, bago suriin sa mga server ng Modulate para sa kumpirmasyon. Pagkatapos ay sa wakas ay tumataas ito sa punto kung saan maaari itong humingi ng interbensyon ng tao. Sa pamamagitan ng pagpapatakbo sa bawat pagsusuri, na tinatawag ng Modulate na "triage gates," ang ideya ay ang ToxMod ay nagbibigay sa isang maliit na pangkat ng mga moderator ng mga tool kung saan epektibong magmoderate ng isang mas malaking komunidad.

"Ang nakalulungkot na katotohanan ay naranasan ng lahat ang karanasang iyon, na subukang gumamit ng voice chat sa anumang platform na naroroon ka, at matuklasan iyon, anak, isang masamang ideya iyon," sabi ng CEO ng Modulate na si Mike Pappas sa isang video call sa Lifewire. "Ang makapasok at sabihing, ‘Hindi ito ang Wild West. May mga panuntunan.’ Sa tingin ko, importante talaga iyon."

Pagsira sa System

Natural, ang pangalawa o pangatlong tanong na itatanong tungkol sa ToxMod ay kung paano ito masira.

Sa maraming awtomatikong moderation system, gaya ng mga algorithm na namamahala sa Twitter, madaling ipaglaban ang mga ito laban sa mga taong hindi mo gusto. Mass-report lang ang iyong target gamit ang ilang sock-puppet account at mapagkakatiwalaan silang makakakain ng ban.

"Sa antas ng baseline, hindi kailangang umasa ang ToxMod sa mga karagdagang ulat ng manlalaro na iyon," sabi ni Pappas. "Nagagawa pa rin nitong gumawa ng mga matatag na pagtatantya kung anong mga pagkakasala ang kailangan nating bigyang pansin. Hindi mo kailangang mag-alala tungkol sa mga manlalaro na sinusubukang laruin ang system, dahil wala talagang anumang bagay na laruin.

Alam ng lahat na ang panliligalig, hate speech, at toxicity sa voice chat at gaming ay isang napakalaking problema.

"Ang tanging kontrol mo bilang manlalaro ay ang sarili mong audio," patuloy ni Pappas. "Ang pinakamasamang bagay na maaari mong gawin ay hindi gaanong masama sa isang tao para hindi ka namin i-flag bilang isang masamang aktor, na masasabi kong malapit sa tagumpay ng misyon."

Sa pangkalahatan, kung gayon, ang ideya sa likod ng ToxMod ay isang aktibong pagtatangka sa reclamation. Maraming mga manlalaro sa puntong ito ang nakaranas ng ilang uri ng panliligalig mula sa mga random na estranghero sa mga bukas na channel ng boses, mula sa mga random na insulto hanggang sa mga aktibong pagbabanta. Bilang resulta, ang mga manlalaro ay may posibilidad na umiwas sa voice chat sa pangkalahatan, na mas pinipiling isuko ang kaginhawahan nito kapalit ng kanilang sariling kapayapaan ng isip.

"Ang inaasahan naming makita [ay ang mga masasamang artista ay gumugugol] ng mas kaunting oras sa voice chat bago matagpuan at maalis," sabi ni Pappas."Iyan ay may higit pa sa isang linear na epekto. Kapag nakikita ng lahat ang voice chat bilang isang mas ligtas na lugar, mas maraming mahuhusay na aktor ang handang bumalik sa voice chat at subukan ito. Sa tingin ko lahat ay maaaring umikot sa positibong direksyon."

Inirerekumendang: