Facebook Testing AI Model para Masugpo ang Conflict sa Mga Grupo

Facebook Testing AI Model para Masugpo ang Conflict sa Mga Grupo
Facebook Testing AI Model para Masugpo ang Conflict sa Mga Grupo
Anonim

Sinabi ng Facebook na sinusubukan nito ang isang artificial intelligence moderating technology sa Groups para pigilan ang hindi pagkakasundo sa mga post at komento.

Ang bagong tool na pinapagana ng AI ay tinatawag na Conflict Alerts at nilalayong tulungan ang mga administrator ng grupo na magkaroon ng higit na kontrol sa kanilang mga komunidad. Aabisuhan ng AI tech ang isang admin kung makakakita ito ng "mga pinagtatalunan o hindi malusog na pag-uusap" para mas mabilis na magawa ng admin ang kinakailangang aksyon.

Image
Image

Para sa karaniwang gumagamit ng Facebook, ang bagong tool na ito ay nangangahulugang mas malamang na makakakita ka ng mas kaunting pagtatalo at pagtatalo sa mga post ng Mga Grupo na iyong sinusubaybayan, kaya ang mga bagay ay magiging mas negatibo, sa pangkalahatan.

Maaaring gamitin ng mga Admin ang tool na Mga Alerto sa Salungatan upang lumikha ng mga alerto kapag nagkomento ang mga user gamit ang mga partikular na salita o parirala, at makikita ng machine learning ang mga pagkakataong ito upang alertuhan ang isang admin kapag nangyari ang mga ito. Nagbibigay-daan din ang tool sa mga admin na limitahan ang aktibidad para sa mga partikular na tao at post.

Sinabi ng Facebook sa The Verge na ang machine learning ay gagamit ng "maraming signal gaya ng oras ng pagtugon at dami ng komento upang matukoy kung ang pakikipag-ugnayan sa pagitan ng mga user ay mayroon o maaaring humantong sa mga negatibong pakikipag-ugnayan."

Ang Facebook ay gumagamit na ng mga tool ng AI para i-flag ang iba pang uri ng content sa platform nito, kabilang ang mapoot na salita. Ayon sa isang August 2020 Community Standards Enforcement Report, 95% tumpak ang AI tool ng Facebook para sa hate speech, kumpara sa 89% mula sa unang quarter ng 2020. Sinabi ng Facebook na pinataas nito ang mga aksyon nito laban sa content ng hate speech mula sa 9.6 milyong mga pagkakataon sa unang quarter 2020 hanggang 22.5 milyon sa ikalawang quarter.

Para sa karaniwang gumagamit ng Facebook, ang bagong tool na ito ay nangangahulugang mas malamang na mas kaunti ang makikita mong pagtatalo at pagtatalo sa loob ng mga post ng Mga Grupo na sinusubaybayan mo

Gumagana rin ang social network sa isang AI tech na maaaring "makita" ang mga larawan sa pamamagitan ng paggamit ng raw data upang hayaan ang modelo na magsanay mismo-nang independyente at hindi gumagamit ng algorithm-habang tumitingin ito ng higit pang mga larawan. Ang proyekto ng AI, na kilala bilang SEER, ay maaaring magbigay daan para sa mas maraming nalalaman, tumpak, at madaling ibagay na mga modelo ng computer-vision, habang nagdadala ng mas mahusay na mga tool sa paghahanap at accessibility sa mga user ng social media.

Inirerekumendang: