Google atinge învățarea automată pentru a ajuta editorii să identifice trolluri și comentarii toxice

Nu ar fi minunat dacă învățarea automată ar putea fi aplicată pentru îmbunătățirea comentariilor și a altor conversații online? Editori mari și mici deopotrivă, de la NYT până la site-ul pe care îl citiți acum, cheltuiesc resurse semnificative pentru a împiedica trolii să bombardeze cititorii cu comentarii toxice.

O nouă tehnologie Google bazată pe învățarea automată se străduiește să automatizeze procesul de sortare prin milioane de comentarii, ajutând la identificarea și semnalarea comentariilor abuzive care subminează un schimb civil de idei.

În parteneriat cu Jigsaw, Google a lansat Perspective, o tehnologie în stadiu incipient, bazată pe învățarea automată, care poate ajuta la identificarea comentariilor toxice pe web. API-ul oficial Perspective permite editorilor să utilizeze această tehnologie pentru site-urile lor web.

Google explică cum funcționează:

Perspectiva analizează comentariile și le notează pe baza cât de asemănătoare sunt cu comentariile pe care oamenii le-au spus „toxice” sau care ar putea face pe cineva să părăsească o conversație. Pentru a învăța cum să observați un limbaj potențial toxic, Perspectiva a examinat sute de mii de comentarii care au fost etichetate de recenzorii umani.

De fiecare dată când Perspective găsește noi exemple de comentarii potențial toxice sau sunt furnizate cu corecții din partea utilizatorilor, se poate îmbunătăți la notarea comentariilor viitoare..

După ce sistemul a identificat comentarii toxice, editorii le pot semnaliza pentru ca moderatorii să le revizuiască și să le includă într-o conversație. Cititorii ar putea sorta comentariile în funcție de toxicitate, pentru a pune la suprafață conversațiile care contează. Sistemul ar putea chiar să lase comentatorii să vadă potențialitatea toxicității comentariului lor în timp ce îl scriu.

Crezi că trolling-ul nu este o problemă atât de mare?

The Thing again - The New York Times are o întreagă echipă însărcinată să analizeze în medie 11.000 de comentarii în fiecare zi. Datorită forței de muncă obligatorii pentru a revizui comentariile, lucrarea are comentarii la doar aproximativ zece la sută din articolele sale.

Google și Times au lucrat împreună pentru a instrui modele de învățare automată, astfel încât moderatorii să poată sorta comentariile mai rapid. Când Perspectiva se lansează public și mai mulți editori îl îmbrățișează, sistemul va fi expus la mai multe comentarii și va dezvolta o mai bună înțelegere a ceea ce face ca anumite comentarii să fie toxice.

„Primul nostru model este conceput pentru a detecta limbajul toxic, dar în următorul an suntem dornici să partenerăm și să oferim noi modele care funcționează în alte limbi decât engleza, precum și modele care pot identifica alte perspective, cum ar fi atunci când comentariile sunt nesubstanțiale sau off-topic ", a spus Google.

Conform DataSociety, 72% dintre utilizatorii de Internet americani au asistat la hărțuire online și aproape jumătate au experimentat-o ​​personal. Aproape o treime dintre respondenți au spus că s-au autocenzurat ceea ce postează online de teama retribuirii. Se estimează că hărțuirea online a afectat viața a aproximativ 140 de milioane de oameni din SUA și multe alte părți.

Sursa: Google