Social Media Trolling: Cum A.I. Este mai bine la Anticiparea Shitposts

$config[ads_kvadrat] not found

SHITPOSTING COMPILATION

SHITPOSTING COMPILATION
Anonim

Internetul este un hellscape condus de trolls și dominat de argumente inutile pe Facebook sau mai rău. Și, deși giganții social media din întreaga rețea au început în cele din urmă, fără nici o îndoială, să înceapă eforturi mai puternice pentru a încerca să descurajeze dialogul derogatoriu, aceste soluții tind să fie reactive, cu alte cuvinte, după ce prejudiciul a fost deja făcut.

De aceea, nu ar trebui să ne surprindă faptul că cercetătorii din domeniul inteligenței artificiale sunt dornici să dezvolte sisteme care pot prevedea un argument online înainte de a se întâmpla. Dar, după cum o explică recent o echipă de cercetători de la Universitatea Cornell Invers, această inovație urgent necesară nu este atât de departe de a încerca să spunem viitorul.

"În trecut, a fost depistat faptul că un comentariu dat este toxic", spune Ph.D. Jonathan Chang. "Obiectivul nostru este puțin diferit, vrem să știm dacă este posibil să ne putem anticipa dacă o conversație civilă actuală va ieși din mâini cândva în viitor. Pentru a explora această întrebare, ne uităm la conversațiile dintre editori Wikipedia, dintre care unii rămân civili, iar alții care nu se află în mână."

Chang și colegii săi au analizat sute de mesaje trimise între curatorii Wikipedia uneori ușor iritați. Apoi au folosit 1.270 de conversații care au avut o întorsătură ofensivă pentru a pregăti un model de învățare a mașinilor în încercarea de a automatiza acest tip de moderare. Rezultatele lor au fost publicate într-o lucrare prezentată la reuniunea anuală a Asociației pentru Lingvistică Computațională din 15 iulie.

Deci, cum a făcut botul "să ne calmăm"? Din fericire, nu prea ciudat. A ajuns să fie cu 65% exactă, ușor mai mică decât rata de succes a oamenilor de 72%. Cercetătorii au găsit această statistică creând un test online, în care oamenii puteau testa abilitățile de moderare a comentariilor. Se pare că este destul de greu să dai seama dacă utilizatorii de social media vor fi fie sălbați, fie vor rămâne civili.

"Ideea este să arătăm că sarcina este dificilă, dar nu imposibilă - dacă oamenii au o precizie de doar 50%, de exemplu, acest lucru nu ar fi mai bun decât ghicitul întâmplător și nu ar exista niciun motiv să ne gândim că putem pregăti o mașină pentru a face mai bine ", spune Chang. "Compararea modelului nostru cu răspunsurile umane ne-a oferit o perspectivă asupra modului în care abordarea computațională similară sau diferită este cea a intuiției umane".

Chang nu crede că acest lucru va scuza internetul de discuții despre gunoi, dar îl vede ca pe o modalitate de a ajuta moderatorii social media din mediul uman. În loc să fie nevoiți să acorde atenție la milioane de comentarii care pot fi postate pe o zi, algoritmul lor poate identifica sutele dintre cele care riscă să se transforme într-un argument.

În timp ce s-ar putea crede că combăvarea prin toate aceste certuri imprevizibile ar da lui Chang o perioadă de tristețe, omul de știință declară că experiența ia dat de fapt speranță pentru omenire.

"În zilele noastre, există o mulțime de pesimism în jurul conversațiilor online, dar aici vedem că chiar și în cazurile în care o conversație începe într-o manieră neprietenoasă, există încă o șansă ca participanții să aibă gânduri secundare, ton, și a pus conversația pe calea pentru un rezultat mai luminos ", spune el. "Viitorul nu este pus în piatră".

Poate că există speranță pentru internet, la urma urmei.

$config[ads_kvadrat] not found