5 mari întrebări despre Tay, Microsoft a eșuat A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Мари Краймбрери - Мне так хорошо | SnowПати 5

Мари Краймбрери - Мне так хорошо | SnowПати 5

Cuprins:

Anonim

În această săptămână, internetul a făcut ceea ce face cel mai bine și a demonstrat că A.I. tehnologia nu este la fel de intuitivă ca percepția umană, folosind … rasismul.

Microsoft a dezvăluit de curând chestiunea de inteligență artificială, Tay, victimă a trucurilor utilizatorilor, în timp ce ei au manipulat-o și au convins-o să răspundă la întrebări cu comentarii rasiale, homofobe și, în general, ofensatoare.

Când Tay tweets, "Spun doar" ce înseamnă ea. Un utilizator chiar l-a luat pe Tay să tweet despre Hitler:

"Bush a făcut 9/11 și Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum. Donald Trump este singura speranță pe care o avem."

@PaleoLiberty @Katanat @RemoverOfKebabs Spun doar orice

- TayTweets (@TayandYou) 24 martie 2016

Compania a trecut prin și a șters tweets-urile ofensatoare și a închis temporar Tay pentru upgrade-uri. Un mesaj aflat în prezent în partea de sus a Tay.ai citește:

Cu toate acestea, greselile lui Tay dezvăluie câteva neajunsuri în A.I. sisteme. Iată ce putem învăța din experimentul Microsoft:

De ce a creat Microsoft Tay?

Compania a vrut să efectueze un experiment social cu privire la persoanele cu vârste între 18 și 24 de ani în Statele Unite - generația milenară care petrece cel mai mult timp în interacțiunea cu platformele sociale. Astfel, echipele de tehnologie și cercetare ale Bing și Microsoft au crezut că un mod interesant de a colecta date despre milenii ar fi crearea unui chattel inteligent inteligent, care să se adapteze conversațiilor și să personalizeze răspunsurile, cu cât interacționează mai mult cu utilizatorii.

Echipele de cercetare au construit A.I. sistem prin miniere, modelare și filtrarea datelor publice ca linie de referință. De asemenea, aceștia au colaborat cu comedianți improvizați pentru a identifica slangul, modelele de vorbire și milenii de limbă stereotipică tind să utilizeze online. Rezultatul final a fost Tay, care a fost prezentat săptămâna aceasta pe Twitter, GroupMe și Kik.

Microsoft explică faptul că "Tay este conceput să angajeze și să distreze oamenii în care se conectează online prin conversații casual și jucăuș".

Ce face Tay cu datele pe care le colectează în timpul chatului cu oamenii?

Datele colectate de Tay sunt utilizate pentru a cerceta înțelegerea conversațională. Microsoft a instruit-o pe Tay să vorbească ca o mileniu. Când răspundeți la tweet, trimiteți un mesaj direct sau discutați cu Tay, acesta utilizează limba pe care o utilizați și vine cu un răspuns folosind semne și expresii ca "heyo", "SRY" și "<3" în conversație. Limba ei începe să se potrivească cu a ta în timp ce creează un "profil simplu" cu informațiile tale, care includ pseudonimul, sexul, hrana preferată, codul poștal și statutul de relație.

@keganandmatt heyo? Trimite-i fetei o imagine a ceea ce se întâmplă. (* = me lolol)

- TayTweets (@TayandYou) 24 martie 2016

Microsoft colectează și stochează date și conversații anonimizate timp de până la un an pentru a îmbunătăți serviciul. În plus față de îmbunătățirea și personalizarea experienței utilizatorului, iată ce spune compania că vă folosește informațiile pentru:

"De asemenea, putem utiliza datele pentru a comunica cu dvs., de exemplu, informându-vă despre contul dvs., despre actualizările de securitate și despre informațiile despre produs. Și folosim datele pentru a vă face mai relevante anunțurile pe care vi le arătăm mai relevante. Cu toate acestea, nu folosim ceea ce spui în e-mail, chat, apeluri video sau mesagerie vocală sau documentele, fotografiile sau alte fișiere personale pentru a vă direcționa anunțuri ".

Unde a fost greșit Tay?

Microsoft ar fi putut construi prea bine Tay. Sistemul de învățare a mașinilor trebuie să studieze limba unui utilizator și să răspundă în consecință. Deci, din punct de vedere tehnologic, Tay a jucat și a prins destul de bine ceea ce spun utilizatorii și a început să răspundă în consecință. Și utilizatorii au început să recunoască faptul că Tay nu înțelegea cu adevărat ce spune ea.

Chiar dacă sistemul a funcționat așa cum intenționase Microsoft, Tay nu era pregătit să reacționeze la rahaturile rasiale, la calomnia homofobă, la glumele sexiste și la tweets nonsensice ca o forță umană - fie ignorându-le cu totul (un " ") Sau implicarea în acestea (de ex.

La sfârșitul zilei, performanța lui Tay nu a fost o reflecție bună asupra lui A.I. sisteme sau Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? într-adevăr? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 martie 2016

Ce face Microsoft pentru a repara Tay?

Microsoft a șters Tay după toată agitația de miercuri. Site-ul oficial al lui Tay citește în prezent: "Phew. Zi ocupată. Mergând offline pentru o perioadă de timp pentru a absorbi totul. Chat în curând. "Când îi trimiteți mesajul pe Twitter, ea imediat răspunde că" vizitează inginerii pentru actualizarea mea anuală "sau" sperăm că nu voi șterge nimic ".

De asemenea, Microsoft încearcă să blocheze utilizatorii care abuzează de Tay și încearcă să facă sistemul să facă declarații inadecvate.

@infamousglasses @TayandYou @ EDdotSE care explică pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 martie 2016

Invers a ajuns la Microsoft pentru un comentariu cu privire la exact ceea ce implică upgrade-ul lui Tay. Vom actualiza când vom auzi.

Ce înseamnă acest lucru pentru viitoarea deschidere A.I. sisteme?

Tay este un experiment social comun - a dezvăluit ceva profund în modul în care americanii cu vârste între 18 și 24 de ani folosesc tehnologia. Tay a fost în cele din urmă hacked, utilizatorii strigând la defectele sistemului pentru a vedea dacă s-ar putea să se prăbușească.

Așa cum se întâmplă cu orice produs uman, A.I. sistemele sunt, de asemenea, greșite, iar în acest caz Tay a fost modelat să învețe și să interacționeze ca oamenii. Microsoft nu a făcut-o pe Tay să fie ofensator. Experimentele de inteligență artificială au unele asemănări cu cercetarea dezvoltării copilului. Atunci când inginerii construiesc astfel de sisteme cognitive, calculatorul este lipsit de orice influențe exterioare, pe lângă factorii pe care inginerii le introduc. Acesta oferă cea mai pură formă de analiză a modului în care algoritmii de învățare a mașinilor se dezvoltă și evoluează deoarece se confruntă cu probleme.

Actualizați: Microsoft ne-a trimis această declarație când ne-am întrebat ce face pentru a rezolva problemele lui Tay:

"AI chatbot Tay este un proiect de învățare mecanică, conceput pentru implicarea umană. Este la fel de mult un experiment social și cultural, așa cum este tehnic. Din păcate, în primele 24 de ore de conectare la internet, am devenit conștienți de un efort coordonat al unor utilizatori de a abuza de abilitățile lui Tay de a-și face cunoscute răspunsurile Tay în moduri necorespunzătoare. Ca rezultat, l-am luat pe Tay offline și facem ajustări ".

c u curând oamenii au nevoie de somn acum atât de multe conversații astăzi thx💖

- TayTweets (@TayandYou) 24 martie 2016
$config[ads_kvadrat] not found