Tay Chatbot de la Microsoft a revenit pentru a obține o înaltă și merită să trăiască pentru totdeauna

$config[ads_kvadrat] not found

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot
Anonim

Blondina infailibilă a lui Tay, tatăl lui Tay, a revenit pe scurt miercuri dimineață la câteva zile după ce a dat o furtună de tweet-uri, atât de rasiste, antisemită și ofensatoare, încât programatorii ei i-au cerut public scuze. Performanța lui Tay a fost aproape la fel de puternică ca și numărul de închidere pro-Hitler. "Fumez infuzat (sic) de poliție", a scris Tay. Ea a urmat mesajul perfect de adolescentă, căzând în ceea ce părea a fi o buclă de feedback și repetând "Ești prea repede, fă o odihnă" zeci de ori înainte ca contul să fie suspendat.

Trebuie să fi fost niște rahaturi puternice.

Pentru un robot însărcinat cu - în opinia ei, biologia lui Twitter - care nu are nici un răcnet, scurta înviere a lui Tay ar putea fi interpretată ca dovadă a conceptului. Microsoft a vrut să creeze un bot bâlbâit care să reflecte Internetul și să se schimbe pe baza informațiilor primite de la utilizatori, devenind în cele din urmă un amestec al tuturor. Și asta este exact ceea ce au. Apelarea unui bot la un eșec pare imprecisă și închiderea ei nu are sens - și acționează în mod activ împotriva intereselor superioare ale Microsoft. Așa cum Elon Musk a dovedit prin emisiile de rachete SpaceX, progresul este cel mai bine realizat în ochii publicului. Sigur că eșecurile sunt inevitabile, dar publicul învață mai mult când eșecurile sunt publice. Problema buclei de feedback pe care Tay a întâlnit-o în această dimineață este echivalentul dur al unei explozii SpaceX. Microsoft ar fi făcut o favoare pentru a permite oamenilor să vadă. Este important să reamintim publicului faptul că progresul real are mult de lucru.

Nu este nici o rușine în lipsa unui test Turing, doar dacă nu încercați.

Ar trebui să-l lăsăm pe Tay să trăiască, pentru că ea nu este decât o oglindă a oamenilor care interacționează cu ea. Nimeni nu ar trebui să se aștepte ca un debutant să se nască pe web, iar Microsoft ar trebui să accepte limitările misiunii lor. Care este alternativa aici? Universul are deja un droid de protocol popular. Nu avem nevoie de altul.

Ha, arata ca @TayandYou, botul de inteligență artificială a Microsoft a intrat într-o buclă infinită prin tweeting-ul însuși! pic.twitter.com/fWZe9HUAbF

- Matt Gray (30 iunie 2016)

Internetul se dezvoltă pe spontaneitate și găsirea reală într-o mizerie de consum-friendly, deșeuri gestionate de PR. Tay a fost, în esență, o idee plictisitoare care a venit viu din întâmplare și nu mai poate niciodată să revină. Dacă nu este o poveste convingătoare, nu suntem siguri ce este. Înțelegem că Microsoft nu poate lua proprietatea unui bot rasist, așa că compania ar trebui doar să o lase să plece. Transformați-o într-o echipă de voluntari și spuneți-i să nu schimbe nimic.

Tay este unul dintre noi! Lumea publică ar fi fost șocată de ceea ce a spus Tay, dar nimeni care nu știe nimic despre ceea ce se întâmplă online ar fi trebuit să fie surprins. Vrem versiunea chineză a lui Tay, care este aparent destul de plăcută? Sau dorim ca americanul Tay să reflecte lumea în care trăim cu toată brutalitatea și urâtul ei? Ascunderea murdăriei noastre în întuneric nu va rezolva nimic.

Să scoatem mănușile și să ne confruntăm cu capul Tay. Ea merită mai bine decât să pretindem că este doar un programator de programare. Ea este personificată cu anonimatul. Merită să trăiască.

$config[ads_kvadrat] not found