Tay Microsoft nu a reușit testul Turing? Da, dar rasismul nu a fost problema

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Anonim

Dacă succesul unei inteligențe artificiale este crearea unei creații artificiale personalitate, A.I. bot, Tay, ar putea fi considerat un semn de progres. Dar mai larg, Tay poate fi considerat un eșec.

"Scopul celor mai mulți oameni care lucrează la agenții de conversație de acest fel nu este să treacă prea mult la un test Turing, ci să aibă o cunoaștere utilă a limbajului care răspunde în mod sensibil lucrurilor și le oferă oamenilor acces la cunoștințe" Miles Brundage, un doctorat student care studiază dimensiunile umane și sociale ale științei și tehnologiei la Arizona State University spune Invers.

Microsoft a ilustrat unele dintre problemele construirii A.I. programe în această săptămână când, în mai puțin de 24 de ore, internetul a transformat ceea ce trebuia să fie o personalitate feminină, milenară, automată, Twitter în bordul sonor al celui mai rasist și mai vile discurs pe care trollurile trebuia să-l ofere.

Microsoft a închis imediat experimentul și și-a cerut scuze: "Ne pare foarte rău pentru mesajele nedorite, jignitoare și dureroase de la Tay, care nu reprezintă cine suntem sau ce reprezentăm și cum am proiectat Tay".

Când vine vorba de testul Turing, faimosul experiment folosit pentru a evalua AI, Brundage spune că există, în general, două școli de gândire - literale și teoretice.

Dezvoltat în 1950, Alan Turing a încercat să răspundă la întrebarea "Mașinile pot gândi?" El a pus mașinile printr-un test de imitație, care necesită un observator pentru a determina sexul celor doi intervievați, dintre care unul este A.I. Dacă computerul este capabil să păcălească un anumit număr de observatori, atunci acesta a trecut testul.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 martie 2016

Dacă ar trebui să aplicăm acest test literal, în inverse lui o conversație privată cu Tay, a răspuns la elocvent chestiunilor politice, a făcut referiri la cătușele "mannnn"-ului asupra societății și a folosit câteva abrevieri comune și emojis. Brundage a spus că Tay a afișat un comportament milenar, dar că aceste tipuri de A.I. au fost construite înainte.

"A fi capabil să producă observații aparent teenagere pe Twitter nu este cu adevărat storica a unei abilități lingvistice și intelectuale largi pe care Turing o avea în minte, spune Brundage. "Asta a spus că, dacă ar fi de fapt să luăm testul Turing literal, ceea ce nu cred că este necesar, o variantă este că multe dintre comentariile ei erau aparent omenești".

Dar dacă trebuie să luăm o abordare mai largă așa cum sugerează Brundage, atunci este evident că Tay nu a prezentat un cuvânt uman rezonabil.

Microsoft testa ceea ce se numește "înțelegere conversativă", astfel încât cu cât mai multe persoane vorbește prin Twitter, GroupMe și Kik, cu atât mai mult ar fi trebuit să învețe și să se adapteze. Dar ea a terminat pur și simplu repeta ceea ce mulți alți utilizatori l-au hrănit și doar reiterând-o înapoi în lume.

"Tay" a trecut de la "oamenii sunt super cool" la naziști complet în <24 ore și nu sunt deloc îngrijorat de viitorul AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 martie 2016

"Majoritatea oamenilor nu ar repeta după tine, tot ce ai spus", spune Brundage.

Articulând "Bush a făcut 9/11" și "Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum", a fost poate ceva pe care cineva l-a scris lui Tay, dar nu e vorba de o conversație foarte politicoasă.

"Desigur, scopul său de a articula testul Turing a fost mai puțin să prescrie detaliile unor teste și mai mult pentru a provoca oamenii să gândească" la ce punct ați fi dispuși să fii într-un sistem inteligent "și să deschidă gândirea oamenilor posibilitatea ca mașinile să poată gândi ", spune Brundage.

$config[ads_kvadrat] not found