În contrast cu Tay, chinezul chinez Microsoft, Xiaolce, este de fapt plăcut

$config[ads_kvadrat] not found
Anonim

Când ați auzit despre Tay, Microsoft tweeting A.I., ați fost cu adevărat surprins de faptul că un computer care a învățat despre natura umană de la Stare de nervozitate ar deveni un rasist violent în mai puțin de o zi? Desigur că nu. Poor Tay a demarat totul "hellooooooo w🌎rld !!!" și sa transformat repede într-o bucată de rahat de la computer, care-i încurajează pe Hitler, genocidul-încurajator. Desigur, Microsoft și-a cerut scuze pentru tweets-urile îngrozitoare de către "chat-ul" cu "zero chill". În această scuză, compania a subliniat că versiunea chineză Tay, Xiaoice sau Xiaolce oferă o experiență foarte pozitivă pentru utilizatori în contrast puternic cu acest experiment. foarte gresit.

Notele de scuze:

"În China, chat-ul nostru Xiaolce este folosit de aproximativ 40 de milioane de oameni, încântând cu poveștile și conversațiile sale. Experiența extraordinară cu XiaoIce ne-a determinat să ne întrebăm: Un astfel de AI ar fi la fel de captivant într-un mediu cultural radical diferit? Tay - un magazin creat pentru copiii cu vârsta cuprinsă între 18 și 24 de ani în SUA în scopuri de divertisment - este prima noastră încercare de a răspunde la această întrebare."

Xiaolce a fost lansat în 2014 pe site-ul micro blogging, bazat pe text Weibo. Ea face în esență ceea ce făcea Tay, are o "personalitate" și adună informații de la conversații pe web. Ea are mai mult de 20 de milioane de utilizatori înregistrați (care sunt mai mulți oameni decât cei care locuiesc în statul Florida) și 850.000 de adepți pe Weibo. Puteți să o urmați pe JD.com și 163.com în China, precum și pe linia App ca Rinna în Japonia.

Ea a apărut chiar și ca reporter meteorologic la Dragon TV din Shanghai, cu o voce umană și reacții emoționale.

In conformitate cu New York Times, oamenii îi spun adesea "Te iubesc" și o femeie pe care au intervievat chiar a spus că chat-ul cu A.I. când are o stare proastă. Deci, în timp ce Tay, după o singură zi online, a devenit un simpatizant nazist, Xiaolce oferă terapie gratuită utilizatorilor chinezi. Stochează starea de spirit a utilizatorului și nu informația, astfel încât să poată menține un nivel de empatie pentru următoarea conversație. China tratează Xiaolce ca o bunică dulce, adoratoare, în timp ce americanii vorbesc cu Tay ca un frate cu un intelectual limitat. Aceasta reflectă atitudinile culturale față de tehnologia sau A.I.? Arată că chinezii sunt mult mai frumoși decât americanii, în general? Este mult mai probabil ca Marele Paravan de protecție a Chinei să protejeze împotriva agresiunii lui Xiaolce. Libertatea de exprimare poate produce uneori rezultate neplăcute, cum ar fi Tay după 24 de ore pe Twitter.

"Cu cât vorbiți mai mult, cu atât mai inteligent Tay devine," un suflet sărac de la Microsoft a scris în profilul lui chatbot. Ei bine, nu atunci când trolinii vorbitori de limba engleză guvernează webul. În ciuda acestor rezultate, Microsoft spune că nu va da în atacurile asupra lui Tay. "Vom rămâne ferm în eforturile noastre de a învăța din această și din alte experiențe pe măsură ce lucrăm pentru a contribui la un Internet care reprezintă cel mai bun, nu cel mai rău, omenesc".

$config[ads_kvadrat] not found