Robotul stereotip al lui Georgia Tech este viitorul AI, nu al rasismului

$config[ads_kvadrat] not found

Georgia Tech Invention Studio

Georgia Tech Invention Studio
Anonim

Pentru urechile sensibilizate de specialitățile de după scoală și de seminariile privind diversitatea, acest lucru va părea rău, dar vrem ca roboții să facă judecăți rapide pe baza aspectului. Depășirea prejudecăților este bună, însă incapacitatea de stereotipuri diminuează inteligența - artificială și nu. Alan Wagner, Ph.D., un robot la Georgia Tech, este principalul promotor al tehnologiei stereotipurilor. El susține că acest tip de logică nu trebuie să fie aplicat rasei sau genului, doar situații și comportamente.

Într-un test timpuriu al algoritmului său stereotip, Wagner a pregătit un robot naiv pentru a face concluzii din ceea ce a văzut. Robotul a învățat și a devenit perceptiv, ceea ce ia permis lui Wagner să se gândească critic la etica ipotezelor robotului, în special cele pre-programate. A vorbit cu el Invers despre munca sa și despre ramificațiile ei.

Mergeți prin modul în care a funcționat experimentul.

Robotul interacționează cu diferite tipuri de persoane - pompier, EMT sau nu - dar nu are experiență anterioară cu niciuna dintre aceste categorii de persoane. Este, în esență, învățare experimentală.

Ideea a fost aceea de a arăta că robotul ar putea folosi caracteristicile perceptuale de la individ pentru a prezice nevoile lor în ceea ce privește utilizarea sculelor. Modul în care algoritmul funcționa, camera robotului ar percepe aspecte diferite ale aspectului fizic al individului - culoarea lor uniformă, de exemplu, dacă aveau o barbă și culoarea parului.

De asemenea, le-ar pune întrebări despre cum arată. Desigur, întrebarea nu este ceea ce vrei să faci în domeniu, dar percepția robotului este atât de limitată chiar acum. Aveam nevoie de o modalitate de a bootstra procesul de învățare despre o persoană. Persoana va selecta instrumentul și apoi robotul va selecta instrumentul, iar în timp robotul va afla ce instrument preferă fiecare tip de persoană.

Te-ai aștepta ca robotul să afle că o insignă înseamnă polițist sau o haină reflectorizantă grele înseamnă un pompier?

Chiar ne-am așteptat. Dar au fost și unele lucruri surprinzătoare.De exemplu, robotul a recunoscut fals că o barbă este prezisă cu un pompier - a fost ciudat, dar când te uiți la date nu a fost surprinzător. Primii câțiva oameni care au interacționat cu ei au fost pompierii care aveau barbă. Așadar, argumentăm nevoia unei diversități perceptuale, ideea că, dacă robotul ar putea vedea categorii mari, diferite tipuri de persoane într-o categorie, ar fi mai bine să dezvolte și să înțeleagă categoria.

Vrei să spui că roboții autonomi ar trebui să fie pregătiți pentru a elimina aceste ciudățenii, așa că un robot nu va gândi dacă această persoană are o barbă, este un pompier?

Absolut. Este esențial să finalizăm aceste lucruri. Este critic faptul că avem acești roboți care funcționează dintr-un set divers de indivizi.

Ce ar putea arăta această învățare?

Ar permite robotului să se concentreze asupra lucrurilor care caracterizează mai bine pompierii. De exemplu, un pompier ar putea să nu poarte nici măcar o jachetă. Robotul ar observa apoi alte aspecte ale luptei împotriva incendiilor, probabil cizmele, poate mănușile, poate căștile. S-ar spune, "OK această persoană într-adevăr este un pompier în acest mediu."

Dacă ați avea suficienți oameni, ar putea fi capabil să recunoască un pompier la un foc față de un pompier la o petrecere de Halloween. Sunt detalii subtile perceptuale, cum ar fi diferența dintre calitatea tipurilor de uniforme sau mediile contextuale.

Pe lângă asocierea barbilor cu pompierii, cât de reușit a fost acest algoritm?

Au fost două lucruri pe care am vrut cu adevărat să le privim: Unu, ce puteți face cu asta? Dacă roboții pot să recunoască ofițerii de pompieri, asta chiar ajută într-un fel? Lucrarea a arătat că vă permite să vă îngustați căutarea. În loc să vă uitați la barbă pentru culoarea părului, căutați culoarea ochilor sau orice altceva pe care îl puteți căuta, puteți să vă concentrați asupra caracteristicilor care într-adevăr au avut importanță. Este persoana care poartă haina de pompieri? Acest lucru ar putea accelera procesul.

Un alt lucru cu adevărat critic la care ne-am uitat este dacă o categorie pe care robotul o prezice este greșită? Cum te influențează asta? Vă puteți imagina că mediile de căutare și de salvare pot fi haotice: poate că lucrați în condiții de fum, robotul nu poate să perceapă totul foarte bine, ar putea să aibă erori. S-ar putea să vă imaginați un caz mai rău, în cazul în care robotul crede că persoana este o victimă atunci când în realitate ei sunt un pompier. Deci încearcă să salveze un pompier. Ar fi groaznic. Am vrut să vedem unde se rupe, cum se rupe, ce caracteristici o influențează cel mai mult și care sunt diferitele tipuri de erori.

Puteți folosi această abordare în moduri diferite - dacă nu pot vedea persoana, dar pot vedea acțiunile pe care le fac. Dacă pot vedea persoana care selectează un topor, atunci pot prezice că au o coif.

Cum abordați obținerea unui robot pentru a evalua contextul și a face o predicție?

Am încercat să analizăm câteva tipuri diferite de medii - un restaurant, o școală și o casă de îngrijire medicală. Am încercat să capturam trăsături despre mediul înconjurător și care sunt obiectele din mediul înconjurător, acțiunile pe care persoana le selectează și ceea ce arată în mediul înconjurător și încearcă să le folosească pentru a face o mulțime de previziuni sociale. De exemplu, într-un mediu școlar, oamenii își ridică mâinile înainte de a vorbi. Deci, dacă văd acțiunea pe care oamenii o ridică, ce fel de obiecte aș vrea să văd în mediul înconjurător? Mă aștept să văd o tablă; mă aștept să văd un birou? Mă așteptam să văd copii.

Speranța de a utiliza aceste informații. Dacă robotul efectuează o procedură de evacuare, ar vedea ce tipuri de persoane există și unde ar putea fi.

Să presupunem că există un robot care vine la ușă și spune: "Vă rog, urmați-mă la ieșire". Ceva aparent simplu, de fapt, este foarte complex. Dacă un robot bate pe o ușă într-o clădire de apartamente, nu aveți nicio idee cu cine intenționați să interacționați. Ar putea fi un copil de patru ani, ar putea fi o persoană de 95 de ani. Ne-ar plăcea robotului să-și adapteze comportamentul interactiv la tipul de persoană pe care îl vede pentru a-i salva. Luăm câteva dintre aceste lecții contextuale și încercăm să dezvoltăm acea aplicație.

Utilizați o definiție similară a "stereotipului" pentru roboți și oameni, sau se întâmplă ceva altceva?

Termenul stereotip are un context negativ. Modul în care o folosim este pur și simplu să dezvoltăm categorii de oameni și să folosim informații categorice pentru a prezice caracteristicile unei persoane. Știu în psihologie, o mulțime de lucruri se concentrează pe stereotipurile faciale și pe stereotipurile de gen. Nu facem așa ceva. Este procesul același? Nu știu. Nici o idee.

Ești îngrijorat că oamenii ar putea avea concepții greșite despre munca ta?

Cu câțiva ani în urmă, am dezvoltat această idee de roboți care ar putea înșela oamenii. În mass-media a existat un pic de o percepție greșită că acest lucru ar duce la roboți care fură portofele oamenilor.

Aș dori să folosesc situația de urgență de evacuare: nu doriți să fiți întotdeauna cinstit cu o persoană aflată într-o evacuare, nu? De exemplu, dacă cineva v-a întrebat: "Este familia mea în regulă?" Ar putea fi teribil dacă robotul a spus: "Nu, toți au murit. Urmați-mă la ieșire. "Există câteva situații în care robotul trebuie să fie pentru scurt timp necinstit. Dar experiența mea a fost că oamenii au simțit că încercam să ajungem la sfârșitul lumii.

Suntem întotdeauna interesați de aspectele prosocial ale acestor tehnici de robot uman. Încercăm să ajutăm oamenii, să nu fie ceva rău.

$config[ads_kvadrat] not found