Asistenții noștri de roboți se învață să se lase și noi trebuie să îi lăsăm

$config[ads_kvadrat] not found

Любовь и голуби (комедия, реж. Владимир Меньшов, 1984 г.)

Любовь и голуби (комедия, реж. Владимир Меньшов, 1984 г.)
Anonim

Roboții se dovedesc a fi tovarăși umani destul de mari. Cine nu ar vrea ca un mic Pepper adorabil să ne spună niște glume, să ne dea complimente și, în general, să ne facă să ne simțim mai puțin singuri în lume? Chiar și roboții fără formă se dovedesc a fi o companie surprinzător de bună. Ia Alexa lui Amazon Echo, de exemplu. E un creier robotic cu o voce umană prinsă în interiorul corpului unui difuzor audio, dar este utilă și dacă citiți recenziile ei, este clar că a devenit ca o familie pentru mulți utilizatori. Oamenii ar gândi altfel dacă ar fi mințit? Ce zici dacă ți-ar spune ceva într-adevăr, într-adevăr nu vrei să auzi?

Gândiți-vă: le spunem copiilor să nu spună niciodată o minciună și că onestitatea este cea mai bună politică și totuși omitem, distorsionăm adevărul și mințim cu desăvârșire pe copii tot timpul. Acest lucru îi învață, prin acțiunile noastre, dacă nu prin cuvintele noastre, că nu este vorba despre onestitatea completă, ci despre învățarea regulilor sociale complicate cu privire la momentul și modul de a dezvălui sau ascunde informații potențial sensibile. Roboții de programare pentru a respecta aceste reguli sociale pot fi o parte dificilă, dar necesară din procesul de inovare a automatizării în curs de desfășurare.

Iată un exemplu: în celălalt sfârșit de săptămână am fost la casa mea de cumnată și m-am dus la magazin să iau niște lucruri de tip sandwich pentru prânzul fiecăruia. Nepoata mea de șase ani m-a ajutat să pun mâncarea în timp ce toți ceilalți au ieșit din bucătărie și m-au întrebat cât costă banii. I-am spus, deoarece învățarea copiilor despre valoarea banilor este un lucru bun.

La masa de prânz mi-a cerut să-i spun tuturor cât costă băuturile. Am spus nu."De ce?", A întrebat ea, cu adevărat confuză cu privire la motivul pentru care o întrebare la care am răspuns liber cu câteva minute mai devreme a fost acum informație secretă. "Nu este politicos", am spus, explicând că, pentru că este un copil, regulile sunt diferite când suntem singuri. I-am învățat că onestitatea și îndreptățirea au un timp și un loc. Informația nu vrea, întotdeauna, într-un context uman, să fie liberă.

Este același lucru cu roboții. Credem că nu vrem să ne minți roboții noștri, dar de fapt dorim ca ei să învețe regulile sociale complicate de politețe și discreție care uneori necesită distorsiuni ale adevărului. Și deja învață cum să o facă. Luați acest clip scurt al lui Pepper care interacționează cu un reporter, de exemplu:

Primul lucru din gura lui Pepper este un compliment: "Deci, esti foarte chic. Esti model?"

Reporterul este destul de frumos, dar întrebarea lui Pepper nu este complet cinstită. Înțelegem că Pepper nu se întreabă de fapt dacă este un model și a fost programat să spună lucruri frumoase indiferent de ce arată o persoană.

Curând după aceea, Pepper cere un împrumut, din albastru. Este o întrebare nepoliticoasă, o indiscreție pe care o iertăm cu ușurință unui robot pentru că ar fi un copil. Reporterul ar fi putut să sublinieze că întrebarea este nepoliticoasă, a sugerat că roboții nu au nevoie de bani sau au recunoscut că nu are nici un interes să-i dea pe Pepper 100 de dolari. Întregul adevăr este că reporterul ar putea îi dau robotului banii, dar înțelege că întrebarea însăși este un pic de joc. Ceea ce alege să spună este o deformare și fie o minciună albă, fie o jumătate de adevăr - nu are banii pe el. Speranța este că robotul înțelege acest lucru ca pe un "nu" blând și nu sugerează că reporterul merge la un bancomat și face o retragere. Pentru că, evident, Pepper are un anumit har social, linia de interogatoriu se termină acolo.

Roboții sociali sunt programați să învețe indiciile sociale, iar acest lucru este un lucru bun - în cele din urmă le va face mai buni la locul de muncă. Sarcina programatorilor nu este de a elimina orice înșelăciune a robotului, ci de a adăuga caracteristici care fac roboților mai ușor să ia decizii cu privire la răspunsurile adecvate.

Când robotii sunt confidenții noștri, trebuie să aibă cunoștințe despre context și public. Dacă încerc să țin costume la domiciliu, de exemplu, voi dori o evaluare sinceră a modului în care sunt disputate diferitele opțiuni. Dacă am ieșit la o petrecere și dintr-o dată conștient de faptul că am ales rochia greșită, reasigurarea că arăt bine va fi răspunsul cel mai util.

Roboții vor învăța o mulțime de informații personale despre tovarășii lor și va fi important ca ei să înțeleagă diferența dintre informațiile confidențiale și informațiile publice și să fie conștienți de cine ascultă ori de câte ori vorbește. Întrebările vor avea răspunsuri diferite, în funcție de cine întreabă. Roboții se vor comporta diferit atunci când oaspeții se află în casă.

Roboții, ca și copiii, au nevoie de părinți responsabili. Aceasta înseamnă că atât programatorii de robot, cât și proprietarii de robot trebuie să se gândească profund la consecințele etice și sociale ale societății noastre A.I. interacțiuni. Dar nu înseamnă a cere o onestitate perfectă - serios, nimeni nu vrea asta.

$config[ads_kvadrat] not found