Robotul a învățat cum să spună "nu" cererilor umane

$config[ads_kvadrat] not found

NANNYBOT RIVARLY | Cartoons for Kids | Full Episode | Arpo the Robot

NANNYBOT RIVARLY | Cartoons for Kids | Full Episode | Arpo the Robot
Anonim

Roboții, la fel ca și oamenii, trebuie să învețe când să spună "nu". Dacă o cerere este imposibilă, ar cauza rău sau îi va distrage de sarcina, atunci este în interesul unui bot și al omului săi pentru un diplomat nu multumesc a face parte din conversație.

Dar când ar trebui să vorbească o mașină înapoi? Și în ce condiții? Inginerii încearcă să-și dea seama cum să insufle acest sentiment de cum și când să sfideze ordinele în umanoizi.

Uita-te la acest robot Nao refuză să meargă înainte, știind că acest lucru ar face să-l facă să cadă de la marginea unei mese:

Lucruri simple, dar cu siguranță esențiale pentru a acționa ca un control al erorilor umane. Cercetătorii Gordon Briggs și Matthias Scheutz de la Universitatea Tufts au dezvoltat un algoritm complex care permite robotului să evalueze ceea ce omul ia cerut să facă, să decidă dacă ar trebui sau nu să o facă și să răspundă corespunzător. Cercetarea a fost prezentată la o reuniune recentă a Asociației pentru Progresul Inteligenței Artifice.

Robotul își întreabă o serie de întrebări legate de faptul dacă sarcina este capabilă. Știu cum să o fac? Sunt fizic capabil să o fac acum? În mod normal, sunt fizic capabil să o fac? Pot să fac asta chiar acum? Sunt obligat, pe baza rolului meu social, să o fac? Se încalcă orice principiu normativ de a face acest lucru?

Rezultatul este un robot care pare a fi nu numai sensibil, ci, într-o bună zi, chiar și înțelept.

Observați cum Nao își schimbă mintea cu privire la mersul înainte, după ce promisiunile umane îl vor prinde. Ar fi ușor să vă imaginați un scenariu diferit, în care robotul spune: "În nici un caz, de ce ar trebui să am încredere în tine?"

Dar Nao este o creatură socială, prin design. Pentru a vă rugăm ca oamenii să fie în ADN-ul său, dat fiind informațiile pe care omul intenționează să le prindă, el merge orbește înainte în abis. Sigur, dacă omul ar trebui să-și înșele încrederea, el ar fi înnebunit, dar oricum se încrede. Este calea lui Nao.

În timp ce companionii robotului devin mai sofisticați, inginerii de robot trebuie să se confrunte cu aceste întrebări. Roboții vor trebui să ia decizii nu numai pentru a-și păstra propria siguranță, ci și pentru a pune întrebări etice mai mari. Ce se întâmplă dacă un om cere unui robot să omoare? A comite fraude? Pentru a distruge un alt robot?

Ideea eticii mecanice nu poate fi separată de inteligența artificială - chiar și mașinile noastre fără șofer ale viitorului vor trebui să fie proiectate pentru a face alegeri de viață sau de moarte în numele nostru. Conversația asta va fi în mod necesar mai complexă decât să dai ordine în marș.

$config[ads_kvadrat] not found