NANNYBOT RIVARLY | Cartoons for Kids | Full Episode | Arpo the Robot
Roboții, la fel ca și oamenii, trebuie să învețe când să spună "nu". Dacă o cerere este imposibilă, ar cauza rău sau îi va distrage de sarcina, atunci este în interesul unui bot și al omului săi pentru un diplomat nu multumesc a face parte din conversație.
Dar când ar trebui să vorbească o mașină înapoi? Și în ce condiții? Inginerii încearcă să-și dea seama cum să insufle acest sentiment de cum și când să sfideze ordinele în umanoizi.
Uita-te la acest robot Nao refuză să meargă înainte, știind că acest lucru ar face să-l facă să cadă de la marginea unei mese:
Lucruri simple, dar cu siguranță esențiale pentru a acționa ca un control al erorilor umane. Cercetătorii Gordon Briggs și Matthias Scheutz de la Universitatea Tufts au dezvoltat un algoritm complex care permite robotului să evalueze ceea ce omul ia cerut să facă, să decidă dacă ar trebui sau nu să o facă și să răspundă corespunzător. Cercetarea a fost prezentată la o reuniune recentă a Asociației pentru Progresul Inteligenței Artifice.
Robotul își întreabă o serie de întrebări legate de faptul dacă sarcina este capabilă. Știu cum să o fac? Sunt fizic capabil să o fac acum? În mod normal, sunt fizic capabil să o fac? Pot să fac asta chiar acum? Sunt obligat, pe baza rolului meu social, să o fac? Se încalcă orice principiu normativ de a face acest lucru?
Rezultatul este un robot care pare a fi nu numai sensibil, ci, într-o bună zi, chiar și înțelept.
Observați cum Nao își schimbă mintea cu privire la mersul înainte, după ce promisiunile umane îl vor prinde. Ar fi ușor să vă imaginați un scenariu diferit, în care robotul spune: "În nici un caz, de ce ar trebui să am încredere în tine?"
Dar Nao este o creatură socială, prin design. Pentru a vă rugăm ca oamenii să fie în ADN-ul său, dat fiind informațiile pe care omul intenționează să le prindă, el merge orbește înainte în abis. Sigur, dacă omul ar trebui să-și înșele încrederea, el ar fi înnebunit, dar oricum se încrede. Este calea lui Nao.
În timp ce companionii robotului devin mai sofisticați, inginerii de robot trebuie să se confrunte cu aceste întrebări. Roboții vor trebui să ia decizii nu numai pentru a-și păstra propria siguranță, ci și pentru a pune întrebări etice mai mari. Ce se întâmplă dacă un om cere unui robot să omoare? A comite fraude? Pentru a distruge un alt robot?
Ideea eticii mecanice nu poate fi separată de inteligența artificială - chiar și mașinile noastre fără șofer ale viitorului vor trebui să fie proiectate pentru a face alegeri de viață sau de moarte în numele nostru. Conversația asta va fi în mod necesar mai complexă decât să dai ordine în marș.
A.I. A învățat cum să concureze împotriva profesioniștilor în cadrul jocurilor extrem de complexe
Inteligența artificială a dat naștere oamenilor la jocuri de bord perfecte cum ar fi Șah și Go de ani de zile. De fapt, epoca perfecționării abilităților de rezolvare a problemelor cu ajutorul acestor jocuri poate fi încheiată în cele din urmă și este nevoie de jocuri mult mai complicate pentru a continua să împingă limitele lui A.I. 2018 a văzut str ...
Dr. Charlie Hunnam sau: Cum am învățat să nu mai mă îngrijorez și să iubesc televiziunea
Am urmărit din canapea ca Charlie Hunnam a zdrobit craniul unui tip cu un glob de zăpadă, cântarea lui scânteind plăcut când sângele îi pătrea părul blond. Poziția mea era precară și inconfortabilă, aceea a unui alpinist coborând un vârf de pachete de gheață și perne. Am fost blocat acolo pentru o vreme, făcând clic pe spate și pe fort ...
Ar putea Robotul Doubleie Robotul Selfie să înlocuiască jurnaliștii?
Ar putea fi un egoist pe un jurnalism de schimbare a lui Segway? Un robot care era, în esență, o combinație a celor doi și a handlerului său, se îndrepta în jurul unei petreceri de observare a Convenției naționale republicane din Cleveland în această săptămână, permițându-le oamenilor să se autodevine și să le dezactiveze de pe touchscreen. Nu are un nume oficial ...