Împiedicați apocalipsa robotului prin contemplare. Întrebare despre moralitate

$config[ads_kvadrat] not found
Anonim

Există o întrebare robotică morală și un scenariu în care trebuie să se răspundă pentru ca inteligența artificială să avanseze.

Imaginați-vă că există un robot care controlează un arbore al minei și își dă seama că există un cărucior plin cu patru mineri umani care trec în afara liniilor de control. Robotul poate alege să schimbe pistele și să-l ucidă pe un miner care nu-și dă seama, salvând astfel cele patru în cărucior sau păstrând pistele așa cum sunt acestea și lăsând celor patru mineri să intre într-un zid și să moară. Care ai alege? V-ar schimba raspunsul daca ar fi un copil in schimb? Dacă nu putem răspunde la acest lucru, cum să programați roboții să ia această decizie?

Acestea au fost întrebările adresate membrilor grupului de discuții și audienței la evenimentul Festivalului de știință mondial din New York City intitulat "Matematica morală a roboților: poate fi codificată viața și moartea?" Cei mai mulți au ales să direcționeze coșul spre un miner și să schimbe persoana la un copil nu a schimbat mintea multor respondenți, dar nu a fost unanim și deciziile morale umane nu sunt adesea.

Acesta a fost un exemplu ciudat al luptelor cu care se va confrunta omenirea, pe măsură ce inteligența artificială continuă să avanseze și ne confruntăm cu posibilitatea de programare a roboților cu moralitate.

"Un concept precum răul este greu de programat", a spus președintele Gary Marcus, profesor de psihologie și științe neuronale la NYU și CEO și co-fondator al diviziei Geometric Intelligence, Inc. El a spus că conceptele ca justiția nu au o tăietură și uscată răspundeți la program și în prezent nu avem un set bun de moravuri pentru roboți dincolo de legile lui Asimov, care au fost prezentate în filme precum iRobot.

El a spus că acesta a fost punctul în care el sa alăturat grupului, pentru a începe o conversație despre cum ar trebui să abordăm moralitatea robotului.

Elon Musk a discutat în această săptămână despre îngrijorarea sa despre inteligența artificială, mergând atât de departe încât să sugerez că trăim cu toții într-un fel de simulare cum ar fi Matricea și că oamenii ar trebui să investească în dantele neurale care se vor atașa creierului și vor spori abilitățile cognitive umane. Alți futuristi, cum ar fi Stephen Hawking, au avertizat asupra pericolelor cauzate de A.I. iar în această săptămână, Matt Damon a avertizat la fel în timpul discursului său la MIT.

Alte scenarii includ sisteme militare de arme autonomice și modul în care vom aborda moral și filosofic aceste decizii umane pe câmpul de luptă, precum și ce decizii ar putea avea automobilele autonome în viitorul cel mai îndepărtat.

Membrii grupului de lucru nu au ajuns la un consens cu privire la ce să facă, dar au spus că există avantaje enorme pentru A.I. care nu ar trebui să fie aruncat pe fereastră doar pentru că aceste întrebări sunt grele. Ei au sugerat să vorbească mai mult despre aceste tipuri de întrebări despre arbori morali și poate că ne apropiem de prevenirea apocalipsei robotului.

$config[ads_kvadrat] not found