Iată cum putem opri viitorul Rogue A.I. de la imitația HAL 9000

$config[ads_kvadrat] not found

Инопланетяне подо Льдом — Жизнь на одиноких планетах

Инопланетяне подо Льдом — Жизнь на одиноких планетах
Anonim

Cum oprim o viitoare A.I. de la neascultarea ordinelor și de a alege să meargă în propriul mod? Poate că suna de parcă 2001: O Odisee Spațială, dar un expert susține că este ceva la care ar trebui să începem să ne gândim deja. Sigur, am putea să oprim algoritmul de căutare Google dacă s-ar fi întâmplat vreodată, dar când s-ar fi confruntat cu consecințe financiare și juridice, ar putea fi mai ușor de zis decât de făcut. În viitor, pe măsură ce vom deveni dependenți de un AI mai avansat, s-ar putea dovedi imposibil.

"Acest algoritm nu a fost proiectat în mod deliberat în sine pentru a fi imposibil să reporniți sau să dezactivați, dar este co-evoluat pentru a fi așa ", a declarat Stuart Armstrong, cercetător la Institutul Viitorului Umanității, de la Pirate Summit 2016, miercuri. Aceasta înseamnă că o schimbare cu rezultate inadvertente ar putea fi greu de rectificat și poate că nu este prima A.I. să se găsească în această situație.

Soluția lui Isaac Asimov a fost cele trei legi ale roboticii, care codifică greu ideile ca să nu dăuneze oamenilor. Problema este că răul este destul de subiectiv și deschis la interpretare. Oamenii lucrează mai mult la valori, cum ar fi înțelegerea faptului că este rău să provocați rău și să interpretați situația, decât să lucrați la o regulă greșită pe care nu ar trebui să o facă niciodată rău.

"Din cauza acestei probleme, oamenii sunt mult mai interesați acum să folosească învățarea automată pentru a obține valori, decât să încerce să le codifice în acest mod tradițional", a spus Armstrong. "Valorile sunt stabile într-un mod în care alte lucruri nu sunt în A.I. Valorile se apără intrinsec."

Dar chiar și în aceste situații, este important să proiectăm A.I. pentru a le face întreruptibile în timp ce rulează. Interuptibilitatea sigură permite schimbări de politică sigure, care pot evita consecințele nedorite din valorile învățate. Dacă HAL 9000 a încercat vreodată să oprească deschiderea ușilor din docul de la pod, este important să identificăm faptul că valorile AI sunt încurcate și să intervină fără a lua sistemul offline.

$config[ads_kvadrat] not found