Musk, Wozniak, Hawking, alte genii se opun armelor autonome

$config[ads_kvadrat] not found

Elon Musk, Stephen Hawking Warn of Killer Robot Wars

Elon Musk, Stephen Hawking Warn of Killer Robot Wars
Anonim

De-a lungul deceniilor, AK-47 a fost mașina de ucidere la alegere în multe colțuri prăfuite ale lumii, deoarece este ieftină, durabilă și omniprezentă. Aceiași factori, argumentează semnatarii unei scrisori deschise, lansate luni de la Institutul Viitor al Vieții, sunt motivul pentru care armele autonome sunt pline de pericol. Dar ceea ce separă armamentul de inteligență artificială de la Kalașnikov este acela că mașina autonomă "poate selecta și angaja ținte fără intervenție umană" - care, în mâinile greșite, putea să comită atrocități mult mai mari decât orice pușcă necalculabilă.

Semnatarii au lucrat pentru ei. Ca oameni, suntem, în ansamblu, mult mai bine să reacționăm decât să gândim. Actorii majori au redus lent armele nucleare (și construirea de drone autonome, gândirea merge, ar necesita o fracțiune din mecanismul care duce la crearea unui nucleu); în altă parte, minele de teren încă dotă câmpuri de luptă vechi de zeci de ani. Atunci când o tehnologie a stat să revoluționeze războiul - fie că este vorba de praf de pușcă sau de navale sau de uraniu îmbogățit - nu a existat aproape niciodată nu a fost o cursă înarmărilor.

FLI face o distincție între dronele pe care le avem acum, pilotate de la distanță de mâinile omenești, și un robot pornit și lăsat la propriile dispozitive criminale. Crearea acestuia din urmă ar provoca o cursă globală de înarmări AI pe care FLI o susține și, după cum demonstrează istoria demonstranților Kalașnikov, nu s-ar termina bine:

Va fi doar o chestiune de timp până când vor apărea pe piața neagră și în mâinile teroriștilor, dictatorii care doresc să-și controleze mai bine populația, războinicii care doresc să efectueze curățirea etnică etc. Armele autonome sunt ideale pentru sarcini precum asasinatele, destabilizarea națiuni, supunerea populațiilor și uciderea selectivă a unui anumit grup etnic. Prin urmare, credem că o cursă de arme militare AI nu ar fi benefică pentru omenire. Există multe moduri în care AI poate face ca câmpurile de luptă să fie mai sigure pentru oameni, în special pentru civili, fără a crea noi instrumente pentru uciderea oamenilor.

Sunt niște rahaturi grele. Iar numele din spatele acestui avertisment nu sunt crackpots-ul tău Skynet - sunt creatori, ingineri, oameni de știință și filosofi care au ajutat la modelarea tehnologiei noastre de astăzi. Un fel de nume include: Steve Wozniak de la Apple, Jaan Tallinn de la Skype, fizicianul de la Harvard Lisa Randall, care este cel al cercetătorilor și robotiștilor AI - printre care Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - actrița Talulah Riley, Noam Chomsky, Stephen Hawking.

În ultimul timp, Hawking a avut un pic de îndoială pesimist, reiterând, de asemenea, previziunile sale despre pericolele întâmpinării vieții extraterestre. De asemenea, el va răspunde la întrebări despre această scrisoare și despre viitorul tehnologiei pe Reddit săptămâna aceasta - s-ar putea să nu putem controla străinii ostili, dar putem pune "onusul asupra oamenilor de știință în fruntea acestei tehnologii pentru a menține factorul uman fata si centrul inovatiilor lor."

Puteți adăuga și numele dvs. la litera.

$config[ads_kvadrat] not found