Elon Musk, Stephen Hawking Warn of Killer Robot Wars
De-a lungul deceniilor, AK-47 a fost mașina de ucidere la alegere în multe colțuri prăfuite ale lumii, deoarece este ieftină, durabilă și omniprezentă. Aceiași factori, argumentează semnatarii unei scrisori deschise, lansate luni de la Institutul Viitor al Vieții, sunt motivul pentru care armele autonome sunt pline de pericol. Dar ceea ce separă armamentul de inteligență artificială de la Kalașnikov este acela că mașina autonomă "poate selecta și angaja ținte fără intervenție umană" - care, în mâinile greșite, putea să comită atrocități mult mai mari decât orice pușcă necalculabilă.
Semnatarii au lucrat pentru ei. Ca oameni, suntem, în ansamblu, mult mai bine să reacționăm decât să gândim. Actorii majori au redus lent armele nucleare (și construirea de drone autonome, gândirea merge, ar necesita o fracțiune din mecanismul care duce la crearea unui nucleu); în altă parte, minele de teren încă dotă câmpuri de luptă vechi de zeci de ani. Atunci când o tehnologie a stat să revoluționeze războiul - fie că este vorba de praf de pușcă sau de navale sau de uraniu îmbogățit - nu a existat aproape niciodată nu a fost o cursă înarmărilor.
FLI face o distincție între dronele pe care le avem acum, pilotate de la distanță de mâinile omenești, și un robot pornit și lăsat la propriile dispozitive criminale. Crearea acestuia din urmă ar provoca o cursă globală de înarmări AI pe care FLI o susține și, după cum demonstrează istoria demonstranților Kalașnikov, nu s-ar termina bine:
Va fi doar o chestiune de timp până când vor apărea pe piața neagră și în mâinile teroriștilor, dictatorii care doresc să-și controleze mai bine populația, războinicii care doresc să efectueze curățirea etnică etc. Armele autonome sunt ideale pentru sarcini precum asasinatele, destabilizarea națiuni, supunerea populațiilor și uciderea selectivă a unui anumit grup etnic. Prin urmare, credem că o cursă de arme militare AI nu ar fi benefică pentru omenire. Există multe moduri în care AI poate face ca câmpurile de luptă să fie mai sigure pentru oameni, în special pentru civili, fără a crea noi instrumente pentru uciderea oamenilor.
Sunt niște rahaturi grele. Iar numele din spatele acestui avertisment nu sunt crackpots-ul tău Skynet - sunt creatori, ingineri, oameni de știință și filosofi care au ajutat la modelarea tehnologiei noastre de astăzi. Un fel de nume include: Steve Wozniak de la Apple, Jaan Tallinn de la Skype, fizicianul de la Harvard Lisa Randall, care este cel al cercetătorilor și robotiștilor AI - printre care Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - actrița Talulah Riley, Noam Chomsky, Stephen Hawking.
În ultimul timp, Hawking a avut un pic de îndoială pesimist, reiterând, de asemenea, previziunile sale despre pericolele întâmpinării vieții extraterestre. De asemenea, el va răspunde la întrebări despre această scrisoare și despre viitorul tehnologiei pe Reddit săptămâna aceasta - s-ar putea să nu putem controla străinii ostili, dar putem pune "onusul asupra oamenilor de știință în fruntea acestei tehnologii pentru a menține factorul uman fata si centrul inovatiilor lor."
Puteți adăuga și numele dvs. la litera.
Tesla: Cum a ajutat "Modul de apărare a armelor" în California Wildfire
Modul de apărare Bioweapon al lui Tesla îi ajută pe proprietarii de mașini electrice din incendiile din California. Sistemul de filtrare a aerului din modelele S și X le-a permis utilizatorilor să respire curat, deoarece particulele umple atmosfera din jur. Proprietarii Tesla care folosesc modul de apărare raportează rezultate bune.
Lipsa restricțiilor Quadcopter ar putea începe să distrugă cursa civilă a armelor UAV
Tehnologia din spatele drone-ului contra-drone decolează cu seriozitate, după cum a demonstrat poliția japoneză la începutul lunii decembrie. Sistemul testat în Tokyo este destul de simplu - o dronă mare se învârte pe o platformă mai mică, înțepenindu-și prada într-o plasă dreptunghiulară. Este ca o viziune de desene animate a unui lanț alimentar oceanic, a acționat ...
Ascultați testele Armelor nucleare din Coreea de Nord
Coreea de Nord a efectuat cel de-al patrulea test de arme nucleare pe 6 ianuarie, dând naștere unei alarme internaționale, după ce conducerea țării a declarat că a detonat o bombă cu hidrogen - un dispozitiv capabil să producă mult mai multe haosuri decît orice declanșat în războiul modern. Râfâitul blaring generat de explozie a fost ca ...