Armele autonome spun "nu" comenzilor ilegale?

$config[ads_kvadrat] not found

SCP-4730 Pământ, Răstignit | obiect clasa keter | extradimensional

SCP-4730 Pământ, Răstignit | obiect clasa keter | extradimensional
Anonim

Baynazar Mohammad Nazar a fost inconștient pe masa de operație când plafonul a început să se prăbușească asupra lui. Tatăl a patru a verificat spitalul în ziua precedentă după ce a fost împușcat în picior și a fost supus celei de-a doua operațiuni în două zile pentru a-și repara rănile. Când americanii au început să distrugă clădirea, medicii care lucrau la el nu aveau de ales decât să scape pe cont propriu cât mai repede posibil.

Andrew Quilty la Politica externa povestește povestea vieții și a morții lui Baynazar într-un articol care include o fotografie a corpului său acoperită cu resturi de pe masa de operație. Baynazar a fost unul dintre cei 31 de persoane pe care Statele Unite le-au ucis când a lovit spitalul condus de Doctors Without Frontiere (numit și MSF) în Kunduz, Afganistan, pe 2 octombrie.

După grevele de mare anvergură, civili-victime, politicienii și experții se întreabă cum s-ar putea întâmpla un astfel de lucru și ce se poate face pentru a se asigura că nu se va întâmpla din nou. Printre susținătorii sistemelor de arme autonome, uneori numiți "roboți ucigași", un argument popular este că eroarea umană (sau răutatea) este responsabilă pentru un mare număr de crime comise în timpul războiului. Este teoretic posibil, spun ei, că roboții ar putea fi mai precisi în direcționarea lor și mai puțin predispuși la greșeli decât oamenii.

"De fapt, judecata umană se poate dovedi mai puțin sigură decât indicatorii tehnici în căldura bătăliei", scrie Michael N. Schmitt, profesor la Colegiul de Război Naval al SUA. "Cei care cred altfel nu au experimentat ceață de război".

SUA a lovit aerul pe spitalul MSF din Afganistan "cauzat în principal de eroarea umană" http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 25 noiembrie 2015

Întrebarea este atunci: puteți programa instrumentele de război pentru a restrânge comportamentul uman pentru a face imposibilă grevele, cum ar fi bombardarea spitalului Kunduz, sau cel puțin puțin probabil?

Probabil nu - cel puțin pentru viitorul apropiat. Dar unii programatori de inteligență artificială au creat un robot care poate spune nu oamenilor. Proiectarea experimentului este simplă: omul îi spune unui robot să meargă înainte de o masă pe care robotul refuză inițial să o facă. Când omul îi spune robotului că o va prinde, robotul acceptă ordinul.

Ajunge mult de la un elicopter de atac semi-autonom, spunându-i echipajului său uman că nu poate efectua o bombardare împotriva spitalului, deoarece ar fi o crimă de război, însă premisa care sta la baza este în mare parte aceeași. După cum au subliniat și alții, anxietatea umană în legătură cu acest tip de dezvoltare în roboți este obișnuită în știința ficțiunii - gândiți-vă că HAL-9000 spune "Nu pot face asta, Dave" când îl blochează pe omul din afara stației spațiale în 2001: O Odisee Spațială.

În ceea ce privește specificul grevei Kunduz, multe dintre faptele din jurul atacului rămân disputate. MSF a cerut o anchetă independentă, pe care guvernul Statelor Unite se opune, în schimb promisiunea de a-și face propriile recenzii.

Unele părți dintr-o investigație din S.U.A. au fost făcute publice la începutul acestei luni și au descoperit erori umane și mecanice responsabile pentru grevă. Dar, la începutul acestei săptămâni, doi membri ai serviciului au venit să contrazică concluziile raportului. Ei spun că greva nu a fost o greșeală. În contabilitatea lor, raportate mai întâi de către AP, Forțele americane de operațiuni speciale au cerut greva deoarece, deși spitalul era folosit ca un centru de comandă și de control al talibanilor.

În versiunea oficială, o defecțiune mecanică a determinat echipajul gunshipului AC-130 să primească inițial coordonatele pentru un câmp gol. Echipajul a căutat apoi o clădire în zonă care să corespundă descrierii fizice pe care au primit-o și a deschis focul. Când instrumentele lor au fost recalibrate, au dat echipajului coordonatele corecte pentru ținta lor, dar echipajul a continuat să tragă în spital oricum.

Dacă acest cont este adevărat - că calculatorul a fost în cele din urmă exacte și oamenii l-au ignorat - dă dovadă de credință suporterilor unei mai mari autonomii în sistemele de arme. Acestea fiind spuse, războiul american împotriva terorismului este plin de exemple ale armatei sau ale CIA care lovește ținta "corectă" și care totuși a condus la uciderea unui număr mare de civili. Automatizarea nu va rezolva inteligența proastă și încercările de a programa o aproximare a moralității nu vor pune capăt crimelor de război.

Există o tentație puternică în Statele Unite de a steriliza războiul și automatizarea, prin eliminarea americanilor de pe urma răului, care este destinată să schimbe însăși definiția războiului. Obama preferința de a ucide drone și asigurările însoțitoare că drones sunt cele mai precise arme create vreodată sunt cea mai clară manifestare a acestor obiective. "Acestea au fost greve precise, de precizie împotriva al-Qaeda și afiliații lor", a spus Obama într-un hangout Google 2012.

Totuși, un studiu al guvernului din 2013 contrazice aceste afirmații. A constatat că dronii din Afganistan au provocat de 10 ori mai multe decese civile decât vehiculele fără pilot. "Dronii nu sunt mai buni magicieni pentru evitarea civililor decât jetoanele de luptă", a declarat Sarah Holewinski, co-autor al studiului, pentru Gardianul. "Atunci când piloții care zboară cu jeturi au primit direcții clare și instruire în domeniul protecției civile, au reușit să reducă rata victimelor civile".

Militarii cheltuiesc milioane pentru dezvoltarea sistemelor de echipare a robotilor umani, diminuând în continuare liniile dintre misiunile efectuate de armatele cu echipaj sau fără pilot. "Ceea ce vrem să facem în echiparea de luptă om-mașină este să o ducem la nivelul următor, să ne uităm la lucruri precum tactici rotative", a declarat secretarul adjunct al Apărării, Bob Work, blogul oficial al DoD. "Poate un F-35 să intre în luptă cu patru aripi fără pilot?"

Vor fi acei amețitori care nu spun dacă pilotul uman îi dă o ordine asemănătoare cu a merge pe o masă? Dar un ordin de a distruge un spital sau o școală? Ceata de razboi se va aplica in ambele cazuri. Și dacă vom decide să ignorăm mașinile, expresia "eroare umană" va fi unul dintre termenii mai înfricoșătoare în conflictele viitorului.

$config[ads_kvadrat] not found