Sunt inginerii responsabili legal pentru robotii criminali?

$config[ads_kvadrat] not found

Liceeni din toată ţara şi-au pus roboţii la lucru la Oradea

Liceeni din toată ţara şi-au pus roboţii la lucru la Oradea
Anonim

Automatonii și androizii au sacrificat oameni fictivi, deoarece scriitorul ceh Karel Čapek a popularizat termenul de "robot" în piesa de teatru de ficțiune din 1920 Roboții universali Rossum. Čapek a explorat o problemă în centrul a numeroase dezbateri moderne: Cine este responsabil pentru un robot care ucide? Scriitorul ceh părea să dea degetul Rossum, inginerul său Frankenstein, dar realitatea legală este puțin mai complicată.

Schimbările tehnologice, dar intenția este totul.

Dacă un inginer creează o armată de bătăi de moarte cu scopul explicit de a se ocupa de moarte (gândiți-vă: hoardele lui Ultron), atunci el sau ea este responsabil pentru ceea ce se întâmplă atunci când devin puternici. În conformitate cu 18 Codul U. S. § 1111, uciderea este:

Omorârea ilegală a unei ființe umane cu răutate înainte. Orice crimă săvârșită prin otrăvire, în așteptare sau orice alt tip de ucidere intenționată, deliberată, răutăcioasă și premeditată … sau săvârșită dintr-un proiect premeditat în mod ilegal și rău intenționat pentru a produce moartea oricărei ființe umane, alta decât cea ucisă, este uciderea în gradul întâi.

"Orice alt tip" de moarte părăsește fereastra larg deschisă pentru roboții ucigași, care sunt un fel de otravă mecanică.

Chiar dacă ipoteticul bot-constructor care programează un periculos - deși nu expres ucigaș - mașină, există precedent că el ar fi responsabil pentru orice rezultate letale. Atunci când câinii de gardă atacă letalieri, jurații au găsit proprietarii câinilor vinovați de crimă. Și ce, dincolo de faptul că o metodă implică codurile de comandă și celelalte comenzi vorbite, este diferența dintre formarea unui robot și formarea unui câine?

Dacă roboții armați sunt mai deștepți decât un ciobanesc german - să zicem, un pistol complet autonom - Rossum nu este încă în afara cârligului. Grupuri precum Human Rights Watch prezic că "comandanții sau operatorii ar putea fi găsiți vinovați dacă au desfășurat în mod intenționat o armă complet autonomă pentru săvârșirea unei crime". Aceste grupuri - și organizațiile pentru drepturile omului în general - pot avea o viziune nerealistă asupra sistemului judiciar, dar unul dintre motivele convingătoare de a păstra telecomanda Predator Drones este de a vă asigura că atacurile provin de la "SUA Armata ", așa încât oamenii de știință militari nu își încheie vacanțele europene cu un tur plătit cu toate cheltuielile de la Haga.

Problema devine un pic mai murdar atunci când roboții asamblați pentru o sarcină fac un pivot sângeros. În povestea lui Čapek, Rossum și-a adunat roboții pentru muncă manuală, nu pentru omor. Dar sa întâmplat crima (nu verbul non-tranzitiv). Dacă Rossum urma să fie judecat într-un tribunal, lipsa de respectare a legii lui Asimov privind controlul calității - legile lui Asimov l-ar fi încurcat. Atunci când un produs defect ucide civilii, producătorul plătește, ceea ce prognoticiști spun că se va întâmpla cu Google în cazul în care mașina lor automată va încălca legea. Nu este nevoie să spunem că un număr de firme de tehnică au avocați care consideră expunerea lor la răspundere.

Faptul că roboții nu pot fi încărcați prezintă posibilitatea de a arunca mult sub autobuz. Întrebarea pe care cei mai buni minți legale încearcă să le răspundă? Cine ar trebui să se încurce în acele osii.

$config[ads_kvadrat] not found