Human Rights Watch: China folosește date mari pentru grupurile minoritare vizate

$config[ads_kvadrat] not found

China’s Global Threat to Human Rights

China’s Global Threat to Human Rights
Anonim

Guvernul chinez folosește algoritmi predictivi de poliție pentru a viza minoritățile etnice din provincia Xinjiang, potrivit unui raport al Human Rights Watch publicat luni.

Provincia din nord-vestul Chinei găzduiește 11 milioane de uiguri, un grup etnic musulman turc care a fost discriminat de guvernul chinez în ultimii ani.

Acum, autoritățile folosesc date importante pentru a viza în mod sistematic orice persoană suspectată de lipsă de loialitate politică. Push-ul face parte din campania "Strike Hard", care are ca scop anularea potențialei activități teroriste în China. În practică, acest lucru a dus la o politică disproporționată a uigurilor, spune Human Rights Watch.

Sistemul de poliție predictivă, cunoscut sub numele de IJOP - Platformă comună de operațiuni integrate - este alimentat de date dintr-o varietate de instrumente de supraveghere diferite. Acestea includ camerele CCTV, plăcuțele de înmatriculare și numerele cărților de identitate ale cetățenilor obținute de la punctele de control de securitate, precum și un număr de informații personale, inclusiv documentele de sănătate, bancare și juridice.

Pe lângă supravegherea automatizată, oficialii guvernamentali efectuează vizite la domiciliu pentru a colecta date despre populație. Un om de afaceri chinez a împărțit un formular pe care la completat pentru înregistrările IJOP cu Human Rights Watch - între altele, chestionarul a întrebat dacă omul de afaceri a fost Uyghur, cât de des se roagă și unde merge pentru servicii religioase.

Toate aceste intrări de date sunt utilizate de IJOP pentru a atrage atenția oamenilor asupra potențialelor amenințări. Când cineva este semnalat, poliția deschide o investigație suplimentară și o ia în custodie dacă este considerată suspicioasă.

"Pentru prima dată, suntem capabili să demonstrăm că folosirea de către guvernul chinez a datelor importante și a politicii de predicție nu numai că încalcă în mod flagrant drepturile de confidențialitate, ci și permite oficialilor să rețină în mod arbitrar persoane", a declarat Maya Wang, cercetător la China Human Rights Watch.

Potrivit raportului, unii dintre cei semnalați au fost expediați în centrele de educație politică, unde sunt deținuți pe termen nelimitat fără proces.

"Începând cu aprilie 2016, estimările Human Rights Watch, autoritățile din Xinjiang au trimis zeci de mii de uiguri și alte minorități etnice la" centre de educație politică ", se arată în raport. IJOP acordă credibilitate acestor detenții, aplicând o furcă de analiză obiectivă și algoritmică a arestărilor discriminatorii.

Pentru a face lucrurile mai rău, lucrările interioare ale IJOP sunt învăluite în secret.

"Oamenii din Xinjiang nu pot rezista sau provoca scrutinul din ce în ce mai intruziv al vieții lor de zi cu zi, deoarece majoritatea nu știu nici măcar despre acest program" cutie neagră "sau cum funcționează", a spus Wang.

Aceeași problemă este cea care afectează cele mai sofisticate sisteme de învățare a mașinilor: procedurile de decizie pe care le folosesc sunt opace chiar și pentru creatorii algoritmului.

Utilizarea Chinei a IJOP merită atenție, deoarece poliția predictivă este probabil să se prolifereze pe măsura îmbunătățirii tehnologiei. Așa cum a subliniat Jon Christian Conturul, sistemele de poliție predictivă sunt deja utilizate în unele locuri în Statele Unite. Departamentul de Poliție din Los Angeles folosește software care anticipează unde și când se pot întâmpla crime, astfel încât ofițerii să-i poată da capul.

Pe de cealaltă parte a sistemului de justiție penală, în sălile de judecată uneori se folosesc algoritmi care oferă parolelor "scorurilor de evaluare a riscurilor" pentru a ajuta judecătorii să ia decizii mai informate. Din păcate, acești presupuși algoritmi imparțiali diferă de fapt pe baza rasei.

Încărcarea Chinei în poliția predictivă subliniază importanța implementării algoritmului responsabil, deoarece învățarea în mașină continuă să intre în sectorul public. Poate că este timpul pentru ca guvernele de înaltă tehnologie să adopte o nouă mantra: uneori, inteligența artificială creează mai multe probleme decât rezolvă.

$config[ads_kvadrat] not found