Studiu: Algoritmul care este "biased împotriva negrilor" în spatele predicțiilor de recidivă slabă a deținutului

$config[ads_kvadrat] not found

Curs 7 LP - Algoritmul lui Tseitin (Seria A)

Curs 7 LP - Algoritmul lui Tseitin (Seria A)
Anonim

Algoritmii sunt la fel de părtinitori ca și cei care le fac. O investigație de către ProPublica a descoperit că Northpointe, creatorii unui algoritm care încearcă să prezică probabilitatea unei persoane incarcerate de a comite o altă crimă, prevede că oamenii negri sunt mult mai susceptibili să comită o crimă după ce au ieșit decât cei albi.

Algoritmul creează un scor de "evaluare a riscului" pentru deținuți. Este folosit în toată țara pentru a ghida datele de eliberare a închisorii. După analizarea datelor pentru mai mult de 7.000 de persoane din Broward County, Florida, realitatea algoritmilor rasiste este clară: inculpații negri au fost aproape de două ori mai probabil decât inculpații albi pentru a obține o prezicere a comiterii unei alte crime.

Analiza controlată pentru variabile precum genul și fundalul criminal. Cu toate acestea, persoanele neagră au fost prezise ca fiind cu 77 la sută mai multe șanse să comită o crimă violentă în viitor și 45 la sută ar putea să comită orice crimă viitoare. De asemenea, este îngrijorătoare faptul că doar 20% din predicțiile lui Northpointe privind cine vor comite crime viitoare violente vor fi corecte.

Northpointe folosește 137 de întrebări pentru a judeca potențialul persoanelor care comit o crimă. Dupa rapoartele ProPublica, intrebarile evita sa ne intrebam despre cursa in curand. Unele dintre întrebări pot fi legate, totuși.

Exemplele de întrebări includ: "A fost unul dintre părinții dvs. trimis vreodată la închisoare sau la închisoare?" Și "cât de des ați ajuns în lupte în timpul școlii?" Există, de asemenea, da / nu întrebări, cum ar fi " pentru a fura. "Alți factori includ nivelurile de educație și dacă o persoană are sau nu o slujbă.

ProPublica a detaliat metodele exacte privind modul în care a accesat și a analizat datele din Northpointe într-un post explicativ, iar Northpointe a trimis o scrisoare către ProPublica prin care a declarat că societatea "nu este de acord că rezultatele analizei sau analiză, sunt corecte sau că reflectă cu exactitate rezultatele de la aplicarea modelului."

Rezultatele ProPublica, dacă nu incredibil de surprinzătoare, se referă. Evaluările de risc sunt utilizate pentru calcularea condițiilor de parolă și pentru stabilirea sumelor obligațiunilor; ele chiar fac obiectul unei condamnări penale în nouă state.

Tehnologia nu este soluția finală a tuturor problemelor, în special având în vedere că tehnologia este la fel de defectă ca și oamenii care o fac.

$config[ads_kvadrat] not found