A.I. Institutul de Cercetări arată cum să creați algoritmi responsabili

$config[ads_kvadrat] not found

AI: Training Data & Bias

AI: Training Data & Bias
Anonim

Institutul de Cercetare AI a publicat miercuri recomandări noi pentru implementarea responsabilă a algoritmilor în sfera publică.Sfatul lor este îndreptat către o echipă de lucru formată de Consiliul orașului New York în ianuarie, care studiază utilizarea guvernamentală a inteligenței artificiale.

Raportul AI Now, Evaluări ale impactului algoritmic: către automatizarea responsabilă a agențiilor publice, subliniază necesitatea de transparență în ceea ce privește implementarea algoritmilor. Algoritmii au un impact enorm asupra vieții noastre de zi cu zi, dar impactul lor trece uneori neobservat. Deoarece acestea sunt coapte în infrastructura platformelor media sociale și video, de exemplu, este ușor de uitat că programele deseori determină ce conținut este împins către utilizatorii de internet. Doar atunci când se întâmplă ceva, cum ar fi un film despre teoria conspirației care ajunge în partea de sus a listei de tendințe YouTube, vom examina procedurile automate de decizie care modelează experiențele online.

Și algoritmii nu se limitează la platformele de internet. Instituțiile guvernamentale au devenit din ce în ce mai dependente de algoritmi, în domenii variind de la educație la justiție penală. Într-o lume ideală, algoritmii ar elimina părtinirea umană de la decizii dure, cum ar fi determinarea dacă un deținut ar trebui sau nu să primească parole. În practică însă, algoritmii sunt la fel de eficienți ca și cei care le fac.

De exemplu, o investigație de către ProPublica a demonstrat că algoritmii de evaluare a riscurilor folosiți în sălile de judecată au fost părtinitori rasiali. Pentru a face lucrurile să se înrăutățească, mulți dintre algoritmii utilizați în sectorul public sunt deținute în proprietate privată, iar unele companii refuză să împartă codul care stă la baza software-ului lor. Acest lucru face imposibilă înțelegerea de ce acești așa-numiți algoritmi "cutie neagră" returnează anumite rezultate.

O soluție potențială oferită de AI Acum? Evaluări de impact algoritmic. Aceste evaluări stabilesc o normă de transparență completă, ceea ce înseamnă că agențiile guvernamentale care folosesc algoritmi ar trebui să publice când și cum le folosesc. "Această cerință însăși ar duce mult spre a arăta lumina asupra tehnologiilor care sunt folosite pentru a servi publicul și unde ar trebui să se concentreze cercetarea în materie de responsabilitate", se arată în raport.

O politică de deschidere în jurul algoritmilor ar deschide, de asemenea, ușa cetățenilor pentru a examina și a protesta împotriva utilizării lor. Vrei un algoritm care să-ți dea un scor de evaluare a riscului, bazat pe factori care nu te controlează, mai ales când scorul ar putea determina dacă te duci în închisoare? Poate ca da poate ca nu. Oricum, este important să știm exact ce variabile sunt analizate prin algoritm.

În plus, AI acum recomandă stabilirea unui standard legal pentru ca oamenii să facă lobby împotriva algoritmilor incorecți.

De exemplu, în cazul în care o agenție nu dezvăluie sistemele care se încadrează în mod rezonabil în domeniul decizional automatizat sau dacă permite vânzătorilor să facă reclamații secrete comerciale și, prin urmare, blochează accesul sistemic semnificativ, publicul ar trebui să aibă șansa de a se un organism de supraveghere a agențiilor sau direct în instanță dacă agenția a refuzat să remedieze aceste probleme după perioada de comentarii publică.

Recomandările, în esență, se aruncă spre un singur mandat: dacă utilizați algoritmi, nu fiți umbroși în privința asta.

Citiți întregul raport aici.

$config[ads_kvadrat] not found