Apple iPhone X nu pot spune chip apartin chinez, rambursat dat

$config[ads_kvadrat] not found

Фишки iPhone, которые сделают вашу жизнь проще | Часть 1

Фишки iPhone, которые сделают вашу жизнь проще | Часть 1
Anonim

Săptămâna trecută, în Nanjing, un oraș important din estul Chinei, o femeie cu numele Yan a fost de două ori oferită o restituire de la Apple pentru iPhoneX defectuos, pe care colegul ei la deblocat folosind tehnologia de recunoaștere a feței. Ambele femei sunt chineze din punct de vedere etnic.

Yan a spus știrilor locale că prima dată când sa întâmplat acest lucru, ea a sunat linia telefonică de pe iPhone, însă ei nu au crezut-o. Nu a fost până când ea și colegul ei au mers la un magazin local Apple și au arătat personalului magazinului că i-au oferit o rambursare și a cumpărat un nou telefon, gândindu-se că poate fi vina o cameră defectuoasă.

Dar cel de-al doilea telefon avea aceeași problemă, sugerând că nu era o cameră defectă, așa cum sugerează lucrătorii magazinului, ci o problemă cu software-ul propriu-zis.

Acesta nu ar fi primul caz în care software-ul de recunoaștere a feței și AI din spatele lui au avut probleme în recunoașterea fețelor non-albe.

În 2015, Google Photos a etichetat accidental o fotografie a doi afro-americani ca gorile, în timp ce în 2009, computerele HP http://www.youtube.com/watch?v=t4DT3tQqgRM) au avut probleme în recunoașterea și urmărirea chipurilor negre, nici o problema cu fetele albe. In acelasi an, software-ul camerei Nikon a fost prins incalcind o fata asiatica.

Google Photos, te-ai futut. Prietenul meu nu este o gorilă. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29 iunie 2015

"Aceasta este o problemă fundamentală a datelor", a scris Kate Crawford, cercetător principal la Microsoft și co-președinte al Simpozionului pentru Societatea Albă a lui Obama, și A.I. "Algoritmii învață prin a fi hrăniți cu anumite imagini, adesea alese de ingineri, iar sistemul construiește un model al lumii pe baza acestor imagini. Dacă un sistem este instruit pe fotografii ale unor oameni care sunt covârșitor de albi, va avea un timp mai dificil de a recunoaște chipurile nealcoolice ".

Jacky Alcine, programatorul din Brooklyn, a cărui fotografie a fost eșuată de Google, a fost de acord. Din experiența sa, el a spus: "Acest lucru ar fi putut fi evitat cu o clasificare corectă și mai completă a oamenilor negri".

Dar rasismul care este codificat în AI, chiar dacă este neintenționat, are implicații care depășesc doar recunoașterea facială.

O investigație ProPublica în 2016 a constatat că criminalii negri au fost de două ori mai susceptibili de a fi din greșeală semnalate ca fiind susceptibile de a reînnoi crimele decât criminalii albi, în timp ce tendința tot mai mare de "poliție predictivă" folosește algoritmi pentru a prognoza criminalitatea și a direcționa resursele poliției în consecință.

Cu toate acestea, comunitățile minoritare au fost suprapuse din punct de vedere istoric, ceea ce a dus la posibilitatea ca "acest software riscă să perpetueze un ciclu deja vicios", spune Crawford.

Înapoi în Nanjing, China, Yan a primit oa doua restituire pe al doilea iPhoneX. Din rapoartele locale de știri, nu este clar dacă ea a cumpărat apoi oa treia.

Ceea ce era în joc, de data aceasta, poate că tocmai a fost un singur consumator. Dar cazul lui Yan a fost un exemplu al necesității continue a industriei tehnologiei de a proiecta cu diversitate și incluziune în minte.

$config[ads_kvadrat] not found