Imaginile Pixelated nu corespund recunoașterii facială a Cornell Tech A.I.

$config[ads_kvadrat] not found

Sexul și Calea Spirituală

Sexul și Calea Spirituală
Anonim

Trei cercetători de la Cornell Tech din New York City au descoperit că imaginile încețoșate și pixelizate nu se potrivesc inteligenței artificiale. Deși imaginile ascunse rămân incomprehensibile ochilor umani și par să le protejeze conținutul sensibil, rețelele neuronale pot spune adesea cine este cine în imaginea originală.

Cu alte cuvinte, oamenii nu mai sunt testul lacrimogen. Nu mai putem cere doar dacă ceva învinge toate creierul uman. A.I. - chiar simple A.I.s - pot depăși pe oameni, astfel încât și înfrângerea lor trebuie să fie întotdeauna o parte a ecuației.

Studiul cercetătorilor Cornell Tech sa axat pe testarea algoritmilor de conservare a confidențialității, care încețoșează sau pixelizează anumite informații sau părți ale imaginilor. Anterior, am avut încredere în software-ul sau algoritmii de conservare a confidențialității implicit, imaginându-ne că informațiile pe care le-au ascuns erau sigure pentru că nu uman ar putea spune cine era în spatele vălului digital. Studiul arată că acea epocă se termină, iar metodele de anonimizare aferente nu vor dura prea mult. Rețelele neuronale, care se confruntă cu aceste măsuri de confidențialitate, nu sunt dezamăgite.

Richard McPherson este doctor. candidat la informatică la Universitatea din Texas, Austin, care la urmat pe profesorul său, Vitaly Shmatikov, la Cornell Tech. Împreună, împreună cu Reza Shokri, au demonstrat că rețelele neuronale simple ar putea dezmembra tehnicile obfuscării obișnuite ale imaginii. Tehnica este relativ nesofisticată, ceea ce face ca descoperirea să fie mai îngrijorătoare: acestea sunt metode comune și accesibile și au reușit să învingă normele din industrie pentru obfuscări.

Rețelele neuronale sunt structuri mari, structurate de noduri sau neuroni artificiali, care imită structura de bază a creierului. Ele se bazeaza pe o intelegere simplificata a modului in care functioneaza neuronii, spune McPherson Invers. "Dați-i o contribuție, iar neuronul fie se declanșează, fie nu se declanșează".

De asemenea, sunt capabili să "învețe", printr-o definire dură a termenului. Dacă arătați un om feral (complet needucat) ceva "roșu" și spuneți-i să aleagă toate lucrurile "roșii" dintr-o găleată, vor lupta la început, dar se vor îmbunătăți în timp. Deci și cu rețele neuronale. Învățarea în mașină înseamnă doar a învăța un calculator pentru a alege lucrurile "roșii", de exemplu, dintr-o găleată virtuală de lucruri variate.

Astfel McPherson și compania și-au pregătit rețeaua neuronală. "În sistemul nostru, creăm un model - o arhitectură a rețelelor neuronale, un set structurat al acestor neuroni artificiali - și apoi le oferim o mare cantitate de imagini obfuscate", spune el. "De exemplu, le-am putea oferi o sută de poze diferite ale lui Carol care au fost pixelate, apoi o sută de poze diferite ale lui Bob care au fost pixelate".

Cercetatorii apoi eticheta aceste imagini pixelat, și, astfel, spune modelul care este în fiecare imagine. Dupa procesarea acestui set de date, reteaua functioneaza cu adevarat ceea ce arata Bob Pixel si Pixellated Carol. "Apoi putem da o imagine diferită pixelată a lui Bob sau Carol, fără etichetă", explică McPherson, "și poate face o presupunere și poate spune:" Cred că acesta este Bob cu o precizie de 95% ".

Modelul nu reconstruiește imaginea obfuscată, însă faptul că este capabil să învingă cele mai frecvente și mai vechi metode de anonimizare este deconcertant și în sine. "Ei sunt capabili sa-si dea seama ce este obosit, dar ei nu stiu cum arata initial", spune McPherson.

Dar rețelele neuronale sunt încă capabile să facă atât de mult mai bine decât oamenii. Atunci când imaginile au fost cele mai obfuscate folosind o tehnică standard, industria a fost încă peste 50 la sută exactă. Pentru imagini puțin mai obosite, sistemul sa dovedit remarcabil, cu precizie de aproximativ 70%. Norma YouTube privind neclaritatea fețelor a eșuat complet; chiar și cele mai neclarite imagini au fost împiedicate de rețeaua neurală, care au dovedit 96 de procente corecte.

Alte tehnici de anonimizare a datelor, textului și anonimizării imaginilor nu sunt la fel de fiabile. "În timpul verii, a fost o lucrare care se referea la textul anonimat, folosind pixelizarea și neclaritatea, și a arătat că au putut fi rupte, de asemenea", spune McPherson. Și alte metode demne de încredere pot fi și ele la ieșire. Deși nu cunoaște tehnicile de obfuscare a vocii, cum ar fi cele folosite pentru interviurile TV anonime, el "nu ar fi surprins" dacă rețelele neuronale ar putea rupe anonimizarea.

Descoperirea lui McPherson demonstrează apoi că "metodele de conservare a confidențialității pe care le-am avut în trecut nu sunt cu adevărat susceptibile de a se împrăștia, mai ales cu ajutorul tehnicilor moderne de învățare a mașinilor". Cu alte cuvinte, ne codificăm în mașini de antrenament irelevante ne depășesc în toate domeniile.

"Pe masura ce puterea de invatare a masinilor creste, acest compromis se va schimba in favoarea adversarilor", au scris cercetatorii.

$config[ads_kvadrat] not found