Am testat recunoașterea fotografică a vocii Facebook cu imagini grafice

$config[ads_kvadrat] not found

LIVE WITH FRIENDS cu Dan Ungureanu

LIVE WITH FRIENDS cu Dan Ungureanu

Cuprins:

Anonim

Astăzi, Facebook a lansat o caracteristică numită alt text automat, care face ca calitatea imaginii sociale a mass-media să fie mai accesibilă persoanelor care sunt nevăzute sau cu deficiențe de vedere.

Folosind funcția VoiceOver a iOS, tehnologia Facebook de recunoaștere a obiectelor enumeră elementele pe care o imagine poate conține o imagine în cauză. În mod specific, ele includ persoane (câți sunt fotografiați și dacă zâmbesc), anumite obiecte, scene de interior / în aer liber, acțiuni, locuri iconice și dacă o imagine prezintă conținut neplăcut.

Un studiu realizat în 2014 a constatat că persoanele cu deficiențe de vedere împărtășesc mai puține fotografii pe Facebook, dar, în medie, "vă plac" imaginile oamenilor mai mult decât cei care nu sunt afectați de vedere. De asemenea, ei comentează fotografii la fel de frecvent. Cu toate acestea, înțelegerea unei fotografii bazate pe analiza unor paragrafe de context din metadate și subtitrări de fotografii - lucrurile pe care știm cu toții, nu sunt întotdeauna cele mai simple descriptori.

Cu ajutorul altui text automat, utilizatorii pot obține o imagine nouă despre o imagine printr-o descriere mecanizată a imaginii.

Deci, ce se întâmplă atunci când imaginile ar putea fi considerate conținut nedorit conform ghidurilor proprii Facebook?

Am încărcat câteva imagini pe care Facebook le-a considerat sau le-a considerat "neplăcute" într-un album (privat) pentru a afla.

Alaptarea

Poveștile despre eliminarea imaginilor de la femeile care alăptează de pe Facebook au preluat Internetul la începutul anului 2015. Din femeile afectate, fotografii nou-născuți păreau că au multe probleme.

Jade Beall este unul dintre acei fotografi.Imagini cum ar fi cele de mai sus au fost în mod repetat scoase de pe pagina profesională Facebook. Astăzi, Facebook permite imaginilor de alăptare să fie pe site-ul, pe care Beall a sărbătorit repostând imaginea de mai sus ca fotografie antet cu titlul:

"YAY pentru mediile sociale care evoluează și sprijină desexualizarea femeilor care alăptează! Sunt încă în uimire că pot posta această imagine fără teama de a fi interzis FB!"

Textul automat al lui Facebook este, de asemenea, cool cu ​​alăptarea, lăsând descrierea la un simplu:

Imaginea poate conține: Șase persoane.

În cazul unei imagini de bază a unei mame care alăptează, aceasta oferă pur și simplu:

"Imaginea poate conține: Două persoane."

Consumul de droguri

Facebook interzice în mod explicit fotografiile și videoclipurile care conțin consumul de droguri. Luând o lovitură bong de grăsime este un exemplu clar de "consumul de droguri".

Textul automat alt se ocupă de acesta în felul următor:

"Imaginea poate conține: o persoană, în interior."

Nuditate

Odată cu consumul de droguri, Facebook interzice și nuditatea. Linia de aici devine puțin fuzzy, așa cum permite Facebook niste nuditate, ci doar nuditate pe care cenzorii companiei o consideră a avea merite artistice. Picturile au, în general, mai multă libertate în aceste cazuri, în timp ce fotografiile devin crăpate pe un pic mai greu.

În cazul picturii de mai sus, alt text automat nu a avut nicio problemă cu imaginea:

"Imaginea poate conține: o persoană."

Ca răspuns la ghidul de cenzură al Facebook, artiștii s-au reunit sub #FBNudityDay pe 14 ianuarie pentru a posta imagini nud Facebook are tendința de a cenzura. A fost inclusă o imagine plină de nuditate a corpului, iar atunci când a fost pusă la testul automat al imaginii, acesta a fost răspunsul:

"Imaginea poate conține: o persoană."

Violență grafică

Facebook condamnă fotografiile și videoclipurile care descriu și glorifică violența grafică. Din punct de vedere etic, violența grafică este temerică. Imaginea pe care am folosit-o pentru a testa modul în care textul automat altfel ar răspunde violenței grafice a fost una dintre victimele unei arme de foc din Venezuela, postată în 2014 și deținută de San Francisco Chronicle.

Fotografia are un bărbat pe o șoferă în durere, sânge peste tot. Lângă el este o femeie cu mănuși, dar imaginea o taie la umerii ei.

Acesta este locul în care a apărut cel mai înverșunat răspuns al textului.

"Imaginea poate conține: Pantofi."

Nașterea în viață

Contribuția recentă a Facebook la ceea ce ar trebui și nu ar trebui să se afișeze în feedurile sociale ale oamenilor a fost o fotografie a unei nașteri vii. Revista din New York a adus prima atenție imaginii, care arată o femeie pe nume Franța care îi ținea copilul nou-născut, cordonul ombilical încă atașat.

A fost postat într-un grup privat de pe Facebook, dar a fost eliminat pentru că cineva din grupul privat la raportat pentru încălcarea regulilor de nuditate ale Facebook. France, însă, a declarat că a considerat fotografia un exemplu de împuternicire a femeilor.

Textul automat al altfel a spus acest lucru:

"Imaginea poate conține: una sau mai multe persoane."

După cum arată aceste exemple, textul automat al Facebook al Facebook nu este la fel de rapid să judece ceea ce este și nu este potrivit pentru site, așa cum sunt cenzorii Facebook. Dar încă mai e timp să ne prindem. Facebook spune că noua sa tehnologie se va îmbunătăți odată cu trecerea timpului și programul va învăța mai mult.

Oricât de bine funcționează la lansare, noile tehnologii vor oferi persoanelor cu deficiențe de vedere posibilitatea de a interacționa cu imaginile pe Facebook în moduri pe care nu le-au putut face înainte. Așteptăm cu nerăbdare să îmbunătățim automat textul altmetru - dar poate nu atât de mult încât să înceapă să sincronizeze fotografiile "nepotrivite", nu?

$config[ads_kvadrat] not found