A.I. Politica este stinsă în trecut

$config[ads_kvadrat] not found

Social-liberalismo e pós-política: armadilhas da burguesia

Social-liberalismo e pós-política: armadilhas da burguesia
Anonim

Ed Felten, adjunctul șef al departamentului tehnologic din cadrul Departamentului pentru Știință și Tehnologie al Casei Albe, spune că oamenii au două responsabilități majore atunci când vine vorba de dezvoltarea și dezvoltarea inteligenței artificiale.

Primul, spune el, este "a face beneficiile lui A.I. o realitate ". Al doilea:" să abordeze riscurile AI"

Felten vorbea într-o cameră plină de oameni de la Centrul de Skirball al Universității din New York University for Arts Performing at A.I. Acum - o serie de conferințe de vară, co-sponsorizată de Casa Albă, care urmărea să examineze și să discute aspecte cheie legate de viitorul AI. tehnologie.

A.I. este la o răscruce de drum, A.I. Acum co-președintele Kate Crawford (cercetător la Microsoft Research) și Meredith Whittaker (fondatorul și liderul companiei Google Open Research), a subliniat. Sectoarele privat și public trebuie să colaboreze pentru a crea un fel de posibilități A.I. politică. Dar problema este că, în timp ce companiile de tehnologie fac pași imense spre avansarea codului real și a arhitecturii care merge în a face A.I. o forță atotputernică, structurile noastre actuale de politică sunt depășite sau, mai rău, inexistente.

Pentru prea mult timp, A.I. a fost aruncat deoparte ca un concept futurist, inaplicabil pentru epoca modernă. Dar A.I. sa manifestat în liniște în politicile urbane, explorând o mulțime de date și furnizând servicii oamenilor într-un mod în care simpla putere umană este incapabilă să realizeze vreodată. Felten a citat exemple în modul în care algoritmii pot folosi datele pentru a lega oamenii de locuințe accesibile sau pentru a impune transparență, astfel încât publicul să aibă acces la informații valoroase.

Asta nu înseamnă că A.I. este perfect; este foarte mult nu. În timpul panoului principal pentru seara, Latanya Sweeney, un A.I. cercetător la Universitatea Harvard, a discutat despre o poveste pe care a numit-o "Ziua mea, calculatorul meu a fost rasist".

Un reporter care a intervievat-o pe Sweeney și-a căutat numele prin Google și a descoperit că numele ei apare sub anunțuri pentru site-urile care oferă să colecteze și să partajeze date de arest criminal. Sweeney nu a fost arestată niciodată, iar numele ei nu face parte din baza de date a site-ului - totuși numele ei a fost împrăștiat în reclama. La fel ca orice om de știință bun, Sweeney și-a luat propria experiență personală și a condus un studiu și a constatat că aceste anunțuri aveau mult mai multe șanse să enumere numele indivizilor negri decât indivizii albi. Motivul? Furnizarea de către Google a acestor anunțuri este rezultatul unui algoritm care acordă o mai mare importanță pentru ceea ce au făcut clic utilizatorii când au apărut anunțuri. Atunci când un nume negru a fost introdus în Google, mai multe persoane au făcut clic pe aceste anunțuri. Sistemul a învățat modelul și a început să difuzeze aceste anunțuri cu o frecvență mai mare.

Este o lecție valoroasă pentru a fundamenta promisiunea lui A.I.: tehnologia umană în ultimă instanță, iar acțiunile rasiste din partea oamenilor pot afecta designul și algoritmii și, da, chiar și A.I.

Google ar putea detecta cu ușurință aceste prejudecăți în serviciile lor de anunțuri și să lucreze pentru a le corecta. "Ei nu au ales", a spus Sweeney.

Un cadru politic mai modern poate obliga Google să remedieze această problemă? Poate. Nicole Wong, care a fost predecesorul lui Felten din 2013 până în 2014, a subliniat că mulți oameni - inclusiv A.I. cercetătorii înșiși - au avut o îngrijorare reală în legătură cu o "asimetrie crescândă în putere" între persoanele care folosesc date mari și persoanele afectate în cele din urmă, care variază de la subiecții datelor sau cei afectați de deciziile luate în considerare de astfel de date.

Aceste preocupări nu se limitează doar la sectorul privat. Roy Austin, asistent adjunct al președintelui Consiliului de politică internă al Casei Albe, a atras atenția asupra modului în care puterea de aplicare a legii ar putea fi mult îmbunătățită de către A.I. - sau să creeze o masivă depășire a puterii și a abuzurilor în ceea ce privește intimitatea civililor. "Întrebarea devine:" Ce facem cu aceste date? ", A spus el. Este un lucru să ai date, dar cine are acces la el? Pentru cât timp? Cine va avea acces la ea? Din nou, nu avem răspunsuri politice sau soluții la aceste întrebări și incertitudini - și asta este deranjant pe măsură ce ne îndreptăm spre un viitor tot mai controlat de A.I.

Un al treilea pilon de îngrijorare a avut mai puțin de a face cu folosirea incorectă a lui A.I., și mai mult de a face cu modul în care A.I. și sistemele autonome îi îndepărtează pe oameni de locuri de muncă. Henry Siu, un A.I. cercetător la Universitatea din British Columbia, a discutat despre ocupațiile "de rutină" (în care angajații efectuează un set foarte specific de sarcini care aproape nu se abat de la o rutină stabilită) și cum aceste pierderi de locuri de muncă sunt cele mai vulnerabile la perturbațiile tehnologice. Automatizarea a creat o reducere a numărului de locuri de muncă în aceste locuri de muncă - și nu se mai întorc.

Sună ca aceeași poveste veche despre industrializare, dar nu este chiar așa. În timp ce "această revoluție ar putea fi deja aici … ea ar putea fi mai puțin exotică decât am imaginat", a avertizat David Edelman, asistent special al președintelui pentru politică economică și tehnologică. Pierderea locurilor de muncă "nu se va întâmpla odată". Atât el, cât și Siu au subliniat că soluția este de a crea un climat educațional în care oamenii nu se opresc la școală, dobândesc în permanență noi competențe și specializări care le permit să se adapteze cu tehnologie.

S-ar putea să fie convingător factorii de decizie politică să-și dea seama că Statele Unite nu sunt singuri în abordarea acestor probleme. Dar dacă America intenționează să continue să conducă calea spre A.I., trebuie să o intensifice în arena politică.

Mustafa Suleyman, cofondatorul Google DeepMind, a discutat despre potențialul pentru A.I. să ajute sistemele de asistență medicală și să permită medicilor să utilizeze algoritmi de mașini pentru a diagnostica anumite boli și boli - eliberând timp pentru ca oamenii să vină cu metode de tratament. Pentru Suleyman, care este britanic, nu părea o idee prelungită de a obține un sistem cum ar fi acest sistem în spitale. Sweeney a subliniat totuși că "în S.U.A., nu aveți control asupra propriilor date" - nu există măsuri de reglementare care să garanteze că informațiile nu sunt abuzate. Și asta e a imens problemă.

"Vreau tot ce pot strica din orice succes al tehnologiei", a spus Sweeney. "Problema nu este partea tehnologică; problema este că nu mai avem de-a face cu politica publică ".

$config[ads_kvadrat] not found