Avansul rapid al lui A.I ar trebui să fie înspăimântător dacă plătiți atenția

$config[ads_kvadrat] not found

Atentionare - daunatori de toamna in culturile de cereale paioase!

Atentionare - daunatori de toamna in culturile de cereale paioase!
Anonim

Când vine vorba de identificarea amenințărilor existențiale provocate de inovațiile tehnologice, imaginația populară cheamă viziuni Terminator, Matricea, și Eu, Robot - dystopia condusă de stăpânii de robot care exploatează și extermizează oamenii masiv. În aceste futures speculative, o combinație de super-inteligență și intenții rele îi determină pe calculatoare să anihileze sau să înrobească rasa umană.

Cu toate acestea, un nou studiu sugerează că vor fi aplicațiile banale ale A.I. care va duce la urmări sociale grave în următorii câțiva ani. Raportul "Utilizarea răuvoitoare a inteligenței artificiale" - scris de 26 de cercetători și oameni de știință din universitățile de elită și grupurile de reflecție bazate pe tehnologie, subliniază modalitățile în care actualul A.I. tehnologiile ne amenință securitatea fizică, digitală și politică. Pentru a pune accentul pe studiul lor, grupul de cercetare sa uitat doar la tehnologia care există deja sau în mod plauzibil în următorii cinci ani.

Ce a găsit studiul: A.I. sistemele vor extinde probabil amenințările existente, vor introduce noi și vor schimba caracterul acestora. Teza din raport este că progresele tehnologice vor face mai multe greșeli mai ușoare și mai valoroase. Cercetatorii sustin ca imbunatatirile in A.I. va reduce cantitatea de resurse și expertiza necesare pentru a efectua anumite atacuri cibernetice, reducând în mod eficient obstacolele în calea criminalității:

Costurile atacurilor pot fi reduse prin utilizarea scalabilă a sistemelor AI pentru a îndeplini sarcinile care ar necesita, în mod obișnuit, forța de muncă, inteligența și expertiza umană. Un efect natural ar fi extinderea setului de actori care pot efectua anumite atacuri, rata la care pot efectua aceste atacuri și setul de ținte potențiale.

Raportul face patru recomandări:

1 - Factorii de decizie ar trebui să colaboreze îndeaproape cu cercetătorii tehnici pentru a investiga, preveni și atenua potențialele utilizări malitioase ale AI.

2 - Cercetătorii și inginerii în domeniul inteligenței artificiale ar trebui să ia în serios caracterul dual al muncii lor, permițând considerentelor greșite să influențeze prioritățile și normele de cercetare și să ajungă în mod proactiv la actorii relevanți atunci când aplicațiile dăunătoare sunt previzibile.

3 - Cele mai bune practici ar trebui identificate în domenii de cercetare cu metode mai mature pentru a aborda preocupările cu dublă utilizare, cum ar fi securitatea informatică și importate, după caz, în cazul AI.

4 - Încercați în mod activ să extindeți gama de părți interesate și experți în domenii implicate în discutarea acestor provocări

Cum A.I. pot face înșelătoriile actuale mai inteligente: de exemplu, atacurile de phishing cu sulițe, în care con artiștii reprezintă prietenul, membrul familiei sau colegul țintă, pentru a câștiga încredere și pentru a extrage informații și bani, sunt deja o amenințare. Dar astăzi, ele necesită cheltuieli semnificative de timp, energie și expertiză. Ca A.I. sistemele cresc în sofisticare, unele dintre activitățile necesare pentru un atac de phishing cu sulițe, cum ar fi colectarea de informații despre o țintă, pot fi automatizate. Un phisher ar putea apoi să investească semnificativ mai puțină energie în fiecare grift și să vizeze mai mulți oameni.

Și dacă înșelătorii încep să integreze A.I. în griful lor online, poate deveni imposibil să distingi realitatea de simulare. "Pe măsură ce AI se dezvoltă în continuare, băncile de convingeri pot convinge oamenii să se implice în dialoguri mai lungi și, eventual, să se muleze vizual ca o altă persoană într-un chat video", se spune în raport.

Am văzut deja consecințele videoclipului generat de mașină sub forma Deepfakes. Pe măsură ce aceste tehnologii devin mai accesibile și mai ușor de utilizat, cercetătorii se tem că actorii răi vor disemina fotografiile, videoclipurile și fișierele audio fabricate. Aceasta ar putea duce la campanii de defăimare cu succes, cu implicații politice.

Dincolo de tastatură: Iar potențialul malware nu este limitat la internet. Pe măsură ce ne îndreptăm spre adoptarea vehiculelor autonome, hackerii ar putea să folosească exemple contradictorii pentru a păcăli autoturismele în a-și mistifica împrejurimile. "O imagine a unui semn de oprire cu câțiva pixeli modificați în moduri specifice, pe care oamenii ar putea să le recunoască cu ușurință ca fiind încă o imagine a unui semn de oprire, ar putea fi totuși clasificată greșit ca altceva în întregime de un sistem AI", se spune în raport.

Alte amenințări includ cadrane autonome cu software integrat de recunoaștere facială pentru scopuri de țintire, atacuri coordonate DOS care imită comportamentul uman și campanii automatizate de dezinformare hiper-personalizate.

Raportul recomandă cercetătorilor să ia în considerare potențialele aplicații malware ale A.I. dezvoltând în același timp aceste tehnologii. Dacă nu se vor lua măsuri adecvate de apărare, atunci ar putea să avem deja tehnologia pentru a distruge omenirea, nu este nevoie de roboți ucigași.

$config[ads_kvadrat] not found