Tehnologia de învãțare a utilajelor împotriva ISIS se va încurca cu lanțurile militare de comandă

$config[ads_kvadrat] not found

IMST Tehnologia Constructiilor de Masini

IMST Tehnologia Constructiilor de Masini
Anonim

Toți cei de pe internet au avut o mare parte de timp cu Tay, robotul Microsoft de Twitter, care a devenit un denier rasist de holocaust într-o chestiune de câteva ore (apoi sa întors și a făcut-o din nou). Compania a creat o clapetă de relații publice - un incident mai mult decât un dezastru - oferind în același timp publicului o lecție de obiect privind avantajele și dezavantajele învățării mașinilor: Automatizarea poate utiliza modelele cu efect fascinant la viteză, dar rezultatele vor fi previzibil greu de prezis.

Așa cum se întâmplă adesea, armata este un adoptor timpuriu al tehnologiei de automatizare. Acesta este - la un moment dat - conducând sarcina spre învățarea mașinilor și, de asemenea, încercând cu disperare să ținem pasul. Unul dintre principalele domenii de interes pentru Pentagon este robotii autonomi și modul în care aceștia vor colabora cu oamenii - de exemplu un robot de tip robot R2D2. Dar săptămâna aceasta, secretarul adjunct al Apărării, Robert Work, a subliniat o altă sarcină pentru A.I.: criza datelor cu sursă deschisă.

"Suntem absolut siguri că utilizarea mașinilor de învățare profundă ne va permite să înțelegem mai bine ISIL ca o rețea și o mai bună înțelegere a modului în care să-l țintim exact și să ducăm la înfrângerea sa", a declarat secretarul de lucru, potrivit Site-ul DoD. Potrivit acestui cont, Work, care vorbea la un eveniment organizat de Washington Post, a avut epifania în timp ce urmărea o companie de tehnologie din Silicon Valley, care a demonstrat "o mașină care a preluat date de pe Twitter, Instagram și multe alte surse publice pentru a arăta în iulie-iulie Malaysia Airlines Flight 17".

Companiile private și autoritățile de aplicare a legii încearcă să înțeleagă "datele mari" de mult timp. Dar armata are un avantaj: resurse. De asemenea, au acces la materiale clasificate.

Guvernul S.U.A. pare gata să parieze că algoritmii software pot sorta cantitatea masivă de date aflate acolo pentru a identifica obiectivele ISIS care altfel ar fi putut să le evite și să detecteze și să perturbe parcele înainte ca planificatorii să le poată realiza. Guvernul încearcă deja să studieze mediile sociale pentru a prezice dimensiunea protestelor online. Nu există nicio îndoială că învățarea automată va oferi analiștilor de inteligență puterea în creștere pentru a înțelege bogăția informațiilor disponibile din lume. Dar atunci când această inteligență devine baza pe care este luată o grevă letală, problemele etice devin mai complexe, chiar dacă par simplu.

Deși Work a spus rapid că Pentagonul nu ar "delega autoritatea letală unei mașini", care rămâne jocul final. Între timp, oamenii vor rămâne "în buclă", așa cum merge jargonul. Dar, deoarece oricine sa uitat la un iPhone pentru un raport meteorologic când stă lângă o fereastră știe, relațiile pe care le avem cu dispozitivele și software-ul nostru nu este simplu. Suntem problematici creduloși și ușor distrași de problemele legate de UI.

"Biasul automatizării", tendința oamenilor de a amâna mașinile, prezintă un pericol clar și din ce în ce mai prezent. Exemplul pentru a ilustra acest fenomen este atunci când telefonul îți spune să faci o călătorie de călătorie care știi că e greșită, dar o faci oricum, presupunând că telefonul trebuie să știe ceva ce nu ai. Aceasta este o problemă comună în contextele non-militare. Ceea ce pare să se apropie și de Pentagon, totuși, este rapoartele de amenințări compuse din inteligența artificială. Nu știm nimic despre eficacitatea potențială a acestui program, altul decât faptul că va fi greu pentru oameni să pună în aplicare.

Într-o lucrare din 2001 privind piloții studenților și profesioniștilor și tendința de automatizare, cercetătorii au descoperit că "în scenariile în care erau disponibile informații corecte pentru a verifica și a detecta anomaliile de automatizare, au fost înregistrate rate de eroare de aproximativ 55% în ambele populații". că adăugarea unui coechipier suplimentar nu a atenuat problema.

În mod similar, un studiu MIT din anul trecut a descoperit într-un mod îngrijorător faptul că jucătorii de jocuri pe calculator și jocurile video aveau o "tendință mai mare de a suprasolicita automatizarea". Asta ar putea însemna că, cu cât petrecem mai mult timp pe ecranele noastre, cu atât mai mult avem încredere în ceea ce vedem. Din nou, problema nu este cu sistemele pe care le folosim, ci cu felul în care le folosim. Vina nu este în stelele noastre, ci în noi înșine.

Datele mari rămân promițătoare. Învățarea în mașină rămâne promițătoare. Dar când mașinile sfătuiesc oamenii, rezultatele sunt previzibil de imprevizibile. Transformarea lui Tay într-un misoginist neo-nazist înseamnă că Twitter îi urăște pe evrei și pe femei? E greu de știut, dar destul de puțin probabil. Când nu înțelegem procesul prin modul în care intrările devin ieșiri, ne străduim să ne ocupăm de rezultate într-un mod rațional. Care pune Pentagonul într-o poziție interesantă. Oamenii care programează software-ul de învățare a mașinilor militare vor fi cei care vor comanda avioane? Nu funcționează lanțul de comandă, dar lanțurile de comandă se încurcă atunci când se implică tehnologia.

$config[ads_kvadrat] not found