Welcome to Facebook Horizon
Cinci giganți din industria tehnologică și-au unit forțele pentru a crea "Parteneriatul pentru inteligența artificială pentru a beneficia oamenii și societatea", un grup care dorește să efectueze cercetări în A.I. etica și modul în care tehnologia poate funcționa cel mai bine cu oamenii. Google, Facebook, Microsoft, IBM, DeepMind (o filială a Google) și Amazon s-au angajat într-un proiect care urmărește "să studieze și să formuleze cele mai bune practici în domeniul A.I. tehnologii, pentru a promova înțelegerea publicului de către A.I. și pentru a servi ca o platformă deschisă pentru discuții și angajamente cu privire la A.I. și influențele sale asupra oamenilor și societății ".
Deși pare că grupul ar putea cădea în câteva argumente fustă despre punctele mai fine ale software-ului obscur, parteneriatul are loc în centrul site-ului său o mantră care arată că înțelege posibilitățile incitante A.I. "Credem că tehnologiile de inteligență artificială promite o mare promisiune pentru creșterea calității vieții oamenilor și pot fi utilizate pentru a ajuta umanitatea să abordeze provocări globale importante cum ar fi schimbările climatice, alimentația, inegalitatea, sănătatea și educația".
Parteneriatul promite deschiderea dialogului privind A.I. etică, dar nu există nici o îndoială că un consorțiu de jucători mari le dă un anumit grad de putere asupra direcției conversației. Dincolo de închiderea startup-urilor, acest lucru ar putea avea impact asupra unor nume mari precum Tesla, care nu fac parte din grup, dar au un interes cheie în etica prin dezvoltarea software-ului autopilot.
Interesul pentru definirea unui cod de etică a încetinit încet, deoarece mai multe A.I. i se dau responsabilități pentru a face alegeri de viață sau de moarte. Cum ar trebui să acționeze, de exemplu, într-o situație de urgență un autoturism? Germania a subliniat legile de bază pe care le-ar aștepta să le urmeze vehiculele autonome, cum ar fi nu clasificarea oamenilor ca o modalitate de a acorda prioritate acțiunilor în caz de accident.
Seturi de reguli mai generale au venit de la organizații precum British Standards Institute (BSI). Aceste reguli, care acoperă terenul ca și cum nu proiectează roboți care pot răni oameni, au ca scop dezvoltarea unui cod universal. Parteneriatul promite că, asemenea codului BSI, va fi deschis dialogului extern, dar timpul va spune dacă acest lucru este suficient pentru a satisface și alți jucători mari ai lui A.I.
Cum ar putea umanitatea să manipuleze străinii ilegali într-o criză de refugiați galactici?
Având în vedere că NASA estimează că vom descoperi extratereștrii în următorii 20 de ani, este probabil o idee bună să ne pregătim pentru a ne contacta mental și moral. Dacă tribalismul instinctual al rasei umane a avut ca rezultat reacții morale periculoase la criza migrației - și cu siguranță - poate fi doar ...
Ștefan Hawking spune că umanitatea ar putea fi condamnată
Într-un nou interviu, Stephen Hawking discută despre diferitele moduri în care oamenii ar putea să le aducă propria lor deces. Nu este surprinzător că lista cuprinde toți suspecții obișnuiți, inclusiv războiul nuclear, încălzirea globală și virușii modificați genetic. Ce e vina? Hawking crede că tehnologia: "Majoritatea amenințărilor ...
Cum să faci ca un tip să-ți fie dor de tine * și să te dorești * chiar și după ce ai înșurubat
Există ceva mai rău decât să-l pierzi pe tipul pe care îl iubești? În mod cert, nu. Dacă vrei să-l înapoiezi, iată cum să faci ca un tip să-ți fie dor de tine și să te dorească înapoi.