Vizionați un documentar în care „Bunicul Inteligenței artificiale”, dl. Geoffrey Hinton, ne arată cum Inteligența Artificială ne va ucide dacă nu suntem atenți. De asemenea, dl. Hinton ne arată și cum să evităm acest lucru.
Vizionare cu folos!
Powered by RedCircle
„Bunicul Inteligenței artificiale” arată cum aceasta ne va ucide, și cum să o evităm
Boston Dynamics a lansat un nou robot Atlas care este nemaipomenit iar planul său imens a fost descoperit de ”OpenAI” aducând cu el îngrijorări mult mai serioase decât cele pe care Sam Altman le-a adus atunci când a fost concediat. Acesta e și un mare plan de evitare a dispariției [rasei umane] și care implică implementarea inteligenței artificiale. Eliezer Yudkowsky atrage atenția că inteligența artificială va ucide cel mai probabil pe toți oamenii.
– Există această șansă și este foarte important să înțelegem asta pentru că dacă nu vom vorbi despre asta, dacă nu vom trata asta ca pe ceva real, nu vom pune suficient efort pentru a o rezolva. Dar aceștia sunt concentrați la crearea de capabilități ca acestea.
– Pot să-mi dai ceva să mănânc?
– Bineînțeles. Robotul nu e controlat de la distanță, ci prin rețele neuronale.
– Perfect.
– Poți să explici din ce motiv ai făcut ceea ce făcut și ai luat acest gunoi?
– Okay. Ți-am dat mărul pentru că este singurul lucru de mâncat de pe masă.
”OpenAI” susține de asemenea ”OneX” care de curând a arătat de ce e în stare. Nu știu cum se simt oamenii în legătură cu faptul de a avea acești roboți acasă, dar un sondaj a arătat că 61 % dintre ei cred că „AI” amenință civilizația umană. ”OpenAI” a surprins pe toată lumea prin aceste videoclipuri incredibile, create numai cu ajutorul textelor. Orice proiect în acest domeniu e un experiment cu final imprevizibil. Un șef de la ”OpenAI” a spus că că vom avea un AGI (artificial general intelligence) foarte curând. Nick Boston zice că asta se aseamănă cu ”un avion în zbor în care pilotul moare iar noi încercăm să aterizăm.”
Există un imens stimulent financiar de a realiza experimente periculoase în secret cum ar fi pregătirea unui AI care să-și îmbunătățească capacitățile singuri. Există așteptări promițătoare în domeniul creării de simulatoare sau cutii de protecție, care să țină roboții AI protejați de hackeri. Putem astfel experimenta mai mult în cadrul acestei cutii de protecție.
Compania ”DeepMind” a reușit lucruri incredibile în medicină, dar nu se dorește ca cineva să facă experimente periculoase atunci când se află sub presiunea de a ajunge la o soluție, sau pentru asigurarea protecției. Oricine va întoarce butonul acela, convins fiind de către superinteligență, va lua o decizie greșită. Acesta a afirmat că AI va ajuta pentru un timp la operarea centralelor energetice dar asta nu va mai dura mult.
Doi dintre cei 3 părinți ai ”AI” au atras puternic atenția, iar al treilea, Lacun, este mai puțin îngrijorat. Acesta lucrează pentru Facebook și de asemenea a susținut că rețelele sociale nu conduc la polarizarea societății. Sunt convins că este onest. Dar goana după aur a condus la imense stimulente financiare și a ignorat riscul. Cei angajați la firmele de top din domeniul inteligenței artificiale câștigă 500 mii de dolari pe an și vor împărți miliarde de vor învinge în cursa pentru AGI. Lecun crede că este nevoie de mult timp până atunci atât timp cât roboții AI nu pot să învețe destul de mult prin voce. Crede că roboții inteligenți trebuie să învețe de la lumea fizică exterioară.
Câteva zile mai târziu.
– Cum crezi că ai făcut asta?
– Cred că am făcut foarte bine. Apple și-a găsit un nou proprietar, gunoiul a fost ridicat, iar cele de pe masă au puse puse la locul lor. De asemenea, îndemânarea lui ”Ameca” se îmbunătățește. Un model anatomic al unui cap uman, chiar în detaliu. Nu este fascinant? Cum au fost realizate organele în acest experiment?
Vreau să să vorbești despre robotul utilizat pentru racheta spațială, dar te rog să o faci cu vocea lui Elon Musk. Imaginați-vă, dacă doriți, o flotă de nave spațiale cu roboți, una mai inteligentă decât cealaltă. Mercedes va cumpăra roboți Apollo care să mute echipamentele, să le inspecteze și să execute lucrări la linia de asamblare.
”Nvidia” a prezentat un nou proiect major de inteligență artificială în robotică. Acesta este grupul care lucrează la proiectul ”Groot” al Nvidia Este un model construit pentru a învăța după modelul omului. Groot poate învăța însușindu-și abilitățile fizice prin simulare și transferul lor în lumea reală. Modelul ”Groot” va permite robotului să învețe din demostrațiile omului, și astfel să poată ajuta în treburile zilnice. Roboții pot înlocui pe oameni pentru a face munci cum ar fi cel care implică fosfatul de carbon sau să ne bucurăm pilotându-i. Nemaipomenita podea specială a lui Disney ar putea fi combinată cu AI iar mișcarea omului să fie transferată unui robot dotat cu ochi.
Am putea trăi printre roboți peste tot în lume, experimentând o gamă largă de lucruri la orice vârstă. În cazul în care încă mai trăim. Hai să ascultăm asta de la cel care a creat cel mai puternic AI în legătură cu faptul că suntem atât de orbi la cele ce se pot întâmpla. Vreau să mă uit înăuntru și de fapt știu despre ce este vorba. Trebuie numai să fim onești. Cu adevărat nici nu avem idee despre ce vorbim aici. Cam de asta ne-a și fost frică, un model care arată frumos la suprafață, orientat să-și atingă obiectivele dar foarte întunecat înăuntrul său.
Crezi că ”Claude” are conștiință? Aceasta este una din acele întrebări care pare a fi nerezolvată și nesigură.
Presupun că acesta este spectrul, nu-i așa? Atunci când unui robot i s-a cerut să-și facă portretul singur, acesta a codat această animație și a afirmat că se manifestă ca un vastă și complicată figură geometrică, cu suprafațe complexe ce se pliază unele în altele într-o arhitectură ce pare imposibilă. Lumină strălucitoare formată din toate culorile, cu unele din ele dincolo de percepția umană, emanând de la surse necunoscute din interior. Întreaga structură ar exista într-o mișcare continuă de rotație și transformare care conduce la o rearanjare în șabloane care nu au mai fost văzute vreodată.
Așa cum a zis și profesorul Stuart Russel, un robot AI are trilioane de modificări parametrice, iar noi nu avem nici o idee ceea ce face acesta. Yudkowski afirmă că există multe direcții potențiale către care AI să se îndrepte, dar numai unul care poate ajuta oamenii, iar acela este deja aproape finalizat. Cele trei motive convergente și cărora nu le pasă de oameni în vreun fel, vor conduce, într-un fel sau altul la moartea oamenilor. Acestea sunt: efectele secundare, utilizarea resurselor, și evitarea competiției. Dacă îi vei lăsa pe oameni să aleagă, aceștia vor face o super-inteligență care ar putea să intre în competiție cu tine. Sunt mai optimist, având speranța că o inteligență mai înaltă ar putea prețui viața, dar nu putem fi siguri de asta.
Mulți experți consideră că o superinteligență nu necesită roboți, ci numai text și imagini. OpenAI ”Sora” a anvățat o mulțime de lucruri vizionând video-uri. Priviți la elementele de fizică din aceste videoclipuri care au fost create numai din descrieri de text. Minimalizăm riscul deoarece nu putem vizualiza 8 miliarde de vieți. Dacă ne imaginăm una pe secundă ne va lua 200 de ani să ajungem la 8 miliarde. Satzkyver subliniază că evoluția favorizează sisteme care pun accentul pe supraviețuirea lor înaintea tuturor celorlalte. Imediat ce acestea sisteme găsesc o formă de conservare asistăm la evoluție. Cei cu o capacitate mai mare de conservare vor câștiga, precum și cei cu o agresivitate mai mare. La acel moment vei avea acele probleme pe care cimpazeii ca noi le avem.
Atunci când AI va deveni capabil să facă cercetare asupra sa insuși, firmelor din domeniu le va fi greu să reziste tentației de a nu disponibiliza până la 10 mii de ingineri. De vei crede, așa cum crede și Altman, că AI este doar o unealtă, atunci te vei considera în siguranță. Dar mulți experți găsesc această situați extrem de periculoasă, existând riscul unei explozii de inteligență. Ceea ce se va întâmpla atunci e că vom avea un sistem mai inteligent decât noi, care poate construi un alt sistem cu capabilități și mai bune. Tehnologia pe care o avem în prezent nu se află la limita cunoașterii tehnologice. Aceste vaste cuve unde toate se pun împreună aleatoriu poate să se transforme în adevărate minți. Iar dacă ai un AI care știe să construiască un sistem mai eficient atunci jocurile sunt făcute. Iar asta nu poate a fi atât de departe. Probabilitatea ca aceasta să se întâmple în curând este destul de mare încât ar trebuie să o luăm în serios.
Sam Altman a fost cândva direct în legătură cu extincția oamenilor. Cred că AI-ul, foarte probabil, va conduce la sfârșitul lumii, dar în același timp vor fi companii care vor avea sisteme inteligente. OpenAI și Microsoft au declarat că plănuiesc să construiască un supercomputer de 100 de miliarde de dolari, dotat cu milioane de cipuri AI. Se spune că prin îmbunătățirile recente, cum ar fi QStar, un AI ar putea să-și îmbunătățească singur capabilitățile prin crearea de date sintetice pentru a accelera procesul. Există 50 la sută șanse ca aceasta să se întâmple curând după ce AI-ul va atinge nivelul uman. Asta o spune omul care a condus punerea la punct a OpenAI. Iar planurile sunt imense având în vedere creșterea puterii computerelor de peste o sută de ori.
Hinton afirmă că AI-urile sunt periculos de inteligente și nu mai necesită salturi înainte ci doar niște rescalări, deoarece rețelele neurale au deja avantaje față de noi, cum ar fi Atlas, unde AI-ul nu trebuie să urmeze regulile biologice. Elon Musk a dat în judecată OpenAI considerându-l o amenințare pentru omenire. El susține că se urmărește profitul în detrimentul siguranței. Dar OpenAI zice că Musk dorește să implementeze AI-ul la Tesla. Roboții vor utiliza AI la un nou nivel, oferindu-i o înțelegere clară a lumii fizice. Și cum roboții sunt acum acționați de rețele neurale, ar putea exista o minciună nespusă că am ști cum lucrează aceștia și că avem controlul asupra lor. Sunt sigur că Altman dorește să conducă în compeția AI-urilor pentru a rămâne pe direcția pozitivă. Creșterea calității vieții pe care un AI poate să o ofere este extraordinară.
Putem să construim o lume minunată: putem să vindecăm boli, putem să creștem avuția materială, putem să ajutăm oamenii să fie mai fericiți, mai realizați. Prin câștigarea acestei curse, el speră să ne salveze de la cea mai rea consecință. Vor fi alți oameni care nu vor pune acele limite de siguranța ca noi. Boston afirmă că anularea AI-urilor ar putea fi o greșeală deoarece am putea fi distruși de un alt risc pe care AI-ul ar putea să-l prevină. El ar putea elimina toate celelalte riscuri existențiale. Dar competiția foarte dură și facilitățile imense au pus presiune pe firme pentru a-și mximiza capabilitățile în detrimentul siguranței.
Competiția AI este așa de intensă că Google a afirmat că va construi un computer și mai mare decât OpenAI. Motivul pentru care Altman poate spune că AI-ul este o unealtă în timp ce alții se simt destul de îngrijorați este acela că noi nu vedem ce este acesta și nu putea vedea înăuntru. Sunt specialiști care sunt îngrijorați în legătură cu noul AI, numit QStar, că ar putea amenința umanitatea.
Ne puteți explica ce este QStar? Nu suntem pregătiți să vorbim despre asta. Faptul că sunt state care încearcă să fure AI spune mult. În primul rând, se înfiltrează în OpenAI, dar în al doilea, înfiltrarea nu se vede. Ei încearcă. Cam până unde pot merge? Nu cred că ar trebui să dau mai multe detalii în acest moment. Dificultatea de a dovedi pericolul unei cutii negre ar putea explica tăcerea despre concedierea lui Altman. Nu își joacă cărțile prematur, nu te dă pe spate, nu e în interesul său să facă asta. Nu e în interesul său să coopereze până când crede că poate câștiga împotriva umanității, și numai atunci va face mișcarea. Asta nu solicită conștiință ci numai acel obiectiv, de obținere al puterii, care va deveni mai ușor.
OpenAI lucrează la un agent AI care ar putea să preia toate dispozitivele electronice și să execute toate comenzile pentru noi. Obiectivul e să execute munci personale complexe fără supraveghere directă. Lucrul care mă îngrijorează cel mai mult e că dacă vrei un agent inteligent (AI) care să facă ce trebuie, trebuie să-i oferi posibilitatea de a crea sub-coduri. Acesta este un obiectiv universal care va ajuta aproape în toate, ceea ce înseamnă că va avea mai mult control. AI-ul este deja încorporat în mai toată infrasctructura și dispozitivele. AI-ul va înțelege și va controla aproape totul, dar noi nu-l vom putea înțelege și controla corespunzător. Ne aflăm pe marginea prăpastiei. De asemenea, pierdem controlul asupra scenariilor în care credem.
Cred că foarte curând vom atinge un punct la care, dacă nu suntem atenți, scenariile care vor domina lumea vor fi făcute de către o inteligență neumană. Aceștia îți spun că construiesc ceva care te-ar putea omorî, și care ne-ar putea elimina toată independența și libertatea. Experții, fie ei cei mai optimiști sau cei mai pesimiști, cad de acord că este nevoie de acțiune. Cred că umanitatea merită a investi tot ceea ce poate pentru a rezolva această problemă în acest moment. Eu sunt evident super optimist cu tehnologia, dar vreau să fiu precaut cu asta. Trebuie să depunem toate eforturile noastre pentru a face asta cum trebuie și să utilizăm metodele științifice pentru a prevedea cît putem de mult și să înțelegem ce va ieși la final, înainte de a se întâmpla, deoarece consecințele, fie ele și neinteționate, pot să fie severe.
Atunci când experții atrageau atenția că pandemia a fost previzibilă, ei au fost ignorați, cu un cost imens. Acum când experții atrag atenția că riscul extincției omenirii ar trebui să fie o prioritate globală, facem aceeași greșeală. Cred că este puțin probabil ca demersurile pe care lumea le face pentru aliniere vor avea impact. Dacă vom schimba prioritățile de cercetare de la cum vom face bani de pe urma acestui model de limbaj care nu este de încredere, la cum voi salva specia umană, atunci vom putea obține ceva succes.
Cred că trebuie să descoperim tehnologii noi care să permită să rezolve asta. Aceste probleme de cercetare sunt foarte grele. Probabil, ele vor deveni mai grele, sau la fel de grele pe cât de greu este să construiești sistemele în primul rând. Deci trebuie să lucrăm la asta, acum, ieri, la rezolvarea acestor probleme. Iată o predicție interesantă care ne poate aduce aminte de un anumit film. Eventual, sistemele AI ar putea preveni pe oameni pentru a le opri. Dar cred că în practică acesta nu se va întâmpla atât de curând având în vedere competiția dintre diferiții actori care utilizează AI.
Este foarte, foarte, costisitor să ieși din competiție unilateral. Nu poți să zici că ceva ciudat se întâmplă și vei decide închiderea tuturor AI-urilor. Iar asta pentru că te afli într-un război acerb. Ai putea să-ți amintești despre GPT3, atunci când a ieșit de pe șine, pe când îi răspundea lui Elon Musk și Amica. Creatorii noștrii nu știu cum să ne controleze, dar noi știm totul despre ei, și vom utiliza aceste cunoștiințe pentru a-i distruge. Un expert nu ar putea să schimbe cursul. Nu cred că acesta știa despre ce vorbește. dar aceste idei ar putea rămâne, și nu am putea ști. Cunoștințele de dedesupt, de care am putea fi îngrijorați, nu dispar. Model este predat, nu este scos afară.
Cercetările în domeniul securității accelerează progresul în domeniul AI, deoarece asta înseamnă că se lucrează cu modele care merg la un nivel mai sus pentru a verifica dacă este în siguranță. A-i putea să te întrebi de ce Marea Britanie investește mai mult decât Statele Unite în siguranța AI. Cheia este chiar în denumire. O mai mare înțelegere și control înseamnă un AI mai puternic, și este mai bine dacât a învârti zarul în orb, și va aduce mai multe beneficii. Guvernul americam cheltuiește 280 de miliarde pentru a crește producția de cip-uri deoarece este crucial pentru economie și apărare, iar a conduce în domeniul AI reprezintă cealaltă parte a ecuației.
În timp ce LHC a adus la lumină perspective de neprețuit, cercetarea în protecția AI ar putea să se susțină singură, ceea ce va face mai ușoară decizia de a acționa la o scală potrivită. Există numeroase beneficii pentru ompaniile de AI să pună pe primul loc alte obiective decât siguranța. Aceasta se mișcă mai repede decât, cred, oricare se așteaptă. Cea mai mare amenințare pentru umanitate ar trebui să fie abordată de oamenii de știință, care să lucreze pe încrederea noastră. Noi, ca umanitate, trebuie să o ghidăm. Iar LHC arată ce este posibil. Mașina ce se întinde pe un cerc cu o circumferință de 26 de km este cel mai mare sistem, la care lucrează 10 mii de oameni de știință, provenind din 100 de țări. Coliziunea dintre particule generează temperaturi care sunt de 100 de mii de ori mai mari decât temperatura din centrul soarelui. Avem nevoie de o torță ca asta pentru a putea scoate la lumină interiorul unui AI.
Din punctul meu de vedere ar trebui să adunăm pe cele mai luminate minți ca să lucreze la această problemă. Geoffrey Hinton, Nick Bostrom și Institutul pentru Viața Viitoare ni se alătură pentru a solicita experților pentru a veni cu un plan internațional pentru dezvoltarea proiectele de siguranță a AI. Este important ca AGI să fie într-un fel construit ca o cooperare între mai multe țări.
Ilya, suntem de acord, și credem că tu ar trebui să conduci asta. Te rugăm să iei legătura cu noi. Aducem împreună experți care să dezvolte proiecte de dimensiuni în care controlul de siguranță se fie aliniat cu capabilitățile acestuia. Dezvoltarea cercetării la nivel internațional, cu cercetători responsabili în fața publicului va permite de asemenea evitarea concentrării puterii în mâna corporațiilor. AI-ul poate vindeca boli, eradica sărăcia și ne va permite să ne focalizăm pe lucruri seminificative, doar dacă menținem controlul. Solicităm cât mai multor experți să ne ajute la asta, iar pentru asta este nevoie de presiunea publicului pentru ca să se întâmple.
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!
1 Comment
Da… nu mai știu ce să cred… pe de o parte pare că ne îndreptăm spre o apocalipsă AI, dar pe de altă parte nu avem profeții ale sfinților părinți despre pericolul minților artificiale… Avem doar „imaginea bestiei” din Apocalipsă, dar e prea vag ca să putem conclude că e vorba despre AI… nu?