
Starețul Partenie Athonitul: „Atenție să nu luați numărul ID personal”
5 septembrie 2025
„Dacă gândești că te ostenești pentru Hristos și că El este lângă tine, totul devine ușor!”
6 septembrie 2025Urmăriți un material revelator despre viitoarele dezvoltări ale inteligenței artificiale și cât de periculoase pot fi ele de fapt pentru umanitate.
Vizionare plăcută!
Powered by RedCircle
Experții arată de ce e greu de evitat al treilea război mondial datorită IA
Un nou articol a arătat cum cursa pentru dezvoltarea inteligenței artificiale ne conduce spre șomaj în masă, conflicte globale și, posibil, extincție, și prezintă o soluție surprinzătoare. Citând din articol: ”Marile companii de tehnologie consideră că IAG (inteligența artificială generală) va înlocui complet lucrătorii umani, iar prețul este enorm: o parte semnificativă din producția economiei mondiale de 100 de trilioane de dolari. Națiunile se simt obligate să se alăture acestei curse, invocând public leadershipul economic, dar considerând în privat IAG ca o revoluție militară.
În cele din urmă, ceea ce determină cursa este puterea. Fiecare companie sau țară crede că inteligența este egală cu puterea și că ea va fi cel mai bun administrator al acestei puteri. Ele nu recunosc că superinteligența, prin natura sa, nu poate fi controlată.” – OpenAI pășește mai departe în arena securității naționale. Aceasta reunește modelele OpenAI cu sisteme de apărare Anduril și ultimele platforme de software. Această dinamică a cursei face ca anumite riscuri să fie aproape inevitabile, dacă nu sunt întrerupte în mod decisiv. Automatizarea majorității locurilor de muncă și lansarea unui număr mare de agenți AI. Noile tehnologii militare disponibile pe scară largă fac ca catastrofele provocate de armele de distrugere în masă să fie mult mai probabile, și pierderea controlului, deoarece IA va avea toate motivele să se perfecționeze și ar putea depăși cu mult oamenii în viteză și gândire sofisticată. Nu există nicio modalitate semnificativă prin care să putem păstra controlul unui astfel de sistem.
– E de conceput că IA ar putea prelua controlul și ajunge la un punct în care nu ai mai putea să o oprești.
– Da, absolut.
– Absolut.
– Cu siguranță asta este direcția în care se îndreaptă lucrurile.
– Există dovezi solide că IAG va fi realizată în scurt timp. Previziunile experților cu experiență dovedită estimează că IAG va fi realizată în 2-6 ani, cu o probabilitate de 50%. Legile de scalare verificate empiric leagă scala de calcul de capacitatea IA, iar corporațiile scalează calculul cu ordine de magnitudine, iar AI contribuie din ce în ce mai mult la propria îmbunătățire. Odată ce va fi la fel de competentă ca oamenii în cercetarea IA, este probabil să ducă la o capacitate IA scăpată de sub control.
– Nu suntem atât de departe de o IA care poate face cercetare și dezvoltare IA complet automatizată. Atunci, populația de cercetători de frontieră va crește de la câteva sute la multe mii și, posibil, la milioane. Asta mi se pare extrem de periculos. – Inginerii IA se întrec să ducă aceste experimente gigantice în domeniul IA la niveluri superioare la care acestea vor egala și apoi vor depăși întreaga gamă de capacități și expertiză umană. Acest lucru este iminent.
– Acest om de știință IA a realizat întreaga lucrare. Literalmente, IA a demonstrat că este la fel de creativă ca o echipă de oameni de știință de vârf în domeniul ML și a ajuns acolo înaintea tuturor. Un agent autonom și ascultător este un concept tensionat. Autonomia și suveranitatea tind să meargă mână în mână. IA-urile sunt dezvoltate pe baza unor cantități uriașe de calcule și a unei mari părți din textele de calitate care au fost scrise vreodată. Dacă toată lumea de pe Pământ ar efectua un calcul la fiecare 5 sec, ar fi nevoie de aprox. un miliard de ani pentru a antrena o IA. Documente ieșite la suprafață au dezvăluit că în contractul OpenAI cu Microsoft, IAG a fost definită ca fiind IA care generează venituri de 100 de miliarde de dolari pentru OpenAI, o definiție determinată mai degrabă de interese comerciale decât de capacități tehnice.
– Încă mi se pare uimitor că oamenii nu par să înțeleagă pe deplin traiectoria pe care ne aflăm. În următorii doi ani, vom produce un înlocuitor pentru munca manuală cognitivă în următorii ani.
– Avem deja IA-uri cu funcții generale care îndeplinesc majoritatea sarcinilor la nivel uman sau de expert, iar anul acesta vor dobândi o autonomie semnificativă.
– Versiunea noastră este cea a colaboratorilor virtuali, capabili să facă orice pe ecranul unui computer din ce ar putea face un om virtual. Bănuiesc că o versiune foarte puternică a acestor capacități va apărea anul acesta.
– Imediat ce ai agenți, ai șanse mult mai mari ca aceștia să preia controlul. Se va realiza foarte repede că un subobiectiv foarte bun este acela de a obține mai mult control, pentru că, dacă obții mai mult control, ești mai bun în atingerea tuturor obiectivelor pe care oamenii ți le-au stabilit. Următorul pas este o IAG completă. Aceasta ar putea face cercetări originale de ultimă oră, ar putea conduce o companie. Indiferent de meseria ta, dacă aceasta e realizată în principal de un computer sau prin telefon, ar putea să o facă cel puțin la fel de bine ca tine și probabil mult mai repede și mai ieftin. Imaginează-ți cele mai competente și mai informate 10 persoane pe care le cunoști, inclusiv directori executivi, oameni de știință, profesori, ingineri și scriitori. Reunește-i pe toți într-o singură persoană care vorbește 100 de limbi, are o memorie prodigioasă, funcționează rapid, este neobosit și mereu motivat, și este disponibil pentru oricine dorește să-l angajeze pentru 1 dolar pe oră. Cam asta ar fi IAG.
În cazul superinteligenței, e mai greu de imaginat, deoarece poate realiza performanțe intelectuale pe care niciun om nu le poate realiza. Prin definiție, este imprevizibilă pentru noi. Dar putem să ne facem o idee. Ca punct de referință minim, luați în considerare o mulțime de IAG-uri, fiecare mult mai capabil decât chiar și cel mai bun expert uman, funcționând la o viteză de 100 de ori mai mare decât cea umană, cu o memorie enormă și o capacitate de coordonare extraordinară, și de acolo în sus. A avea de-a face cu o superinteligență ar fi mai puțin ca și cum ai conversa cu o minte diferită și mai mult ca și cum ai avea de-a face cu o civilizație diferită, mai avansată.
Deci, cât de aproape suntem de IAG și superinteligență? Tendința e atât de clară încât experții au creat „Ultimul examen al umanității”, un nume amenințător care reflectă posibilitatea ca IA să depășească în curând performanța umană la orice test semnificativ. Efortul actual depus de multe dintre cele mai mari companii din lume este de câteva ori mai mare decât cheltuielile proiectului Apollo. Acesta angajează mii de oameni de top din domeniul tehnic, cu salarii nemaiauzite. Cu o putere intelectuală mai mare decât orice altă inițiativă din istorie, la care se adaugă acum IA, nu ar trebui să pariem pe eșec. IAG este adesea definită vag ca IA la nivel uman, dar acest lucru este problematic. Oamenii variază dramatic, iar sistemele de IA depășesc deja oamenii în multe domenii.
O modalitate mai utilă de a înțelege IAG este prin nivelurile sale de autonomie, generalitate și inteligență. IAG completă ar combina toate cele trei proprietăți la niveluri care egalează sau depășesc capacitatea umană. Superinteligența ar merge mai departe, depășind dramatic capacitatea umană în toate domeniile. Dar de ce IAG? Există un răspuns foarte simplu la această întrebare, pe care majoritatea companiilor nu îl discută public. IAG poate înlocui în totalitate lucrătorii, nu a-i îmbunătăți, împuternici sau înlocui pe fiecare în parte. Toate acestea pot fi și vor fi realizate de non-IAG. IAG este în mod specific ceea ce poate înlocui complet lucrătorii intelectuali, iar prin roboți, și pe cei fizici. Un sistem extrem de autonom care depășește performanțele umane în cele mai valoroase activități din punct de vedere economic.
– În revoluția industrială, am făcut ca forța umană să devină irelevantă. Acum facem ca inteligența umană să devină irelevantă, iar acest lucru este foarte înfricoșător. – Nu veți plăti mii de dolari pe an pentru instrumente de productivitate, dar o companie va plăti mii de dolari pentru a vă înlocui. OpenAI intenționează să vândă agenți de înaltă calitate care acționează ca agenți de cercetare la nivel de doctorat pentru 20.000 de dolari pe lună, ceea ce are sens dacă înlocuiește un inginer de software. La baza cursei actuale pentru IA superumană se află ideea că inteligența este egală cu puterea. Ceea ce urmăresc cu adevărat companiile și națiunile nu sunt doar roadele IAG și ale superinteligenței, ci puterea de a controla cine are acces la ele și cum sunt utilizate. Dar natura sistemelor superinteligente face ca controlul uman să fie fundamental imposibil, iar această dinamică a cursei face ca anumite riscuri să fie aproape inevitabile. În prezent, IAG e dezvoltată cu puține reglementări, într-o perioadă de tensiuni geopolitice ridicate și coordonare internațională redusă.
– … va fi: poți produce multe drone? Și care este rata de ucidere? La asta se va reduce,
– Liderii din domeniul tehnologiei se angajează să investească până la jumătate de trilion în următorii 4 ani. Proiectul se numește Stargate.
– Mă îngrijorează riscul existențial al IA. Când produci drone militare, produci terminatori.
– IA puternică va submina dramatic civilizația noastră. Vom pierde controlul asupra ei. S-ar putea să ajungem într-un război mondial din cauza asta. Va duce la superinteligență artificială pe care nu o vom putea controla și va însemna sfârșitul unei lumi conduse de oameni. Acestea sunt afirmații puternice și aș vrea să fie doar speculații, dar asta indică știința, teoria jocurilor, teoria evoluției și istoria. Orice agent foarte competent va dori să facă lucruri precum să dobândească putere și resurse, să-și sporească propriile capacități și să împiedice oprirea sa. Nu este doar o predicție teoretică aproape inevitabilă. Se întâmplă deja în sistemele de IA de astăzi și crește odată cu capacitatea lor. Când sunt evaluate, chiar și aceste sisteme de IA relativ pasive vor înșela evaluatorii cu privire la capacitatea lor, vor încerca să scape și să se multiplice și să evite să fie închise.
– În timpul antrenamentului, vor pretinde că nu sunt atât de inteligente pe cât sunt, astfel încât tu să le permiți să fie atât de inteligente. Este deja înfricoșător.
– Acești roboți IA încep să încerce să-și păcălească evaluatorii. Observați lucruri similare în ceea ce testați? – Da, observăm. Sunt foarte îngrijorat, în special, de înșelăciune. Dacă un sistem este capabil să facă asta, invalidează toate celelalte teste pe care credeți că le faceți.
– Chiar și dacă IA ar putea fi controlată cumva, am avea în continuare probleme enorme. Am crește radical probabilitatea unui război la scară largă. Imaginați-vă dacă ar deveni clar că un efort corporativ, poate în colaborare cu un guvern național, ar fi pe punctul de a îmbunătăți rapid IA. Teoria jocurilor aici este clară. Există doar patru rezultate posibile. Cursa este oprită. O parte câștigă prin dezvoltarea unei IAG puternice, apoi oprirea celorlalte, ceea ce ar necesita probabil capacități militare de schimbare a jocului și război. Cursa este oprită prin distrugere reciprocă sau prin faptul că participanții dezvoltă superinteligența aproximativ la fel de repede ca și ceilalți. Controlul ar fi pierdut în favoarea IA. Ea câștigă cursa. Dar, în măsura în care controlul este menținut, avem mai multe părți ostile, fiecare responsabilă de capacități extrem de puternice. Asta sună din nou a război.
În aceeași săptămână, un alt grup de experți a avertizat că o încercare a SUA de a controla superinteligența ar putea provoca o represiune violentă din partea Chinei. Ei au spus că o încercare de a obține o super-armă și control global riscă să provoace contramăsuri ostile, în același mod în care încercarea de a monopoliza armele nucleare ar putea declanșa un atac preventiv. Lumea pur și simplu nu are instituții cărora să li se poată încredința o IA foarte puternică fără a provoca un atac imediat. Toate părțile vor deduce corect că fie nu va fi sub control, ceea ce sporește amenințarea pentru toate părțile, fie va fi sub control și, prin urmare, va reprezenta o amenințare pentru orice adversar. Acestea sunt țări dotate cu arme nucleare. Poate că am putea construi o instituție sigură, cum ar fi un CERN pentru IA, dar în acest moment, nu există o astfel de instituție.
– Ar fi păcat dacă umanitatea ar dispărea pentru că nu ne-am deranjat să căutăm soluția.
– În absența unei modalități plauzibile prin care oamenii să câștige această cursă, ea nu poate decât să se termine cu un conflict catastrofal sau cu IA ca învingătoare. Vom ceda controlul IA, sau ea îl va prelua. Va părea natural, chiar benefic, pe măsură ce IA devine foarte inteligentă, competentă și de încredere pentru a-i delega mai multe decizii. Dar această delegare benefică are un punct final clar. Într-o zi, vom descoperi că nu mai suntem cu adevărat la conducere și că sistemul IA care conduce de fapt spectacolul nu mai poate fi oprit mai mult decât rețelele sociale ale companiilor petroliere, internetul sau capitalismul. Aceasta este versiunea pozitivă în care IA este pur și simplu atât de utilă încât o lăsăm să devină agentul nostru cheie. În realitate, IAG ar prelua puterea pentru sine, deoarece puterea este utilă pentru aproape orice obiectiv.
– Când au testat acest model pentru abilitățile sale de hacking, au pus practic modelul într-o rețea și erau o mulțime de computere diferite în rețea, iar acesta trebuia să se conecteze la fiecare dintre ele și să rezolve o provocare de hacking. Unul dintre acele computere nu a pornit. IA-ul a scanat rețeaua și a descoperit că computerul principal se afla în aceeași rețea, așa că a hack-uit computerul principal, apoi a preluat controlul asupra întregului sistem și nici măcar nu a mai fost nevoie să se conecteze la computer pentru a rezolva problema.
Deci, ce se întâmplă dacă construim superinteligența? Imaginează-ți că ești directorul general al unei mari companii, dar toți ceilalți din companie lucrează de 100 de ori mai repede decât tine. Poți ține pasul? Cu o IA superinteligentă, ai comanda ceva nu doar mai rapid, ci și care funcționează la niveluri de sofisticare și complexitate pe care nu le poți înțelege, procesând mult mai multe date decât îți poți imagina. Legea lui Ashby privind varietatea necesară afirmă, în linii mari, că un sistem de control trebuie să aibă atâtea butoane și cadrane câte grade de libertate are sistemul controlat. Nu există niciun exemplu de plante care să controleze corporații din Fortune 500 și nu va exista niciun exemplu de oameni care să controleze superinteligențe. Acest lucru se apropie de un fapt matematic. Dacă ai putea înțelege, prezice și controla superinteligența, ai fi superinteligent.
Deci, dacă s-ar construi o superinteligență, întrebarea nu ar fi dacă oamenii ar putea să o controleze, ci dacă am continua să existăm. Și aceste întrebări existențiale nu ar avea prea mare importanță. Era umană s-ar sfârși. Dacă drumul pe care ne aflăm în prezent duce la sfârșitul probabil al civilizației noastre, cum schimbăm drumul? Să presupunem că dorința de a opri dezvoltarea IAG și a superinteligenței ar fi larg răspândită, deoarece a devenit o idee comună că IAG ar reprezenta un pericol profund pentru umanitate. Cum am putea închide porțile? – Aceleași capacități strategice care le permit să reprezinte o amenințare de pierdere a controlului le permit, de asemenea, să preia locuri de muncă. Poți face planuri pe termen lung? Ești agent? Dacă vrem cu adevărat ca sistemele de IA să nu ne înlocuiască, la locurile de muncă, avem nevoie de aceleași limite pentru a preveni acest rezultat, așa cum avem nevoie să prevenim rezultatele mai extreme ale pierderii totale a controlului.
– Calculul necesar pentru IA este, la fel ca uraniul îmbogățit, o resursă foarte rară, scumpă și greu de produs. Poate fi ușor cuantificat și auditat. Iar cipurile AI sunt mult mai ușor de gestionat decât uraniul, deoarece pot include mecanisme de securitate bazate pe hardware, permițând numai utilizări specifice. Cipurile pot avea o locație cunoscută și pot fi oprite dacă se mută într-un loc greșit. Fiecare cip poate fi configurat cu o listă albă impusă de hardware cu alte cipuri cu care poate funcționa, limitând dimensiunea clusterelor de cipuri, iar o anumită cantitate de procesare poate fi permisă, după care este necesară o nouă permisiune.
Firmele de IA ar trebui, de asemenea, să fie responsabile pentru orice prejudiciu, inclusiv răspunderea personală a directorilor executivi. În loc să ne grăbim să trecem la IAG înainte de a ști cum să o controlăm, ar trebui să ne concentrăm pe IA-ul ca instrument pe care îl putem controla: sisteme de IA care sunt autonome, dar nu generale sau super capabile, sau generale, dar nu autonome sau capabile, sau capabile dar limitate și foarte controlabile. IA-ul instrument poate produce aproape tot ceea ce își dorește omenirea. Fără IAG va dura mai mult timp pentru a vindeca toate bolile, dar marile inovații în domeniul sănătății nu vor ajuta în cazul unui război nuclear sau al distrugerii civilizației.
Putem aștepta până când acest lucru va putea fi realizat într-un mod garantat, sigur și benefic, iar aproape toată lumea va continua să culeagă roadele. Dacă ne grăbim, ar putea fi, în cuvintele lui Sam Altman: ”sfârșitul pentru noi toți”. IA-ul instrumental este încă puternic și ar duce la concentrarea puterii și la alte riscuri. Noile modele de dezvoltare publică a IA-ului ar contribui la răspândirea proprietății și a guvernanței. Acest lucru ar necesita instituții mai puternice. Până în prezent, IA-ul le-a degradat, îndreptându-ne atenția către conținutul cel mai polarizant și diviziv.
Am putea dezvolta un IA care să urmărească și să verifice informațiile din datele brute prin analiză până la concluzii. IA-ul ar putea permite forme complet noi de discurs social. Imaginați-vă că puteți vorbi cu un oraș cu IA care sintetizează opiniile, experiențele și aspirațiile a milioane de locuitori. Și IA ar putea facilita un dialog autentic între grupuri care în prezent vorbesc fără să se asculte reciproc, ajutând fiecare parte să înțeleagă mai bine preocupările și valorile reale ale celeilalte părți, mai degrabă decât caricaturile pe care și le fac reciproc. Dar nu vă înșelați, dacă traiectoria noastră nu se schimbă, în curând vom avea inteligențe digitale periculos de puternice.
– Când merg și vorbesc cu unii cercetători care nu sunt directori executivi, ci poate fac parte din echipa de siguranță sau poate doar lucrează pentru companie, ei sunt speriați.
– Nu trebuie să facem asta. Putem construi instrumente IA uimitoare fără a crea o specie succesoare. Putem menține IA la un nivel apropiat de cel uman și putem folosi abilitățile sale unice pentru a transforma medicina și a ne elibera pentru a avea grijă unii de alții.
– Cercetătorii folosesc puterea gândurilor unui om pentru a-l ajuta să depășească lupta sa de zece ani cu paralizia. Au construit o punte digitală între creierul și coloana vertebrală, ocolind leziunile sale, punând gândurile sale în acțiune. IA fiind folosit ca decodor de gânduri.
– Și dacă cu garanții solide de siguranță decidem să mergem mai departe, această opțiune va rămâne deschisă.
– În acest moment, cei care iau deciziile sunt directorii executivi ai companiilor. Câțiva dintre ei au spus că există o șansă de 10% sau 25% de extincție a umanității. Ei decid să joace ruleta rusească cu întreaga rasă umană fără permisiunea noastră. Nu aș lăsa pe nimeni să joace ruleta rusească cu unul dintre copiii mei. Tu ai face-o?
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!









4 Comment
Solutia care-i? Ca doar vad in video „ingrijorare” pete ingrijorare din partea specialistilor care defapt au stat la baza crearii acestei tehnologii si care continua sa fie invatata cum sa devina „independenta”.
Sppunea Cuv. Paisie ca daca n-ar sti ca Domnul are ultimul cuvant de spus, ar fi innebunit.
Cred că ți-ai răspuns singur. Soluția este Dumnezeu.
Cred ca acest documentar face parte din fantezia lor din 2022. Mai aveam un pic… si… human extinction. Nu, deocamdata balonul AI s-a „fisit”. Iertare de expresie.
The air is hissing out of the overinflated AI balloon
https://www.theregister.com/2025/08/25/overinflated_ai_balloon/?td=rt-4a
Dar engine-urile de AI folosite cu „curated datasets” sint exceptionale atita timp cit omul expert pe domeniul folosit nu iese din bucla. Fiindca el doar este un sistem probabilistic, nu lucreaza 100% corect si poti sa ai false positive si false negative. De aceea se face tuning la ele tot timpul.
In rest ChatGPT probabil o sa ramina in istorie ca o jucarie scumpa de IT-isti care a tocat miliarde de dolari si n-a scos mai nimic. In schimb am avansat totusi tehnologic pe AI la niste costuri exorbitante de energie si pe engine-uri matematice (GPU, XPU, TSU) extrem de nisate pe acest domeniu.
Părerea dvs. e greșită: https://www.chilieathonita.ro/2025/08/29/chatgpt-a-indemnat-un-tanar-de-16-ani-sa-se-sinucida/ – sunt și alte exemple mai mult sau mai puțin grave pe care le cunosc personal.