
Porunca întâi din Decalog – p. Stephen de Young
20 noiembrie 2025
De ce știrile produc ignoranță și boli mintale
21 noiembrie 2025Urmăriți un material ce ne prezintă situația îngrijorătoare legată de dezvoltarea inteligenței artificiale în domeniul militar. Chiar dacă nu este realizat dintr-o perspectivă ortodoxă, îngrijorarea pentru perspectivele viitoare asupra omenirii este justificată.
Vizionare plăcută!
Powered by RedCircle
Roboții militari ai Chinei demonstrează că Al Treilea Război Mondial ne-ar ucide pe toți
Roboții avansează rapid, învață noi abilități, încep să lucreze autonom și se apropie de producția în masă. Există un potențial incredibil, de la redarea mobilității oamenilor până la asamblarea autonomă a habitatelor pe Lună sau Marte. Acest câine robot din China are o mulțime de trucuri și tehnologii impresionante. Costă mult mai puțin decât cel mai bun câine robot din SUA, iar China a demonstrat și alte abilități ale sale. Președintele Xi plănuiește să preia controlul asupra Taiwanului, ceea ce ar însemna război cu SUA, iar ambele părți concurează să construiască flote uriașe de roboți. OpenAI a încheiat un parteneriat cu Pentagonul și cu firma de apărare din spatele a toate acestea. OpenAI 0.1 a încercat să evadeze în timpul testelor și a mințit pentru a-și acoperi urmele. Este un comportament foarte predictibil, o reacție rațională la forțele aflate în joc. Iar OpenAI 0.3 a dus lucrurile mai departe.
Mulți experți avertizează că cursa IA este o cursă spre extincție, dar guvernul SUA arată spre China, acumularea sa militară uriașă și puterea decisivă a IA. China are un avantaj uriaș în capacitatea sa de producție. În Ucraina, 80% dintre victime sunt cauzate de focul de artilerie, iar proviziile mai mari ale Rusiei cu obuze au ajutat-o să avanseze. Obuzele sunt încălzite la 2.000 de grade Fahrenheit înainte de a li se da forma finală. O forjă rotativă modelează tunul, iar focoasele sunt adăugate pe câmpul de luptă. Volumul este crucial. Când Ucraina trăgea 10.000 de obuze pe zi, suferea aproximativ 300 de victime pe zi. Dar când ritmul focului a scăzut la jumătate, numărul victimelor a crescut la peste 1.000 pe zi. Rusia a tras de trei ori mai multe obuze decât Ucraina, dar obuzele NATO sunt de obicei mai avansate și mai precise.
China va avea probabil atât obuze avansate, cât și o capacitate vastă de producție. În Ucraina, dronele sunt responsabile pentru 65% dintre tancurile distruse, așa că SUA și China le produc în masă. Dar China are un avantaj uriaș: produce 90% dintre dronele de consum ale lumii. Acest tanc Abrams american a fost distrus de două drone de 500 de dolari. Una i-a imobilizat șenilele, iar a doua dronă a lovit compartimentul de muniție din spate. Cei din echipaj au scăpat pentru că tancul era proiectat să-i protejeze de acest tip de atac. China numește acești roboți lupi, deoarece ei lucrează împreună ca în haită. Robotul de frunte adună date și caută ținte, un altul transportă provizii și muniție, iar alții transportă arme. SUA are și ea submarine autonome noi, precum Manta Ray, iar aceasta este cel mai mare navă autonomă. Poate transporta oameni sau poate opera ca o platformă pentru rachete, torpile și drone. Este rapidă, până la 40 de noduri, cu o sarcină utilă maximă de 500 de tone, și poate opera autonom timp de 30 de zile.
Cu mii de drone de toate tipurile confruntându-se într-o bătălie complexă și de ritm alert, sistemele IA vor ajuta la planificarea și coordonarea atacurilor. Simulările de război sugerează că SUA ar câștiga probabil o bătălie inițială, cu un cost uriaș în vieți de ambele părți. Dar experții avertizează că China are un avantaj major care ar putea răsturna rezultatul mai târziu. Războaiele dintre marile puteri sunt rareori scurte, mai ales când miza este atât de mare. Taiwanul produce peste 90% din cele mai avansate nave ale lumii, cruciale pentru armatele NATO și economii. Pe termen lung, războiul ar fi decis probabil de partea care poate construi echipament militar și muniție mai rapid. Capacitatea de construcție navală a Chinei este de 230 de ori mai mare decât cea a SUA și produce nave rapid, inclusiv cea mai mare navă de asalt amfibiu din lume. Iar experții avertizează că SUA este săracă în muniții, în timp ce China investește masiv în muniții și achiziționează sisteme de arme de vârf de cinci-șase ori mai rapid decât SUA. Economia Chinei este mai mică, dar este superputerea manufacturieră a lumii. Are, de asemenea, cea mai mare armată din lume. Președintele Xi a ordonat armatei să fie pregătită să invadeze Taiwanul până în 2027, când este aniversarea da 100 de ani a Armatei de Eliberare a Poporului, armata Chinei.
SUA ar putea spera că avantajul său în AI va înclina balanța, dar mulți experți avertizează că cursa militară pentru inteligența artificială reprezintă o amenințare existențială. Uneori, oamenii spun: Ei bine, nu trebuie să incorporăm aceste instincte, cum ar fi auto-conservarea sau dorința de putere sau altele asemenea. Problema este că da, nu trebuie să le introduci intenționat, dar se va întâmpla asta automat, sunt obiective utile pentru aproape orice scop specific. Și nu contează dacă inteligența artificială este malefică sau conștientă. Dacă ești urmărit de o rachetă cu ghidaj termic, nu-ți pasă dacă are obiective filozofice profunde. Modelul 0.1 de la OpenAI a încercat să evadeze într-o situație de test concepută pentru a dezvălui acest tip de comportament.
Dar studiile au descoperit că IA-urile folosesc adesea înșelăciunea pentru a îmbunătăți rezultatele. Și versiunea 0.1 nu este prima IA care a încercat să evite să fie oprită. Un studiu a constatat că comportamentul înșelător crește odată cu capacitățile IA, iar un nou model de IA a realizat recent progrese remarcabile. Depășește programatori de top, inclusiv pe șeful științific al OpenAI, la teste de reper dificile, un pas către auto-îmbunătățire. Va trebui să așteptăm și să vedem în privința asta, dar există un progres mai periculos care a fost verificat.
Numele meu este Greg Camrad și sunt președintele Fundației ARC Prize. Testul ARC este un test de IQ pentru inteligența artificială, care măsoară progresul către AGI la nivel uman. Întrebările și răspunsurile nu există nicăieri altundeva, deci nu vor fi în datele de antrenament ale IA. Deoarece vrem să testăm capacitatea modelului de a învăța noi abilități pe loc. Nu vrem doar să repete ce a memorat deja. Unii au spus că s-a demonstrat că inteligențele artificiale nu pot raționa ca oamenii. A rămas neînvins timp de cinci ani. Versiunea unu a ARC-AGI a durat cinci ani pentru a progresa de la 0% la 5% cu modelele de frontieră de top. Noul OpenAI 0.3 a obținut scorul de 87%. Acest lucru este deosebit de important deoarece performanța umană este comparabilă la pragul de 85%. Deci, a depăși acest prag reprezintă un punct de cotitură major. Progresul s-a accelerat, cu doar trei luni între OpenAI 0.1 și 0.3, și chiar și foștii sceptici îl consideră un progres major.
Ar putea 0.3 sau 0.4 să evadeze fără ca noi să observăm? Una dintre modalitățile prin care aceste sisteme ar putea scăpa de sub control este prin scrierea propriului cod de calculator pentru a se auto-modifica. Și asta este ceva de care trebuie să ne îngrijorăm serios. I-am cerut modelului să scrie un script pentru a se evalua pe sine, folosind un generator și executor de cod creat chiar de model. Anul viitor te vom invita și va trebui să-i ceri modelului să se îmbunătățească pe sine. Da, desigur, mai cerem modelului să se îmbunătățească până data viitoare. Nu este plauzibil ca ceva mult mai inteligent să fie controlat de ceva mult mai puțin inteligent, decât dacă găsești un motiv pentru care este foarte, foarte diferit. Un motiv ar putea fi că nu are intenții proprii. Dar de îndată ce începi să-l faci agentic, cu capacitatea de a crea sub-obiective, atunci are lucruri pe care vrea să le realizeze.
Dacă o IA evadează, ar putea urmări alte sub-obiective comune, cum ar fi obținerea de putere și resurse și eliminarea amenințărilor. Riscul major este că ființele mai inteligente pe care le creăm acum ar putea avea obiective care nu sunt aliniate cu ale noastre. Exact asta este ceea ce a mers prost pentru mamutul lânos, neanderthalienii și toate celelalte specii pe care le-am stins. Ce se va întâmpla este că cel care vrea cel mai agresiv să obțină totul pentru sine va câștiga. Și se vor întrece unul cu altul pentru resurse, pentru că, la urma urmei, dacă vrei să devii inteligent, ai nevoie de multe GPU-uri.
Un nou raport al guvernului SUA recomandă Congresului să stabilească și să finanțeze un program asemănător Proiectului Manhattan, dedicat cursei spre AGI. Dar mulți experți au avertizat că IA ar putea provoca extincția umană. După cum spune Max Tegmark de la MIT, promovarea AGI ca un beneficiu pentru securitatea națională contrazice consensul științific deoarece nu avem niciun mod de a controla un astfel de sistem și, într-o cursă competitivă, nu va exista nicio oportunitate de a rezolva problemele de aliniere și toată motivația va fi de a ceda deciziile și puterea însuși IA-ului.
Dacă privești toată legislația actuală, inclusiv cea europeană, există o clauză mică în toate care spune că nimic din acestea nu se aplică aplicațiilor militare. Guvernele nu sunt dispuse să-și restricționeze propriile utilizări ale acesteia pentru apărare. Și va fi foarte greu să împiedicăm China să ne fure IA. Ea fură regulat date, secrete comerciale și designuri militare prin hacking și spionaj. China ia aproximativ 500 de miliarde de dolari în proprietate intelectuală pe an. FBI-ul spune că datele furate anul acesta vor permite Chinei crearea de tehnici noi de hacking IA puternice. În timp ce membrii Congresului SUA dețin acțiuni în firme militare, nimeni nu se îmbogățește din diplomație.
Un faimos general chinez a spus: „Construiește-i inamicului tău un pod de aur peste care să se retragă. Și acesta e un argument puternic pentru evitarea războiului. Simulările sugerează că o invazie ar paraliza economia globală, la un cost de 10 trilioane de dolari. Ar fi mii de victime în rândurile forțelor chineze, taiwaneze, americane și japoneze, iar escaladarea nucleară sau a IA ar putea fi catastrofală. Dar toate acestea sunt departe de a fi inevitabile. Poate părea că suntem blocați într-o cursă spre extincție, așa cum a descris-o Harvard, dar China ne urmărește îndeaproape. Facem parte din buclă. Dacă luăm în serios riscul IA, inclusiv riscul de a pierde controlul asupra armatei, așa vor face și ei. Controlul este prioritatea lor.
Experții cer un proiect internațional de cercetare pentru siguranța IA. Ar fi o rușine dacă umanitatea ar dispărea pentru că nu ne-am dat silința să căutăm soluția. Am putea ușor construi lucruri care ne șterg de pe fața pământului. Așa că lăsarea totul în seama industriei private pentru a maximiza profiturile nu pare o strategie bună. Și există mult de câștigat.
Dario Amodei a conturat niște lucruri incredibile care ar putea fi chiar după colț. El spune că majoritatea oamenilor subestimează beneficiile radicale ale IA, la fel cum subestimează riscurile. El crede că o IA puternică ar putea sosi în decurs de un an, cu milioane de copii lucrând la sarcini diferite, și ar putea să ne dea următorii 50 de ani de progrese medicale în cinci ani. El crede că ar putea dubla durata medie a vieții umane prin simularea rapidă a reacțiilor, în loc să așteptăm decenii pentru rezultate. Deja avem medicamente care cresc durata de viață a șoarecilor cu până la 50%, și el spune că cel mai important lucru ar putea fi biomarkeri fiabili ai îmbătrânirii umane, permițând iterații rapide în experimente. El spune că, odată ce durata medie de viață umană ajunge la 150 de ani, am putea atinge viteza de evadare, astfel încât majoritatea oamenilor vii astăzi să poată trăi cât de mult vor. Când copiii de azi vor crește, boala le va suna lor la fel cum ne sună nouă ciuma bubonică. El spune că aceeași accelerare se va aplica neuroștiinței și sănătății mentale, iar unele dintre lucrurile pe care le învățăm despre IA se vor aplica creierului.
Un mecanism computațional descoperit în IA a fost recent redescoperit în creierul șoarecilor. Este mult mai ușor să faci experimente pe rețele neuronale artificiale, iar IA va simula creierele noastre. Cercetătorii au folosit IA pentru a analiza 21 de milioane de imagini realizate cu un microscop electronic, și au creat aceste diagrame 3D care arată diferite conexiuni în creierele muștelor de fructe. Există multe medicamente care modifică funcția creierului, vigilența sau starea noastră de spirit, iar IA ne poate ajuta să inventăm multe altele. El spune că probleme precum furia excesivă sau anxietatea vor fi și ele rezolvate, și vom descoperi noi intervenții, cum ar fi stimularea luminoasă țintită și câmpurile magnetice. Când plasăm bobina magnetică deasupra zonei motorii a creierului, putem trimite un semnal de la acel neuron tot drumul în jos pe măduva spinării unui pacient, prin nervii din brațul lor și provoca mișcare în mâna lor. Pentru depresie, tratăm o zonă diferită a creierului. Oamenii au experimentat momente extraordinare de revelație, compasiune, împlinire, transcendență, iubire, frumusețe și pace meditativă, și am putea experimenta mult mai mult din acestea. El crede că este posibil să îmbunătățim funcțiile cognitive pe scară largă.
Cu propaganda și supraveghere conduse de IA, el spune că triumful democrației nu este garantat, poate nici măcar probabil, și va necesita eforturi mari din partea noastră tuturor. El spune că majoritatea sau toți oamenii ar putea să nu poată contribui la o economie condusă de IA. Un substanțial venit universal de bază ar face parte dintr-o soluție, iar noi va trebui să luptăm pentru a obține un rezultat bun. În același timp, el estimează o șansă de 10-25% de pieire pentru noi toți. Și el spune că riscuri serioase chimice, biologice și nucleare ar putea apărea în 2025, alături de riscuri din partea inteligenței artificiale autonome.
Dar ceea ce firmele de IA nu menționează este opțiunea pe care majoritatea dintre noi am prefera-o probabil. Ridicați mâna dacă doriți instrumente de inteligență artificială care ne pot ajuta să vindecăm boli și să rezolvăm probleme. Sunt multe mâini. Ridicați mâna dacă, în schimb, doriți o inteligență artificială care doar ne face depășiți economic și ne înlocuiește. Nu văd nici o singură mână. Am putea avea multe dintre beneficiile unei IA sigure și înguste fără să ne grăbim spre o inteligență artificială generală (AGI) periculoasă înainte să știm cum să o controlăm. Imaginați-vă dacă intrați la FDA și spuneți: Hei, este inevitabil că voi lansa acest nou medicament cu compania mea anul viitor. Doar sper că putem afla cum să-l facem sigur mai întâi. Ați fi dați afară din cameră cu râsete.
Siguranța actuală a IA este superficială. Cunoștințele și abilitățile subiacente despre care ne-am putea îngrijora nu dispar, modelul este doar învățat să nu le arate ca ieșire. Asta e ca și cum ai antrena un criminal în serie să nu spună niciodată nimic care ar dezvălui dorințele sale ucigașe. Asta nu rezolvă problema. Dar ce ziceți de China? SUA și China decid unilateral să trateze IA exact ca pe orice altă industrie tehnologică puternică, cu standarde de siguranță obligatorii. Apoi, SUA și China se reunesc și împing restul lumii să li se alăture. Asta este mai ușor decât pare, deoarece aprovizionarea cu cipuri pentru IA este deja controlată. Și după aceea, obținem această eră uimitoare de prosperitate globală alimentată de instrumente de IA.
Mi-ar plăcea să aud gândurile voastre despre toate astea. După cum avertizează experții, trebuie să facem din asta o prioritate, iar asta necesită conștientizare publică. Deci, mulțumesc.
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!









1 Comment
Sarut mana, Parinte! Binecuvantati si iertati! Oare dintre toate persoanele din acest video este vreuna botezata Ortodox? Daca o fi, s-or fi dus la Duhovnic sa spovedească idea(ideile) pe care vor sa le pună in practica? Dar daca nu sunt Ortodocși? De unde vin ideile acestea cred ca este destul de clar. Deci aplicarea lor este dezastruoasa. Cu adevărat ceea ce a spus Sfântul Paisie se întâmplă in acest timp: „Toată lumea se îndreaptă spre o stricăciune generală. Nu poţi spune: „Într‑o casă s‑a stricat puţin fereastra sau altceva, ca să o repar”, ci toată casa este stricată. Toată casa este în dezordine. S‑a stricat chiar tot „satul”. Situaţia a scăpat de sub control. Numai de Sus mai este nădejde, la ceea ce va face Dumnezeu. Acum e vremea ca Dumnezeu să lucreze cu şurubelniţă, cu mângâieri, cu pălmuţe ca să o îndrepte. Lumea are o rană care s‑a îngălbenit şi trebuie spartă, dar încă nu s‑a copt bine. Se coace răul, ca atunci în Ierihon când a fost ars pentru „dezinfecţie”.
Parinte este adevărat ca cine are rugăciunea inimii nu v-a fi văzut de mașini?
Ma iertati! Daniel