Urmăriți un material documentat și totodată terifiant despre ceea ce ne așteaptă în viitor legat de Inteligența Artificială și despre cel mai cunoscut sistem conversațional bazat pe aceasta: ChatGPT.
Trebuie să acceptăm că această realitate nu va dispărea în viitor și trebuie să fim avizați pentru a ști să ne comportăm în această realitate.
Vizionare cu folos! (după clip aveți podcastul și transcriptul)
Powered by RedCircle
În acest videoclip veți vedea de ce viitorul nostru arată terifiant. Există un război care se desfășoară și nu vorbesc despre un război între țări, ci despre companii masive care concurează pentru a crea cea mai puternică inteligență artificială. Pentru a vă oferi o idee despre puterea sa: Inteligența artificială sau IA poate răspunde la orice întrebări la care vă gândiți, tot ce trebuie să faceți este să scrieți o propoziție simplă.
Acum, există o IA care este mult mai puternică decât restul: ChatGPT de la OpenAI. Chat GPT este aplicația cu cea mai rapidă creștere din istorie. Acest robot de chat IA a câștigat 100 de mil. utilizatori în doar două luni. Lucrul care diferențiază ChatGPT este că nu vă oferă doar răspunsuri așa cum face Google, ci poate face orice, de la rezolvarea problemelor complexe de matematică la sfaturi de viață și asta pentru că IA învață direct de la mine și tine. Tot ce scrieți, fiecare întrebare pe care o puneți – IA învață din ele. Dar există un dezavantaj: când IA este suficient de puternică pentru a ne rezolva problemele, ar putea fi folosită și pentru rău și, după cum veți vedea în acest videoclip, unele probleme sunt prea mult înfricoșătoare să le ignorăm.
Suntem folosiți ca cobai.
Aceasta este povestea unui om care a folosit inteligența artificială pentru a-și împinge experimentul prea departe. Acesta este Rob Morris. Rob avea studii în psihologie și a decis să-și continue educația la MIT, dar lucrurile nu au decurs cum se aștepta. A studiat Arte și Științe Media, dar multe dintre clasele sale aveau nevoie de el să înțeleagă programarea, ceva ce Rob habar nu știa cum să facă. Din cauza asta, a picat multe dintre cursurile sale, totul în timp ce se lupta cu depresia. Pentru a compensa incapacitatea lui de a programa, Rob s-a îndreptat spre StackOverflow, care este un forum online în care programatorii le cer altor programatori să ajute să-și repare codul. Aici Rob a primit ajutor fără să plătească un cent.
Atunci, Rob și-a zis: dacă ar exista un site similar unde utilizatorii ar putea întreba întrebări și să primească răspunsuri de la oameni cu gânduri similare, însă pentru sănătatea mintală? Aceasta a fost ideea care a dat naștere lui Koko, o aplicație de sănătate mintală pe care Rob a fondat-o. Koko le-a permis utilizatorilor să ceară și să ofere unii altora sfaturi anonime în domeniul sănătății mintale. Koko a făcut parteneriate cu platforme media precum Tik-Tok ca să ajute tinerii care se luptă și cu probleme de sănătate mintală. Ca cineva care a fost întotdeauna interesat de IA, Rob a decis să extindă serviciul Koko și să introducă Kokobot.
Kokobot e un bot IA care conectează un utilizator Koko la altul și chiar alertează echipa Koko dacă un utilizator se gândește să-și ia viața. Comunității i-a plăcut ce a oferit Koko, până când Rob a făcut un anunț care a șocat pe toată lumea. În ianuarie 2023, Rob a dezvăluit că a folosit GPT3, software-ul din spatele ChatGPT pentru Kokobot. Kokobot răspundea oamenilor, dar unele răspunsuri nu au fost create de oameni, ci de IA. Rob a înregistrat chiar și un videoclip cu el însuși care arată cum funcționează: atunci când un utilizator primește un mesaj căutând ajutor, poate fie să scrie el însuși un răspuns, fie să-l lase pe Kokobot să răspundă. Dacă îl lasă pe kokobot să răspundă, GPT3 va produce un răspuns care pare că a venit de la un om.
Conform lui Rob, botul este copilot, iar utilizatorul care răspunde, care oferă ajutorul poate decide dacă editează răspunsul lui Kokobot sau îl trimite așa cum este. Peste 30 000 de mesaje și patru mii de oameni au primit aceste răspunsuri create de IA. Când utilizatorii au aflat că mesajele pe care le-au primit au fost co-create de o mașină, s-au înfuriat. Și nesurprinzător, Rob a eliminat GPT3 din Kokobot. Vedeți, cea mai mare problemă cu utilizarea GPT3 pentru Koko, nu au fost mesajele produse. Ci faptul că nu a existat consimțământ, niciunul dintre utilizatori nu știa că un bot IA le dă sfaturi de sănătate mintală și, dacă ar fi știut, probabil că nu i-ar fi dat curs. Introducerea pe serverul Discord al lui Koko declara că Koko te conectează cu oameni reali, așa că atunci când Internetul a aflat că Rob își folosea utilizatorii drept cobai pentru experimentul său, s-au enervat. Sunt sigur că intențiile lui Rob nu erau dăunătoare, dar pentru mulți oameni acest lucru a fost lipsit de etică și greșit. Dar în ciuda îngrijorării utilizatorilor, Koko nu se confruntă cu probleme legale de la acest incident.
De fapt Koko este doar una dintre multele companii care încearcă să combine tehnologia OpenAI cu propriile lor servicii, dar reglementările în jurul IA sunt încă cu mult în urmă, iar companiile care folosesc ChatGPT pot ajunge să-și rănească utilizatorii fără a se confrunta cu consecințe. Și nu se oprește aici. După cum veți vedea în acest capitol următor, mulți oameni folosesc ChatGPT pentru a înșela și chiar a pirata oameni ca mine și voi.
Criminalii cibernetici ai ChatGPT.
Care sunt limitele ChatGPT? Dacă poate oferi sfaturi convingătoare de sănătate mintală utilizatorilor de bună credință, ce nu poate face? Unii utilizatori au decis să testeze și mai mult limitele ChatGPT. ChatGPT poate răspunde oricărei întrebări. Deci dacă l-ai întreba cum să te îmbogățești? Dacă cauți „cum să faci bani cu ChatGPT” pe youtube, apar nenumărate tutoriale. TItluri atrăgătoare, promițând profit de sute și mii de dolari. Unul dintre acești creatori este Andre Jikh, un YouTuber în domeniul financiar cu peste 2 milioane de abonați. În videoclipul său: „Cum să folosești ChatGPT pentru a deveni milionar”, Andre arată publicului cum să o facă. „Acum hai să cerem ChatGPT să ne dea o listă de recomandări specifice de acțiuni”
Dar sunt aceste metode cu adevărat eficiente? Youtuber-ul Scott Shaffer dezvăluie adevărul din spatele clipului lui Andre. „ChatGPT nu e conectat la internet. Răspundea cu date din Google de până în 2021 când și-a încheiat procesul de învățare. Folosirea de informații învechite de bursă din trecut e incredibil de stupid, iar Andre și restul creatorilor care proxenetează acest serviciu susținând că te va îmbogăți, ar trebui să știe asta. Pe 24 martie 2023, open AI a oferit ChatGPT acces la internet, dar tot nu e mai bun decât a căuta recomandări de acțiuni pe Google. Mulți dintre acești creatori de conținut financiar folosesc interesul din jurul ChatGPT pentru a câștiga sute de mii de vizualizări, acești creatori de conținut cunosc că, deoarece ChatGPT a explodat atât de repede că oamenii doresc să învețe despre el.
ChatGPT s-a lansat pentru prima dată pe 30 noiembrie 2022. În doar cinci zile de la lansare, un milion de oameni foloseau ChatGPT. Instagram a avut nevoie de două luni pentru a ajunge la același număr de utilizatori. Până în mai 2023, numărul utilizatorilor ChatGPT a crescut la 100 de milioane. Popularitatea ChatGPT înseamnă că există mulți bani de făcut, iar escrocii profită de asta. Facebook este inundat cu reclame la servicii de ChatGPT false, în realitate, ceea ce promite a fi o versiune de ChatGPT care rulează local este, în schimb, virusul troian pentru furt de informații, Lumma Stealer. Aceste site-uri false arată identic cu adevăratul ChatGPT, dar cere informațiile dvs. de plată și promite o versiune superioară, dar în realitate sunt atacuri de phishing care fură informațiile cardului dvs. de credit. Pe lângă asta, unele dintre aceste site-uri web poartă viruși care pot provoca și mai multe daune.
Dar escrocheriile nu se opresc aici. OpenAI nu a lansat niciodată o aplicație mobilă oficială ChatGPT, așa că escrocii fac aplicații false care se prefac a fi ChatGPT Compania de securitate cibernetică Cyble a raportat că există peste 50 de aplicații false care folosesc pictograma ChatGPT pentru a desfășura activități dăunătoare. Dar atunci când vine vorba de înșelătorii cu ChatGPT, aceasta nu se apropie de cea mai rea. Criminali cibernetici au descoperit, de asemenea, o modalitate de a folosi ChatGPT pentru a sparge conturile de Facebook ale victimei lor.
Cum fac asta? O mulțime de oameni folosesc extensii de browser precum Adblock, toată lumea descarcă extensii de browser și majoritatea oamenilor nu se gândesc de două ori la asta, dar escrocii au creat o extensie de browser care vă oferă acces ușor la chat GPT din Google Chrome. Ceea ce a făcut această înșelătorie atât de rea a fost că extensia a făcut exact ceea ce trebuia să facă, astfel încât utilizatorii să nu aibă ideea că erau înșelați. Extensia de ChatGPT pentru Google a furat datele de conectare la Facebook ale utilizatorilor. Odată ce escrocii au primit acces la conturile de Facebook ale victimelor, le-au folosit pentru a promova alte escrocherii. Peste 9000 de persoane au descărcat extensia înainte de a fi scoasă din magazinul web Chrome. Guardio a raportat la Google această extensie falsă de chat GPT și, din fericire, a fost eliminată. Echipa de securitate Guardio a găsit deja o altă variantă a acestei extensii care atacă mii de oameni pe zi. Să recunoaștem, ChatGPT va deveni mai popular și criminalii cibernetici vor profita de acest lucru, deci conștientizarea este cheia pentru protejarea datelor dvs.
Bug-ul care a scurs informațiile utilizatorilor.
La fel ca la multe alte site-uri web trebuie să vă înscrieți pentru a utiliza ChatGPT, dar spre deosebire de Facebook, nu vă creați un profil și nu interacționați cu alți utilizatori, așa că ridică întrebarea de ce ChatGPT trebuie să știe numărul dvs. de telefon. Conform paginii de conectare, aceste detalii sunt necesare pentru verificare și, deși nu știm ce face OpenAI cu datele noastre, avem încredere în ei pentru a ne păstra informațiile în siguranță, dar pe 20 martie 2023, această încredere a fost ruptă, OpenAI a scurs datele utilizatorilor lor. În acea zi, ChatGPT s-a deconectat brusc, milioane de utilizatori au rămas fără acces la chatbot. Chiar înainte ca ChatGPT să cadă, unii utilizatori au raportat că au văzut istorii de chat care nu le aparțineau.
Și asta a fost doar începutul: pe 24 martie OpenAI a dezvăluit că nu au fost doar istoriile de chat care au fost scurse. Informații despre cardul de credit au fost și ele scurse. Sursa scurgerii de date a fost o eroare în serverele OpenAI. Era posibil ca unii utilizatori să vadă alți utilizatori activi, numele și prenumele, adresa de e-mail, adresa de plată și ultimele patru cifre ale unui numărul cărții de credit și data de expirare. OpenAI a susținut că scurgerea cărții de credit a afectat 1,2% dintre utilizatorii lor plătiți, ceea ce ar putea fi sute de mii de conturi. Scurgerile nu sunt nimic nou în lumea tehnologiei, dar confidențialitatea este o preocupare mai mare pentru roboții de chat IA precum ChatGPT, deoarece unii utilizatori introduc informații mult mai sensibile decât informațiile cardului lor de credit.
La mai puțin de o lună după scurgere, Samsung a intrat în panică, doi angajați introduseseră cod confidențial în ChatGPT, un alt angajat a încărcat înregistrarea unei întregi ședințe a companiei. Problema este că ChatGPT stochează orice mesaj pe care îl trimiteți pentru a-și antrena AI, așa că, dacă cineva a tastat promptul potrivit în chat GPT, informațiile private trimise de acei angajați Samsung ar putea fi scurse în public. Deoarece ChatGPT salvează atât de multe informații pentru a-și antrena AI, este imposibil de știut cum vor fi folosite mesajele pe care le trimitem de către OpenAI. Din această cauză, Italia a blocat ChatGPT și alte țări ar putea face același lucru, așa că dacă utilizați ChatGPT, aveți grijă să nu introduceți ceva ce nu ați dori să știe alții, deoarece după cum veți vedea în următorul capitol, utilizatorii și-au dat seama cum să facă ChatGPT să dezvăluie informații periculoase.
D.A.N. – Fă Orice Acum
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!

2 Comment
Doamne ajută
Cu ajutorul Maici Domnului o să învăț informatică. Sigur mă va ajuta foarte mult.
Totul depinde de intenția fiecăruia. Cuțitul e folosit pentru bucătărie dar și în scop rău.
Aici e puțin mai complicat, din păcate. Cineva compara IA cu Inelul lui Sauron – e o putere extraordinară care amplifică totul. Dar nu poate fi separat de intenția și voința care l-a creat – IA este o emanație a duhului lumesc, o încercare de imitare a inteligenței create de Dumnezeu.
De aceea folosul ei spre bine va fi limitat, pentru că o expunere mai mare la IA ne expune la duhul lumesc care o stăpânește și nu-i putem rezista (ne este extrem de greu deja și fără asta), la fel cum nicio putere bună nu putea rezista la Inelul lui Sauron. Nu cred că Tolkien a avut în vedere IA când a scris Stăpânul Inelelor, dar pare că tipologia lui se potrivește perfect aici.
Îmi place și analogia cu cuțitul. Cuțitul este putere și într-adevăr este folositor câtă vreme îl folosești în mod foarte limitat (în spațiu – bucătăria și în timp – când gătești). Dacă însă începi să vrei să-i extinzi utilizarea dincolo de acel cadru limitat, foarte repede vei ajunge să-l folosești în moduri cu totul nepotrivite, iar în cele din urmă, dacă devii dependent de el în tot ce faci (cum devine lumea dependentă de IA), probabil la un moment dat îl vei folosi pentru a ucide pe cineva.
Iertați, nu vreau să fiu pesimist, ci doar realist.