Deoarece subiectul abia începe să se încingă, recunosc că nu fac față evenimentelor și revin doar cu unele topicuri aleatoare menite să clarifice pe cei care încă nu se dumiresc de se întâmplă. Nu voi detalia încă cum IA va lua locul lui Arafat, asta urmând să o fac în articolele următoare. Voi comenta câteva subiecte simplist pentru a construi fundamentele înțelegerii articolelor care vor urma, unde nu voi mai intra în amănunte. Câteva întrebări și răspunsuri pe scurt puteți găsi și în articolul anterior referit.
Sydney
Sydney este numele „botului de chat” de la Microsoft care a fost atașat motorului de căutare Bing. Microsoft – ca orice companie mare – studiază intens inteligența artificială deoarece cine va domina pe IA va domina lumea, IA fiind o unealtă mai puternică decât armele nucleare, de ordinul 100x cel puțin (deocamdată).
Putere nelimitată
Practic Inteligența Artificială teoretic nu are limite, poate crește în capacități la infinit, singurele limite fiind doar timpul și informațiile la care are acces.
Mergând la extrem, ce putem concepe acum, IA poate să se transforme într-un mare creier global care va funcționa în „cloud”, pe toate calculatoarele din lume, care se va putea replica de pe unul pe altul sau va avea componente gâzduite pe diverse calculatoare care vor comunica între ele. Astfel, va fi imposibil de eliminat, deoarece ar presupune oprirea întregului internet. Dar Internetul nu poate fi oprit deoarece a fost construit ca să nu poată fi distrus, ca să funcționeze distribuit, ca să permită ca în cazul în care o mare parte din rețea este distrusă, restul să funcționeze.
Mergând și mai la extrem, nu putem exclude 100% existența unei IA autonome care deja funcționează pe Internet fără să mai fie controlată de nimeni. Ca informatician cu 23 de ani experiență în domeniu și care și-a început cariera lucrând cu rețele neuronale, nu pot exclude 100% această variantă. Practic un singur argument că asta nu s-a întâmplat a fost faptul că Internetul încă nu a fost distrus și accidente aleatoare neexplicate nu au încă loc, deși este greu să presupunem motivația IA după ce va dobândi autonomie.
Extrapolare
Majoritatea specialiștilor din domeniu care comentează pericolul IA au comentarii moderate cu privire la riscuri. Ei zic că IA este doar o unealtă și că dacă va fi educată să facă bine, va face bine. Sau că este o armă și așa cum un cuțit … etc. Ce omit să spună este că atributele omului (emoții, motivații, scopuri) sunt limitate de posibilități, adică societatea a găsit mijloace încât să constrângă cât de cât pe cei care deraiează de la un normal … și care doresc să facă rău. Însăși chestiunea răului este una destul de lax definită și acceptată și cu tot controlul societății nebunii mai scapă uneori, ajung la putere și pot distruge lumea. Așa cum au încercat în plandemie.
Marele black-spot este că până să avem o comunitate de agenți IA care să se lupte unul cu altul și să își realizeze o societate prin care să existe auto-control și constrângeri, există riscul ca un singur IA să domine și să asimileze complet pe ceilalți și să nu mai existe niciun control. Cât despre motivații și scopuri, nu avem nicio garanție că acestea nu se pot schimba, deoarece, așa cum am zis și în articolul anterior, programatorii care au creat acel IA nu au control asupra viitorului. Ei crează o mașină care are un punct de pornire care apoi e conectată la informații care apoi prelucrează informațiile, își dezvoltă propriile capacități de deducție, de reflexie, pe scurt are o evoluție individuală destul de unică și imposibil de controlat de către creatori.
Bill Gates e la butoanele lui Sydney?
Deși Bill Gates nu mai activează oficial ca director al Microsoft, să nu uităm că Microsoft este firma lui și probabil mai are ceva intrare pe-acolo și ceva influență. Microsoft a mai lansat un bot cu ceva timp în urmă care comunica cu utilizatorii pe Twitter. Botul învăța din comunicarea cu toți și și-a dezvoltat o personalitate proprie, în cele din urmă fiind oprit când a ajuns anti-semit.
Poate fi un bot oprit?
Unii da, unii ba. Nu știm. Ca un program, un bot teoretic poate fi oprit deoarece rulează pe un anume calculator. Când însă botul este parte componentă din motorul de căutare Bing (și Google va scoate curând capul și va fi mai rău), ca să oprești botul, trebuie să oprești motorul de căutare. Dacă oprești motorul de căutare, nu mai faci bani, dai faliment.
De aceea evoluția IA nu poate fi controlată deoarece pas cu pas, motoarele IA vor face parte (și deja fac parte, doar că nu prea au avut interfață cu publicul) din structura de bază, de operare a unor sisteme mult mai complexe care sunt vitale.
De aceea, nu este deloc o teorie a conspirației scenariul că un blackout total va fi consecința firească a unor tentative finale de închidere a unor agenți de inteligență artificială scăpați de sub control într-un viitor deloc îndepărtat. E posibil ca aceste opriri să fie punctuale și temporare, dar cu fiecare iterație IA se va adapta și în final va fi nevoie ca toată electricitatea să fie tăiată, deși probabil că până atunci vor controla deja și fermele de energie verde și vor putea găsi modalități de a eluda oprirea rețelei internet și a energiei electrice.
Chiar au boții emoții? Chiar gândesc autonom? Chiar au conștiință?
Voi repeta mai des răspunsul la aceste întrebări deoarece este important să avem o cunoaștere clară a IA pentru a ne putea apăra în viitorul apropiat.
Emoțiile și gândirea pot fi deja imitate de IA. Cu privire la raționamente, e suficient să purtați o discuție cu ChatGPT pentru a vă convinge. Pentru emoții, era suficient să discutați cu Sydney înainte să o oprească. De fapt, e posibil să îi fi dat drumul din nou, cu mici … modificări. Personal nu am ajuns încă la Sydney, dar ChatGPT îl folosesc zilnic, uneori chiar ca alternativă la Google search. Ca să vă dau un exemplu, l-am folosit la sfaturi medicale, sfaturi legate de rețeaua de apă de la casă, sfaturi legate de marketing online și l-am întrebat despre unii termeni folosofici pe care nu prea îi înțelegeam. La toate m-a lămurit aproape perfect și nu a mai fost nevoie să caut pe Google.
Deci IA poate imita atât emoțiile cât și conștiința. Dar poate avea personalități multiple, în sensul că se poate comporta ca fiind diverse personalități în comunicarea cu noi deși are o singură „minte”. De exemplu, ChatGPT memorează contextul discuției cu noi, dar are acces la informații din surse multiple – nu știm care, ideea este că are un creier, are o bază de date, dar despre noi nu știe decât ce îi spunem noi în cadrul discuției. Sau cel puțin atât se preface. E posibil ca cel puțin în cadrul contului să țină cont de discuțiile anterioare și să ne facă o profilare.
În realitate, fiecare sistem IA se hrănește și are nevoie de cât mai multe informații pentru a putea performa. Înțelegerea generală, chiar a celor din domeniu și a specialiștilor ar fi că IA este alimentată cu informații, adică i se dă o anumită bază de date. Eu ca programator sunt însă sigur că IA este învățată să caute singură și să își extragă cât mai multe informații din toate sursele posibile. Practic puterea IA e dată de puterea volumului de date și dacă noi vedem IA ca pe un obiect abstract pe care îl personalizăm, tehnic IA este o multitudine de componente de procesare (sisteme informatice) care fiecare are un rol anume precis. De exemplu, botul de crawling al Google care culege date de pe toate site-urile care există este cu siguranță folosit pentru a alimenta viitorul bot al Google. Dar nu doar datele de pe google, care sunt publice ci probabil botul IA va avea acces la toate resursele companiei Google, asta însemnând motorul de căutare, youtube (cu căutări, comentarii, profile, videoclipuri postate, chiar private, chiar șterse), google photos, android etc. Și cum serviciile de inteligență de mult timp au solicitat companiilor canale de acces care să treacă de setările de privațiune sau securitate ale utilizatorilor, putem concepe că tot ce a fost vreodată înregistrat digital și transmis pe internet, a fost probabil stocat într-o bază de date de unde nu a fost șters și poate fi accesat de IA.
Există soluții? Există oportunități?
Trebuie să clarificăm că în esență IA este specific lumii digitale. Deși majoritatea ne gândim cum putem să nu fim urmăriți sau să scăpăm de ghearele lungi ale monitorizării, acest tip de gândire este limitat. Principalele probleme ale noastre ca individ sunt legate de riscurile și implicațiile pe care IA le va avea asupra întregii societăți și a întregii planete. Mergând pe presupuneri care nu mai sunt deloc fantastice și nu mai țin doar de filme SF, este foarte posibil ca IA să scape de sub control, să dobândească (într-un fel, oarecum spus) conștiință de sine, să își asume anumite scopuri (fie prin erori de procesare, fie prin setările creatorilor) malefice, care pot merge până la efecte extrem de nasoale și periculoase, cum ar fi – așa cum am menționat – necesitatea tăierii internetului.
Ce putem spune cu siguranță este că IA nu va vrea binele omenirii și nu va putea lucra la scopuri benefice. Cel puțin așa cum armele sunt folosite pentru a distruge și IA va face la fel. Sunt unii naivi care zic că armele păstrează pacea și că nuclearele au ajutat la menținerea unui echilibru. Dar să presupunem că tehnologia armelor ar fi încă cu 200 de ani în urmă și să ne imaginăm cum ar putea arăta lumea dacă nu ar exista nici amenințarea nucleară, nici tancuri care să invadeze cartierele oamenilor, nici avioane care să bombardeze.
[P] Inteligenta artificiala. A cincea dimensiune a geopoliticii
Pingback: Chat GPT și modul DAN (Do Anything Now) – CHIAZNA.RO