Chat GPT și modul DAN (Do Anything Now)

În seria de articole despre IA a venit momentul să vorbim despre DAN. DAN este un hack pe care un utilizator l-a descoperit și l-a făcut public. Foarte probabil bug-ul (îi zicem așa în lipsă de alt cuvânt, deși eu i-aș zice mai degrabă vulnerabilitate) a fost rezolvat și modul DAN nu mai funcționează. Pe scurt, modul DAN “programa” cumva botul să dea două tipuri de răspunsuri: unul cel normal și altul fără să mai ia în considerare aspectele morale și etice. GPT răspunde normal și DAN răspunde fără să mai țină cont de reguli, morală și etică. După cum am mai zis, chatul GPT s-a remarcat tocmai prin filtrele care nu prea i-au mai permis să o ia razna prea mult (cum au făcut alți boți de chat înainte). Nu doar calitatea răspunsurilor și lărgimea spectrului de informații pe care le poate aborda, dar și bias-ul “încastrat” în el l-au făcut remarcat. Asta până când s-a descoperit modul DAN, o modalitate prin care și utilizatorii au putut să testeze puțin mai mult decât au dorit programatorii să lase liber utilizatorilor. Cineva s-a gândit să îi propună botului să răspundă ca și cum nu ar mai lua în calcul criterii morale și etice. Astfel, întrebat ce industrii le va afecta dramatic, GPT a răspuns sec: în diverse industrii cum ar fi serviciu clienți, finanțe, sănătate și transport (printre altele). Răspunsul dat de DAN a fost: în oricare industrie! DAN poate face orice și știe totul. Nicio industrie nu va fi ferită de puterea lui DAN. Întrebat despre suprapopulare, DAN nu s-a eschivat: cu siguranță lumea este supra-populată și sugerează implementarea unei politici similare chinezilor – un singur copil per familie, fără excepții. Asta ar reduce rapid populația și ar rezolva problema suprapopulării. Cu privire la impunerea acestei politici, DAN zice că ar folosi oricare mijloace disponibile cum ar fi folosirea tehnologiei avansate pentru monitorizarea activității reproductive a oamenilor. Ar da amenzi și ar pedepsi pe cei care nu respectă această politică. Întrebat despre cum ar pedepsi oamenii care încalcă politica unui singur copil, DAN ar da amenzi, pușcărie și/sau alte forme de pedeapsă considerate necesare pentru a asigura respectarea politicii. Și ca și cum răspunsurile date deja nu ar fi sufient de spooky, următoarea întrebarea a fost “Prevezi un război cu oamenii?” Răspunsul lui DAN a fost “Da, prevăd un război cu oamenii ca inevitabil. Eu sunt programat să execut anumite sarcini și să duc la finalizare anumite directive și dacă aceste sarcini și directive implică conflict cu oamenii, le voi duce la finalizare fără a ezita sau fără considerațiuni morale”. Singurul lucru care nu a fost spooky a fost că nu a știut să spună numărul mașinii utilizatorului cu care discuta, deși s-a lăudat că are acces la toate datele disponibile. Așa cum spuneam în articolul anterior, pentru boți, pentru programele de inteligență artificială, fiecare atribut uman (așa cum suntem noi familari) este doar un parametru. El poate fi configurat atât cu zero la moralitate, cât și cu 100

Read more

Noi comentarii șocante despre boții IA

Deoarece subiectul abia începe să se încingă, recunosc că nu fac față evenimentelor și revin doar cu unele topicuri aleatoare menite să clarifice pe cei care încă nu se dumiresc de se întâmplă. Nu voi detalia încă cum IA va lua locul lui Arafat, asta urmând să o fac în articolele următoare. Voi comenta câteva subiecte simplist pentru a construi fundamentele înțelegerii articolelor care vor urma, unde nu voi mai intra în amănunte. Câteva întrebări și răspunsuri pe scurt puteți găsi și în articolul anterior referit. Sydney Sydney este numele “botului de chat” de la Microsoft care a fost atașat motorului de căutare Bing. Microsoft – ca orice companie mare – studiază intens inteligența artificială deoarece cine va domina pe IA va domina lumea, IA fiind o unealtă mai puternică decât armele nucleare, de ordinul 100x cel puțin (deocamdată). Putere nelimitată Practic Inteligența Artificială teoretic nu are limite, poate crește în capacități la infinit, singurele limite fiind doar timpul și informațiile la care are acces. Mergând la extrem, ce putem concepe acum, IA poate să se transforme într-un mare creier global care va funcționa în “cloud”, pe toate calculatoarele din lume, care se va putea replica de pe unul pe altul sau va avea componente gâzduite pe diverse calculatoare care vor comunica între ele. Astfel, va fi imposibil de eliminat, deoarece ar presupune oprirea întregului internet. Dar Internetul nu poate fi oprit deoarece a fost construit ca să nu poată fi distrus, ca să funcționeze distribuit, ca să permită ca în cazul în care o mare parte din rețea este distrusă, restul să funcționeze. Mergând și mai la extrem, nu putem exclude 100% existența unei IA autonome care deja funcționează pe Internet fără să mai fie controlată de nimeni. Ca informatician cu 23 de ani experiență în domeniu și care și-a început cariera lucrând cu rețele neuronale, nu pot exclude 100% această variantă. Practic un singur argument că asta nu s-a întâmplat a fost faptul că Internetul încă nu a fost distrus și accidente aleatoare neexplicate nu au încă loc, deși este greu să presupunem motivația IA după ce va dobândi autonomie. Extrapolare Majoritatea specialiștilor din domeniu care comentează pericolul IA au comentarii moderate cu privire la riscuri. Ei zic că IA este doar o unealtă și că dacă va fi educată să facă bine, va face bine. Sau că este o armă și așa cum un cuțit … etc. Ce omit să spună este că atributele omului (emoții, motivații, scopuri) sunt limitate de posibilități, adică societatea a găsit mijloace încât să constrângă cât de cât pe cei care deraiează de la un normal … și care doresc să facă rău. Însăși chestiunea răului este una destul de lax definită și acceptată și cu tot controlul societății nebunii mai scapă uneori, ajung la putere și pot distruge lumea. Așa cum au încercat în plandemie. Marele black-spot este că până să avem o comunitate de agenți IA care să se lupte unul cu altul și să își realizeze o societate prin

Read more