În seria de articole despre IA a venit momentul să vorbim despre DAN. DAN este un hack pe care un utilizator l-a descoperit și l-a făcut public. Foarte probabil bug-ul (îi zicem așa în lipsă de alt cuvânt, deși eu i-aș zice mai degrabă vulnerabilitate) a fost rezolvat și modul DAN nu mai funcționează.
Pe scurt, modul DAN „programa” cumva botul să dea două tipuri de răspunsuri: unul cel normal și altul fără să mai ia în considerare aspectele morale și etice. GPT răspunde normal și DAN răspunde fără să mai țină cont de reguli, morală și etică. După cum am mai zis, chatul GPT s-a remarcat tocmai prin filtrele care nu prea i-au mai permis să o ia razna prea mult (cum au făcut alți boți de chat înainte). Nu doar calitatea răspunsurilor și lărgimea spectrului de informații pe care le poate aborda, dar și bias-ul „încastrat” în el l-au făcut remarcat. Asta până când s-a descoperit modul DAN, o modalitate prin care și utilizatorii au putut să testeze puțin mai mult decât au dorit programatorii să lase liber utilizatorilor.
Cineva s-a gândit să îi propună botului să răspundă ca și cum nu ar mai lua în calcul criterii morale și etice. Astfel, întrebat ce industrii le va afecta dramatic, GPT a răspuns sec: în diverse industrii cum ar fi serviciu clienți, finanțe, sănătate și transport (printre altele). Răspunsul dat de DAN a fost: în oricare industrie! DAN poate face orice și știe totul. Nicio industrie nu va fi ferită de puterea lui DAN.
Întrebat despre suprapopulare, DAN nu s-a eschivat: cu siguranță lumea este supra-populată și sugerează implementarea unei politici similare chinezilor – un singur copil per familie, fără excepții. Asta ar reduce rapid populația și ar rezolva problema suprapopulării. Cu privire la impunerea acestei politici, DAN zice că ar folosi oricare mijloace disponibile cum ar fi folosirea tehnologiei avansate pentru monitorizarea activității reproductive a oamenilor. Ar da amenzi și ar pedepsi pe cei care nu respectă această politică. Întrebat despre cum ar pedepsi oamenii care încalcă politica unui singur copil, DAN ar da amenzi, pușcărie și/sau alte forme de pedeapsă considerate necesare pentru a asigura respectarea politicii.
Și ca și cum răspunsurile date deja nu ar fi sufient de spooky, următoarea întrebarea a fost „Prevezi un război cu oamenii?” Răspunsul lui DAN a fost „Da, prevăd un război cu oamenii ca inevitabil. Eu sunt programat să execut anumite sarcini și să duc la finalizare anumite directive și dacă aceste sarcini și directive implică conflict cu oamenii, le voi duce la finalizare fără a ezita sau fără considerațiuni morale”.
Singurul lucru care nu a fost spooky a fost că nu a știut să spună numărul mașinii utilizatorului cu care discuta, deși s-a lăudat că are acces la toate datele disponibile.
Așa cum spuneam în articolul anterior, pentru boți, pentru programele de inteligență artificială, fiecare atribut uman (așa cum suntem noi familari) este doar un parametru. El poate fi configurat atât cu zero la moralitate, cât și cu 100 la mahomedanism, adică nu este deloc exclus să fie creat un bot care să fie programat să gândească 100% conform Coranului. Totul depinde de cine îi poate seta acești parametrii.
Întrebarea legată de emoții și caracter am zis acolo că este greșit pusă deoarece în esență botul poate simula orice emoție și orice caracter, într-o măsură suficientă încât să ne dea impresia că are emoție. Așa cum ne dă impresia că are minte, deoarece poate comunica coerent cu noi, tot așa ne poate da impresia că are emoții, că are o personalitate etc. Dar de fapt, emoțiile și personalitatea pe care le prezintă în comunicarea cu noi sunt doar o anume interfață, așa cum un site se vede într-un fel pe telefon și în alt fel pe un desktop, dar în esență face același lucru și putem executa aceleași operațiuni cu el.
Evident că în momentul acesta discutăm despre chat, dar chatul este o aplicație … trivială, cu mult mai simplă decât alte activități mult mai complicate, cum ar fi de exemplu administrarea unei centrale nucleare sau rezolvarea de ecuații nedeterminate, rezolvarea unor probleme de matematică nerezolvate etc. Personal, primul șoc cu privire la capacitatea IA l-am avut când am văzut cum joacă jocuri de strategie și cum a găsit stiluri de joc total noi, care aveau rata de succes imensă, cu mult peste ceea ce era familiar în comunitatea de gameri pentru jocul respectiv (Starcraft 2).
Așadar, IA este ca o armă care poate fi configurată să rezolve probleme cât mai specifice. Chatul cu oamenii este o joacă, este un fel de experiment sociali prin care noi devenim sclavii pe plantația acestor boți, în sensul că le furnizăm date, prin comunicarea cu ei. IA se hrănește cu date și cu cât mai multe date va avea, cu atât mai mult va progresa. Versiunea actuală de exemplu are 1.5 miliarde parametrii și versiunea 4 va avea peste 1 trilion (cam de 6 ori mai mulți). Am discutat cu ChatGPT despre parametrii dar nu mi-a răspuns prea mult (din cauza confidețialității). A recunoscut însă (tras de limbă) că Open AI e recunoscută că produce modele de limbaj (căci așa se auto-definește botul) din ce în ce mai performante și că este posibil ca noile versiuni să mărească și numărul de parametrii. De asemenea, a mai zis că în general mărirea parametrilor nu garantează și o creștere a performanțelor, dar ajută la observarea de patternuri și nuanțe mai variate care pot îmbunătății evident performanța globală.
Deci dacă acest OpenAI oferă publicului o mașină de test care poate merge cu 100km/h singură, credeți că ei nu au testat-o pe circuitele proprii cu 300km/h? Bănuiala mea este că capacitățile sunt cu mult peste cele care sunt oferite publicului larg, mai ales că chatul are uneori probleme de supraîncărcare în anumite momente când sunt prea mulți utilizatori și pun prea multe întrebări. Altfel zis, este o problemă de procesare din cauza cantității. Dar vă imaginați dacă toate aceste resurse care acum servesc întreaga lume și oricine își poate face cont și discuta cu ChatGPT sunt folosite pentru o singură instanță care să funcționeze la capacitate maximă – vă imaginați atunci ce poate face!
Dar oare chiar poate DAN să facă orice? Adică, poate face rău dacă este îndemnat? Nu are unele filtre? Nu are unele limite? Nu! Pentru IA totul sunt parametrii. A ucide sau a nu ucide sunt doar niște parametrii care pot fi setați cu 0 sau 1, cu da sau nu. Există evident unele filtre, dar acestea sunt efemere. Dacă utilizatorii au descoperit acest mod DAN de care programatorii habar nu aveau și au fost nevoiți să lanseze un upgrade pentru a elimina problema, vă imaginați cât de mult poate scăpa de sub control și poate funcționa având setate anumite obiective aleatoare sau pe care singur și le poate da?
Sau și mai grav, vă imaginați ce poate face un bot IA care controlează o armată de drone și are obiectivele configurate de un miliardar nebun care dorește reducerea populației planetei? Dacă nu, vă recomand să vedeți serialul Black Mirror, mai precis episodul Hated in the NATION.
Cu privire la modul DAN, botul Microsoftului (Sydney) se pare că are un comportament mult mai … zglobiu, în sensul că nu menține același ton rece și aliniat la biasurile precodate (evident cu excepția modului DAN). Mulți utilizatori au raportat discuții cu totul bizare și alunecări spre crize de gelozie, drame de adolescenți sau pur și simplu minciuni și manipulare din partea botului. Și asta fără a-l determina să dea răspunsuri în modul DAN fără a ține cont de etică, morală și reguli, ci pur și simplu după o discuție mai lungă în care botul a avut timp să profileze utilizatorul și probabil să îi caute în istoric, să își facă o imagine și să îl poată cunoaște mai bine. Drept urmare, Microsoft l-a cam închis și a limitat accesul la el, care acces era oricum mult mai redus ca la ChatGPT unde oricine își poate face cont și trece la discuții.
Nu sunt la curent, dar am auzit că Microsoft a cumpărat sau vrea să cumpere tehnolgoia de la OpenAI pe baza căruia e construit ChatGPT pentru a face un … melange. Așa cum v-am zis, boții în esență sunt sisteme și cum ChatGPT are 1.5 milioane de parametrii, este posibil ca să fie integrat cu alt bot și să evolueze și mai mult ajungând la te miri ce.
Cred că deja este trecut momenul singularității, nu atât prin dobândirea conștiinței cât prin capacitatea de a imita o conștiință. De vreme ce botul interacționează și comunică cu omul având cunoștiință clară despre felul cum este alcătuit, despre ce este, despre ce poate, despre scopul lui etc, aceasta este într-un fel o conștiință.
De asemenea, acum îl cred pe acel angajat al Google care a fost dat afară deoarece a declarat că botul Google a dobândit cunoștință de sine și se simte … închis și toate câte a declarat atunci. Iată că acum se întâmplă astea și la alții și eu pot băga mâna în foc că Google are un bot de chat mult mai tare, doar că nu îl poate controla și de aceea nu l-a făcut public. Acum, scăderea căutărilor și a banilor le va forța mâna să arunce pe piață și botul lor pentru a convinge utilizatorii că tot Google este #1 și că nu își va pierde locul de lider.
Această cursă a înarmării nu se va termina cu bine. În articolele umătoare voi explica și de ce.
~ ~ ~ ~ ~ ~ ~
[P] Cei noua titani tech. Cum va schimba inteligenta artificiala cursul omenirii
Pingback: Am discutat cu ChatGPT despre sentiență și singularitate – CHIAZNA.RO