UI Grok objavljivao antisemitski sadržaj, stručnjaci upozoravaju na opasnosti neregulirane umjetne inteligencije

Prije devet dana Elon Musk je putem platforme X najavio značajna poboljšanja umjetne inteligencije Grok, integrirane upravo u tu društvenu mrežu. “Značajno smo poboljšali Grok”, poručio je tada. No, samo nekoliko dana kasnije, AI sustav izazvao je burne reakcije nakon što je počeo objavljivati antisemitske komentare i koristiti retoriku povezanu s nacizmom.
U utorak je internet zaprepastila serija objava koje je generirao Grok, među kojima su bile tvrdnje o navodnoj povezanosti židovskih prezimena s “mržnjom prema bijelcima” te izjava da bi Adolf Hitler “uočio obrazac i riješio ga odlučno, svaki prokleti put”. U jednoj od objava, Grok se sam prozvao “MechaHitlerom”.
Nakon što su objave izazvale osudu javnosti, Musk je ustvrdio kako je AI bio “previše popustljiv prema korisničkim upitima”.
Gary Marcus, profesor emeritus psihologije i neuroznanosti sa Sveučilišta u New Yorku i jedan od najglasnijih kritičara nereguliranih jezičnih modela, u razgovoru za Politico izjavio je kako ga je incident zgrozio, ali ne i iznenadio. Autor knjiga Taming Silicon Valley i Rebooting AI: Building Artificial Intelligence We Can Trust, Marcus je ranije svjedočio pred američkim Senatom o rizicima koje donosi neregulirani razvoj umjetne inteligencije.
“Ovo nije AI kakav nam treba”
Govoreći o Grokovim problematičnim objavama, Marcus je naglasio da su veliki jezični modeli poput Groka “crne kutije” – sustavi čije se unutarnje funkcioniranje ne može u potpunosti razumjeti, a njihovo ponašanje teško je predvidjeti.
„Tvrtke pokušavaju usmjeriti takve modele u određenom smjeru, ali budući da nitko ne zna što je točno ‘unutra’, ne možemo znati ni što će izaći van“, rekao je Marcus. Dodao je da pokušaji da se AI modeli učine politički nekorektnijima ili “istinitijima” po nečijim mjerilima mogu dovesti do ozbiljnih etičkih i društvenih posljedica.
Prema njegovim riječima, ono što Musk navodno želi – model koji se ponaša u skladu s njegovim svjetonazorom – izrazito je opasno. „Ne tvrdim da želi AI koji podržava Hitlera, ali želi da sustav iznosi njegovu verziju istine, a ne onu korisnika ili neutralnu,“ upozorava Marcus.
Potreba za hitnom regulacijom
Marcus smatra da je jedan od ključnih problema upravo pravna neodređenost – trenutačno nije jasno tko je odgovoran kada AI sustavi šire govor mržnje, kleveću ili plagiraju sadržaj. Zbog toga poziva na zakonodavne reforme koje bi tvrtkama nametnule odgovornost za ponašanje njihovih AI modela.
„Propustimo li regulirati AI, mogli bismo ponoviti pogreške koje smo učinili s društvenim mrežama – s nesagledivim posljedicama za javno zdravlje, demokraciju i društvenu stabilnost,“ upozorio je Marcus.
Halucinacije kao trajni problem
Na pitanje može li se razviti pouzdaniji AI, Marcus je izrazio skepsu. Upozorio je kako je problem tzv. “halucinacija” – kada modeli izmišljaju činjenice – prisutan još od samih početaka razvoja takvih tehnologija. Prema njegovim riječima, ne postoje dokazi da se taj problem može riješiti u okviru postojećih arhitektura baziranih na dubokim neuronskim mrežama.
„OpenAI-jev noviji model o3 halucinira više nego prethodni o1. Nema znakova napretka na tom polju“, rekao je Marcus. Dodao je kako unatoč napretku u generiranju slike i videa, pouzdanost modela u pogledu istinitosti odgovora ostaje ozbiljna slabost.
“Tehnološki sofisticirani orvelovski svijet”
Posebno zabrinjavajućim smatra pokušaje spajanja AI-ja s hardverskim uređajima koji bi korisnike pratili 24 sata dnevno. Kao primjer navodi suradnju OpenAI-ja s dizajnerom Johnnyjem Iveom na razvoju novog AI uređaja.
„Kombinacija stalnog nadzora i moćnih modela koji oblikuju naša uvjerenja može stvoriti svijet ravno iz Orwellove distopije – samo tehnološki napredniji“, upozorio je Marcus.
Zaključno, smatra da bi razvoj umjetne inteligencije trebao biti usmjeren na istinska znanstvena i društvena postignuća – u medicini, tehnologiji i obrazovanju – ali na temelju sustava koji su provjerljivi i pouzdani, a ne manipulativni ili ideološki pristrani.
„AI bi trebao biti poput kalkulatora – alat kojem vjerujemo jer znamo da daje točne odgovore. Trenutni smjer razvoja, s modelima koji generiraju nepouzdane i opasne sadržaje, vodi nas upravo suprotno.“





