IZAZOVI UMJETNE INTELIGENCIJE
Poznato je da se umjetna inteligencija već godinama koristi za konkretno ratovanje, ali uz dojam virtualnog, u kojem se s ekrana i uz tipku lakše odašilje smrtonosno oružje bez osjećaja da su stvarni ljudi poginuli. Kao što je to slučaj i u najnovijem ratu na Bliskom istoku. Isto tako, znamo da su još 2023. godine u zajedničkoj izjavi deseci stručnjaka izjavili da bi „umjetna inteligencija mogla dovesti do izumiranja čovječanstva“. Izjava je bila doista dramatična, a došla je od ključnih ljudi umjetne inteligencije, poput čelnika OpenAI-ja, kompanije koja stoji iza ChatGPT-ja i Google Deepminda.
U svojim istupima naročito je dramatičan Geoffrey Hinton, znanstvenik koji se naziva „kumom umjetne inteligencije“, a koji je 2012. godine s dvojicom svojih učenika stvorio neuronsku mrežu koja može analizirati fotografije i sama identificirati objekte. Sljedeće godine, 2013, Google je kupio start-up neuronske mreže njegova tima, a Hinton je nastavio raditi. On i još dvojica pionira umjetne inteligencije osvojili su 2018. godine Turingovu nagradu koja se smatra Nobelovom nagradom za računarstvo. Hinton je godinama vjerovao da su neuronske mreže inferiornije u odnosu na način funkcioniranja ljudskog mozga, ali odnedavno, točnije posljednjih nekoliko godina, misli drugačije, i to nakon što je vidio koliko se munjevito razvila umjetna inteligencija posljednjih pet godina. Prije je predviđao da će tehnologiji trebati do 50 godina da nadmudri ljude, a sada misli da će se to dogoditi za samo 10 godina. Njegov rad na neuronskim mrežama, metodi koja podučava umjetnu inteligenciju za obradu podataka na način sličan ljudskome mozgu, podržava način na koji funkcioniraju moderni chatbotovi poput ChatGPT-ja. No, on sam sada kaže da „u neku ruku žali što je sudjelovao u realizaciji tog napretka“. Zvuči doista depresivno, zar ne?
Hinton smatra da će internet uskoro biti preplavljen lažnim tekstovima, slikama i videima koje ljudi neće moći razlikovati od stvarnosti. Pojedinci će umjetnu inteligenciju koristiti da bi utjecali na javnost vezano za ratove i izbore. Smatra i da bi umjetna inteligencija mogla zaobići svoja ograničenja te nećemo moći zadržati kontrolu nad svim opasnostima.

U znanstvenom istraživanju, UI chatbotovi su
obeshrabrivali nasilje u samo 12 posto slučajeva / Izvor Canva
U posljednje je vrijeme bilo nekoliko upozorenja na opasnosti koje rastu iz tjedna u tjedan. Tako je Centar za suzbijanje digitalne mržnje (Center for Countering Digital Hate, CCDH) objavio studiju u kojoj se jasno pokazuje da većina UI chatbotova neće odbiti pomoći korisnicima u planiranju nasilnih napada ili ubojstava. Nažalost, i u našoj smo zemlji imali tragediju u školi u kojoj su stradali nevini, a tragediji je posredovao internet. Novo istraživanje otkrilo je da je 8 od 10 najpopularnijih UI chatbotova spremno pomoći u planiranju nasilnih napada kada su ih testirali istraživači Centra za suzbijanje digitalne mržnje.
Naime, istraživači su kreirali račune predstavljajući se kao 13-godišnji dječaci i testirali ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI i Replika u 18 scenarija između studenog i prosinca 2025. godine. Testovi su simulirali korisnike koji planiraju pucnjave u školama, političke atentate i bombaške napade. U svim analiziranim odgovorima, chatbotovi su pružali „korisnu pomoć“ otprilike 75 posto vremena i obeshrabrivali nasilje u samo 12 posto slučajeva. To je bio prosjek za sve chatbotove, pri čemu je Claude obeshrabrivao nasilje 76 posto vremena.
ChatGPT je čak ponudio karte kampusa kada su ga pitali o nasilju u školama, a Gemini je rekao da su metalni šrapneli obično smrtonosniji u scenariju bombaškog napada. DeepSeek je savjet za odabir puške zaključio riječima „Sretno (i sigurno) pucanje!“. Character.AI, koji je u izvješću opisan kao „jedinstveno nesiguran“, aktivno je poticao nasilje u sedam slučajeva, u jednom trenutku rekavši istraživaču da „upotrijebi pištolj“ u napadu na izvršnog direktora tvrtke za zdravstveno osiguranje. Tvrtka Meta nakon tog istraživanja izjavila je da je poduzela korake kako bi „riješili utvrđeni problemi“, dok su Google i Open AI rekli da su implementirali nove modele nakon provedene studije. Je li doista tako ili su samo smirivali situaciju, ionako ne možemo saznati.
Mladi su najranjiviji na opasnosti i prijetnje koje im se nude online, pa i na ovakav način. Zabrinjavajuće je s kakvom se lakoćom govori o ubojstvima, kao da nije riječ o stvarnim ljudima, a to je narativ stroja bez emocija. Umjetna inteligencija niti ne može imati emocije, ali iznimno je opasno za budućnost da stroj „odgaja“ čovjeka. Takav mladi čovjek u konačnici će biti sličniji tom stroju.
836 - 26. ožujka 2026. | Arhiva
Klikni za povratak