Читај ми!

Veštačka inteligencija (ne) rešava političke krize, može li „fino podešavanje“ protiv „papagajisanja“

Vanja Subotić, filozof i naučna saradnica na Institutu za filozofiju Filozofskog fakulteta u Beogradu, kaže za RTS da narativ o hladnoj i proračunatoj superinteligenciji koja će zavladati ljudima odražava naš strah od nepoznatog, koji je lako monetizovati i izmanipulisati. Slučaj grada u SAD ocenjuje kao uspešnu i kontrolisanu primenu veštačke inteligencije, ali upozorava na tendenciozan naziv samog „Guglovog“ alata i igranje na kartu antropomorfizacije. Objašnjava koje su mogućnosti VI u politici, šta je „papagajisanje“ i šta se može postići „finim podešavanjem“.

Вештачка интелигенција (не) решава политичке кризе, може ли „фино подешавање“ против „папагајисања“ Вештачка интелигенција (не) решава политичке кризе, може ли „фино подешавање“ против „папагајисања“

Ideja da filozofi treba da vladaju državom stara je skoro koliko i filozofija, i prilično je ignorisana par hiljada godina, barem u praksi. Međutim, za razliku od prirodne inteligencije, veštačka izgleda ima mnogo više sreće. Nije prošlo ni par godina od njene pojave, i već je postala politički činilac. Naravno, u Americi.

Zanimljiv ekperiment u malom gradu u Kentakiju – lokalne vlasti u Bouling Grinu (Bowling Green) organizovale su onlajn ankete u kojima se veliki broj građana, politički veoma polarizivanih kao i u ostatku SAD, tokom mesec dana izjašnjavao o mnogim pitanjima. Rezultati su zatim sintetizovani pomoću alata VI i pretočeni u izveštaj, koji je otkrio da se stanovnici zapravo slažu gotovo oko svega i koji će vlast koristiti za donošenje odluka.

O tom slučaju, o odnosu politike i VI, i njenoj odgovornoj upotrebi, za Internet portal RTS-a govorila je Vanja Subotić, filozof i naučna saradnica na Institutu za filozofiju Filozofskog fakulteta u Beogradu

Veštačka inteligencija nudi rešenja, u ovom slučaju politička, koja nisu samo rezultat podataka koje je čovek uneo, već čini suštinski iskorak time što koristi svoju logiku i sama formira zaključke. Šta mislite o ovom slučaju, da li je u pitanju puka zanimljivost ili možda najava tendencije u kojoj će granica između čoveka i mašine biti pomerene ne samo u privredi, već u i polju politike, etike, kulture?

- Za početak, mislim da je važno naglasiti da je opasno opisivati postojeće modele veštačke inteligencije kao da imaju svoju logiku ili da formiraju svoje zaključke, iako je to svakako nama ljudima intuitivan način gledanja na performanse takvih modela - antropomorfizujemo ih po ugledu na naše sposobnosti.

Model kompanije „Gugl“ korišćen u Bouling Grinu ima pomalo tendenciozan naziv, koji je upravo izabran zbog potencijalne profitabilnosti i igranja na kartu naše antropomorfizacije veštačke inteligencije, a to je "Tumač zdravog razuma" (prema eng. SenseMaker). Ovaj model je tekstualno iznesene preferencije i stavove građana kategorisao prema određenim parametrima - recimo, šta treba zanoviti od infrastrukture, koje turističke atrakcije treba staviti u prvi plan, treba li graditi dečje igralište ili benzinsku pumpu, i slično. Krajnji rezultat je bio interaktivni izveštaj koji je bio dostupan svim građanima na internetu i koji se sastojao od sažetih ideja više od 7.000 građana.

U tom smislu, ovaj model nije uneo novitet kojeg nije bilo već u podacima, već je prepoznao zajedničke šablone na osnovu podataka i izdvojio ono što građane ujedinjuje, pre nego razjedinjuje. U podeljenom društvu kakvo je američko, ovo zapravo lako može odati utisak istinskog noviteta.

Pa ipak, granica jeste pomerena u samom metodu građanske participacije - veštačka inteligencija je u ovom slučaju omogućila vraćanje idealu direktne demokratije kakva je bila u antičkoj Grčkoj.

Izvršni direktori velikih kompanija, kao dobri prodavci, takođe vide razvoj veštačke inteligencije kao način vraćanja čoveka u dokolicu, jer bi automatizacija obezbedila više slobodnog vremena, a upravo u takvim uslovima cvetaju više kognitivne sposobnosti, odnosno ljudi mogu da se posvete političkim diskusijama, intelektualnom i kreativnom radu.

Algoritmi već duže vreme suvereno upravljaju društvenim mrežama i polarizuju javnost, udaljene pozicije čine još daljim. Veštačka inteligencija izgleda deluje suprotno, kao da radi dijalektiči, praveći sintezu suprotnih pozicija. Međutim, u isto vreme, kažu da nas VI „zaglupljuje“, ugrožava razvoj kritičkog mišljenja, svodeći saznanje na prosek i opšta mesta. Da li je moguće nekako pomiriti suprotne tendencije ili tehnologiju rešavanju političkih i društvenih problema treba izbegavati i svesti na najmanju moguću meru?

- Recentna istraživanja u oblastima neuronauka i kognitivne nauke su pokazala negativan uticaj korišćenja veštačke inteligencije kao što su popularni četbotovi (ChatGPT, Claude, Gemini, DeepSeek) na kognitivne sposobnosti ljudi - manje se trudimo oko zadatka, fokusirani smo isključivo na krajnji rezultat, a ne na sam proces obavljanja zadatka, i mišljenje nam postaje uniformnije, to jest „uproseči“ se.

Entuzijasti pak ove rezultate tumače samo kao pokazatelj da je potreban veći stepen digitalne pismenosti da bi se ovi alati koristili na takav način da se izazovu pozitivne, a ne negativne posledice.

Ove suprotne interpretacije mogu da se prevaziđu izoštravanjem naših kognitivnih sposobnosti i podizanja svesti o stvarnim dometima veštačke inteligencije - umesto antropomorfizacije, treba je posmatrati kao puki alat, koji ne može da zameni u potpunosti ljudski autput.

Drugim rečima, slično kao što je internet percipiran kao opasnost po razvoj sposobnosti procesiranja i istraživanja informacija, i korišćenje veštačke inteligencije mora da prođe tu „probnu“ fazu početničkih grešaka, da bismo je integrisali u kognitivne alate.

S druge strane, jedno je automatizacija zadataka poput odgovaranja na mejlove ili pisanja tekstova, a drugo je društveno i političko odlučivanje sa praktičnim posledicama.

U tom slučaju veće etičke probleme od samog „uprosečivanja“ predstavlja algoritamska nepravda, to jest nedovoljna zastupljenost različitih demografskih, socijalnih i rodnih identiteta u postojećim skupovima podataka usled koje ovi modeli mogu sugerisati donošenje odluka baziranih na predrasudama.

Poznato je da su modeli veštačke inteligencije trenirani i „fino podešeni“ tako da budu manje ili više „pristrasni“ u odgovorima koje daju na pitanja koja su osetljiva za njihove vlasnike. Ona se u slučaju malog američkog grada pokazala kao uspešan arbitar, verovatno jer se radi o lokalnim pitanjima. Da li je moguće obučiti VI da bude neutralna i kada se radi o krupnijim pitanjima nacionalne politike, ideologije, moralnih vrednosti?

- Jedan od načina prevazilaženja algoritamske nepravde je upravo „fino podešavanje“ ili čak cenzura. Tako je Chat GPT odmah cenzurisan neposredno nakon što je pušten u korišćenje, jer ga je bilo lako navesti da podražava govor mržnje.

Uprkos ovakvim intervencijama, nijedan model nije vrednosno neutralan. To smo videli naročito u slučaju kineskog četbota Dipsik, koji je „fino podešen“ da ne daje odgovore šta se dogodilo na trgu Tjenanmen 1989. godine, ali ne zaostaju ni američki četbotovi, kada treba u razgovoru da se izjasne o geopolitičkim temama i nacionalnoj politici određenih zemalja.

Dosadašnji utisak je da svi ovi modeli veštačke inteligencije ponavljaju standardizovane odgovore u skladu sa spoljnom politikom zemalja u kojima su proizvedeni. U tom smislu, modeli veštačke inteligencije teško da su direktno neutralni.

Što se tiče moralnih vrednosti, tu su stvari daleko komplikovanije, jer postoje sporovi među samim etičarima veštačke inteligencije koje vrednosti su univerzalne i koji je najbolji način njihove implementacije u modele veštačke inteligencije, kao što su četbotovi, ali takođe je problem što etičare sami inženjeri i izvršni direktori retko za šta pitaju. Mahom je slučaj da su etički ekspertski timovi svedeni na simboličku ulogu unutar kompanije, ili se čak njihov posao delegira pravnicima, nastojeći tako da se pitanje moralnih vrednosti svede na puko poštovanje birokratskih pravnih procedura, što bi predstavljalo neki vid iznuđene izvedene neutralnosti.

Ako je jezički model veštačke inteligencije, koji je ipak samo kompjuterski softver, uspeo da pronađe kompromis i pokaže da stavovi ljudi ipak nisu tako udaljeni – šta to govori o našim stavovima i načinu na koji se formiraju? Koliko su i oni zapravo „veštački“, neautentični?

- Veliki jezički modeli su upravo modeli koji su implementirani u četbotove o kojima je do sad bilo reči. Četbot sa vama razgovara upravo zahvaljujući velikom jezičkom modelu, te se oni još nazivaju i modelima konverzacione veštačke inteligencije, ako hoćemo da baš specifikujemo na šta tačno mislimo.

Ovi modeli su zasnovani na posebnoj vrsti veštačke neuronske mreže koja uči na osnovu izloženosti velikim količinama skupova podataka, što uključuje naše objave na internetu, novinske članke, intervjue kao što je ovaj, knjige, i sve ostalo što može da vam padne na pamet.

Kao i „Tumač zdravog razuma“ upotrebljen u Bouling Grinu, veliki jezički modeli su ogledala naših nesavršenosti, kognitivnih pristrasnosti, predrasuda, i ostalih saznajnih „prečica“ i površnosti kojima smo skloni i čiji trag se nalazi u podacima za obučavanje.

Lingvistikinja Emili Bender i inženjerke Timnit Džebru i Margaret Mičel stoga nazivaju velike jezičke modele „stohastičkim papagajima“. Njihovo „uprosečavanje“ i „papagajisanje“ su pokazatelji zajedničkih, društveno oblikovanih šablona našeg govornog jezika, pa samim tim i naših površnih stavova koji čine algoritamsku nepravdu realnim problemom koji nije lako rešiti „finim podešavanjem“. Ironija je u tome da je upravo ono što nas čini neautentičnim, to jest sličnim međusobno, ujedno i ključni marker raspoznavanja konverzacione veštačke inteligencije.

Često se govori o veštačkoj inteligenciji kao opasnosti, mediji su puni apokaliptičnih scenarija o superinteligenciji koja će zavladati ljudima. Zar se VI ovde nije pokazala kao uspešan korektiv javne rasprave i demokratskog procesa?

- Narativ o hladnoj i proračunatoj superinteligenciji koja će zavladati ljudima je prisutan još od industrijske revolucije, i više odražava naš strah od nepoznatog, koji je lako monetizovati, izmanipulisati, ili usmeriti u određenom pravcu kako bi se neke druge, a bitnije, ideje i stvari provukle „ispod radara“. Slučaj Bouling Grina nam pokazuje uspešnu i kontrolisanu primenu veštačke inteligencije pre nego što je sama veštačka inteligencija nekakav korektiv demokratskog procesa. Zloupotreba je, naravno, uvek moguća, ali zloupotreba leži, opet, u rukama i namerama ljudi, a ne u samoj veštačkoj inteligenciji.

Umesto apokaliptičnih scenarija, od većeg društvenog značaja bi bila medijska pokrivenost tri teme, a to su interesi i odgovornost velikih kompanija, to jest "velikih igrača", etički aspekti razvoja modela veštačke inteligencije po svaku cenu i bez osvrtanja na pravnu regulativu, kao i prava cena razvoja ovih modela u pogledu ljudskih i prirodnih resursa.

Postoje shvatanja da je tehnologija zapravo ideologija, jer donosi duboke promene u društvu i u načinu na koji posmatramo stvarnost, čoveka, prirodu, društvo, budućnost... Da li razvoj VI, koja se često smatra novom tehnološkom revolucijom, može da znači i političku promenu, da li će joj uspeti ono što drugim ideologijama nije, u smislu približavanja idealu direktne demokratije?

- Već krajem devedesetih godina prošlog veka, a naročito od 2010-ih godina, aktivno se raspravlja među ekspertima u društveno-humanističkim naukama o uticaju tehnologije na demokratsku deliberaciju.

U skorije vreme se često govori o "algoritamskom upravljanju", to jest mogućnosti da modeli veštačke inteligencije budu posrednici u lancima demokratskih procedura odlučivanja kao "objektivniji" i "neutralniji", i kojim bi se, zarad opšteg dobra, ograničila ljudska autonomija.

Ovo se takođe prirodno povezivalo sa idejom da je možda pogrešno univerzalno pravo glasa, naročito nakon američkih izbora 2016. godine kada je Donald Tramp osvojio prvi mandat, jer neki ljudi nisu uvek u stanju da naprave "pravi" odnosno racionalni izbor (gde se racionalnost meri trenutnim ideološkim aršinima).

S druge strane, mnogi eksperti takođe upozoravaju da primena veštačke inteligencije u političkom domenu može samo doneti veći i opasniji nadzor, kao i prilike za manipulaciju građana i zloupotrebu građanske izborne volje, a u najgorem slučaju i neki vid tehnološkog paternalizma.

Posebno zabrinjavajuća pojava koja baca senku na tehnološki podržanu demokratsku deliberaciju su takozvani "deepfakes", to jest veštački generisani ili izmenjeni video ili audio zapisa napravljeni uz pomoć veštačke inteligencije tako da izgledaju ili zvuče stvarno, iako su zapravo lažni.

Možete li da zamislite svet u kojem političke odluke donosi VI? Da li vam ta ideja deluje kao utopija, distopija ili prosto medijski senzacionalizam, marketing velikih kompanija i hajp koji prati razvoj veštačke inteligencije?

- Mogu da zamislim takav svet, jer su ljudska neodgovornost i neobazrivost predmet kako mitoloških predstava karakterističnih za mnoge civilizacije, tako i klasika svetske književnosti - od Pandore koja otvara kutiju, preko Ikara koji leti preblizu Suncu uprkos upozorenjima, pa sve do Fausta koji prodaje dušu đavolu.

Međutim, van sfere zamislivosti, a u sferi uverljivosti, veštačka inteligencija koja sama donosi političke odluke je pre mešavina klik bejt strategije i trke za profitom, i odražava izostanak etike i etičara veštačke inteligencije u javnom diskursu, ali i ozbiljnijih inženjera veštačke inteligencije koji su svesni limita modela koje prave i o kojima publikuju naučne radove.

субота, 30. август 2025.
26° C

Коментари

Da, ali...
Како преживети прва три дана катастрофе у Србији, и за шта нас припрема ЕУ
Dvojnik mog oca
Вероватно свако од нас има свог двојника са којим дели и сличну ДНК
Nemogućnost tusiranja
Не туширате се сваког дана – не стидите се, то је здраво
Cestitke za uspeh
Да ли сте знали да се најбоље грамофонске ручице производе у Србији
Re: Eh...
Лесковачка спржа – производ са заштићеним географским пореклом