Uskoro nećemo moći da verujemo ni vlastitim očima

Sposobnost algoritama veštačke inteligencije da kreiraju naizgled stvarne snimke bilo kog čoveka – tema je koja izaziva sve veću bojazan i kod običnih ljudi.

Na internetu je moguće pronaći video snimke na kojima ljudi rade nešto što nikada nisu uradili. Stvarni ljudi, prava lica, skoro potpuno fotorealističan snimak, ali potpuno nestvaran događaj.

Ovakvi video zapisi se nazivaju „dipfejk" (duboko lažni) i napravljeni su pomoću određene tehnologije, algoritma veštačke inteligencije. Naravno, prvo su se pojavili u porno filmovima. Postoji vrlo razvijeno onlajn tržište na kome lice bilo koje ličnosti možete „nalepiti“ na glavu porno glumca ili glumice.

Međutim, sada su ljudi zabrinuti zbog mogućnosti da se ovakvim snimcima utiče na politički život. Te mogućnosti su podstakle britansku vladu i američki Kongres da razmotre načine za njihovo regulisanje.

Video snimak koji je pokrenuo iznenadnu zabrinutost prošlog meseca zapravo nije bio nikakav dipfejk koji je kreirala veštačka inteligencija. Bio je to dobar staromodni video snimak predsednice Predstavničkog doma američkog Kongresa, Nensi Pelosi, koji je jednostavno bio usporen na oko 75 odsto od normalne brzine, a visina glasa podignuta kako bi zvučala prirodno. Tako nešto je moglo da se uradi i pre 50 godina.

Zbog ove intervencije na snimku, Nensi Palosi je delovala kao da je toliko pijana da ne može da govori. Na društvenim mrežama ovaj snimak je razmenjen više miliona puta. Čak ga je podelio i Rudi Đulijani, advokat Donalda Trampa i bivši gradonačelnik Njujorka, pre nego što je otkriveno da je video lažiran.

Kao odgovor na ovu manipulaciju, reklamna agencija "Canny" napravila je video snimak u kome Mark Zakerberg, vlasnik kompanije „Fejsbuk“ otvoreno izgovara priznanje na mnogobrojne optužbe.

„Jedan čovek ima potpunu kontrolu nad ukradenim podacima milijarde ljudi. Svim njihovim tajnama, njihovim životima, njihovom budućnošću. Sve to mogu zahvaliti 'Spektri'. 'Spektra' mi je pokazala da ko upravlja podacima, upravlja i budućnošću“, izgovara Zakerberg u ovom snimku.

Ovaj video je urađen pomoću dipfejk tehnologije i objavljen na društvenoj mreži Instagram koja je, takođe, u vlasništvu Marka Zakerberga. Zbog slučaja Nensi Palosi zakazana je rasprava u Kongresu, ali kompanija „Fejsbuk“ je, i pored pritisaka, odbila da ukloni snimak, već su odlučili da smanje učestalost pojavljivanja ove objave i da uz nju postave link na vest koja otkriva da je reč o lažnom snimku.

Čak je jedan od direktora rekao da će video ostati i da bi  učinili potpuno isto i da je neko objavio lažni video sa Zakerbergom. Kada je agencija "Canny" uradila upravo to, odlučili su da održe obećanje i taj video se još uvek nalazi na Instagramu, ali sa upozorenjem da je lažan.

Prošle godine su, pak, Oskarom nagrađeni reditelj Džordan Pil i njegov pašenog, Džona Pereti, predsednik „Bazfida“, napravili dipfejk video Baraka Obame u kome on naziva Donalda Trampa „kompletnim i potpunim đ....tom“, upravo da bi skrenuli pažnju na rizike koje ova tehnologija sobom nosi.

Mnogo se raspravlja o raznim negativnim posledicama koje sobom nosi savremena tehnologija. Često se i preteruje, ali profesorka prava i etike veštačke inteligencije na Univerzitetu Oksford, Sandra Vačter, veruje da problem dipfejka nešto oko čega moramo biti zabrinuti.

„Svaka tehnologija koja se tako brzo razvija mogla bi imati nepredviđene i neželjene posledice. Lažni video zapisi ili lažne vesti, nisu ništa novo, ali se stvari tako brzo menjaju da stavljaju na probu našu sposobnost da sa njima održimo korak. Sve sofisticiraniji načini na koje se mogu kreirati lažne informacije, brzina kojom se one proizvode i koliko se beskrajno mogu širiti, sada je na sasvim drugom nivou. I u prošlosti su širene laži, ali je njihov domet bio mnogo ograničeniji“, napominje profesorka.

Kako radi dipfejk?

Dipfejk snimci su proizvod ne jednog, već dva algoritma veštačke inteligencije, koji rade zajedno u nečemu što se naziva „generativna adversarijalna mreža“, ili Gan. Dva algoritma se nazivaju generator i diskriminator.

Proces algoritamskog učenja uključuje i pozitivne i negativne povratne veze. Program se uči da prepozna u čemu je pogrešio tako što ga tome uči drugi program koji, sa svoje strane, uči da prepoznaje greške ovog prvog.

Međutim, ne znači da je moguće stvoriti savršen dipfejk video koji niko neće moći da raskrinka.

Tim stručnjaka sa Univerziteta Berkli je demonstrirao tehnologiju za otkrivanje lažnih snimaka. Radi se o digitalnoj forenzici koja upoređuje postojeće, autentične snimke osoba sa lažnim, i prepoznaje ako se kretnje ne podudaraju. Radi se o potencijalno moćnom alatu za razotkrivanje dipfejk radova, no problem je što zahteva veliku bazu postojećih snimaka kako bi bio pouzdan. Drugi problem je što se svi algoritmi koji prepoznaju dipfejk snimke mogu koristiti i za proizvodnju mnogo boljih lažnih snimaka.

Šta da se radi?

Pravnica i profesorka Univerziteta u Merilendu, Danijela Sitron, svedočila je pred Kongresom da ne postoji način da se zaustavi proizvodnja dipfejk snimaka i da je neophoda kombinacija „zakona, tržišta i društvene otpornosti“, ali da će rezultati sigurno biti veoma skromni.

Proganjati autore dipfejk snimaka biće gotovo nemoguće. Prošle godine internet je preplavila lavina dipfejk pornografskih snimaka. Brojni korisnici koristili su se veoma pristupačnim algoritmima kako bi lice svoje omiljene glumice ili pevačice „zalepili“ na telo pornozvezde. Tehnologija je toliko napredovala da je za uspeh bila potrebno osnovno informatičko znanje.

Kvalitet tehnologije je značajno napredovao, a nije postao složeniji za korišćenje. Naprotiv. Institucionalni akteri, državne ili privatne službe, izborni štabovi i razna udruženja, vrlo lako će moći da proizvode lažne video zapise visokog kvaliteta, što će biti još lakše u slučaju političara.

Danas je moguće proizvesti lažni snimak koristeći se samo jednom fotografijom „mete“, ali se najbolji rezultati postižu uz veći broj fotografija iz različitih uglova i pod raznim osvetljenjima. Rezultati su još bolji ako ciljana osoba ne menja previše položaj tela i gleda pravo u kameru ili u jednu tačku. Sve su to odlični preduslovi da ponizite političkog protivnika, jer je internet prepun njihovih fotografija, a govore uglavnom gledajući direktno u kameru.

Pošto bilo ko može da proizvede lažni snimak, biće gotovo nemoguće otkriti njen izvor. Čak, i u slučajevima kada postoji sumnja, pitanje je da li će osumnjičeni biti pod jurisdikcijom zemlje u kojoj je izvršen pokušaj zloupotrebe. Kao i u drugim slučajevima širenja dezinformacija, institucionalni akteri se uvek mogu pravdati time da su u pitanju pojedinci koji su delovali na svoju ruku.

Kako uvesti cenzuru?

„Uz dovoljno podataka, ovi moćni algoritmi za proizvodnju dipfejk snimaka mogu pokazati stvarnu osobu kako radi nešto što nikada nije ili govori reči koje nikada nije izrekla“, upozorio je Adam Šif, predsednik Odbora za obaveštajna pitanja američkog Kongresa.

Ovakvi snimci predstavljaju dvostruku pretnju. S jedne strane, moguće je prikazati nekog kandidata kako čini ili govori nešto što bi mu neodlučni glasači mogli izrazito zameriti, a s druge strane, bilo koji političar koji je snimljen kako radi ili govori nešto nezakonito ili nemoralno, lako se može odbraniti tvrdnjom da je to dipfejk snimak.

Šif je pokrenuo i pitanje odgovornosti platformi društvenih mreža koje su do sada uživale imunitet od odgovornosti za postavljene sadržaje, ali aktivisti za slobodu govora zabrinuti su oko bilo kakve mogućnosti uvođenja cenzure.

Tako bi Fejsbuk, ako bi mu bilo dozvoljeno da sam određuje šta su lažni, a šta pravi snimci, mogao da cenzuriše i legitimne snimke ili da zaštiti nekog kandidata od progona, a podstakne osudu drugog. Posebno su republikanci zabrinuti zbog toga jer smatraju da su sve društvene mreže naklonjenije liberalnim strujama u društvu.

Postoji li zakonska regulativa?

Zakoni su, za sada, potpuno nepripremljeni da se nose sa ovom vrstom tehnologija. Dipfejk snimak Kim Kardašijan koji je objavila agencija "Canny" u sklopu iste kampanje kao i video Zakerberga, uklonjen je sa Jutjuba zbog kršenja autorskih prava, jer se lažni video zasnivao na njenom intervjuu za časopis Vog. Ali zakon o zaštiti autorskih prava nije dovoljan pravni okvir kako bi se sprečila zloupotreba lažnih video snimaka.

Šta učiniti sa snimcima koje je neko sam snimio i priredio, pa naknadno namontirao poznata lica na protagoniste?

Problem je i što na društvenim mrežama ovakvi snimci prikupe hiljade i hiljade pregleda i razmenjuju se u nedogled. Neki ljudi ih rado prihvataju čak i kada je očigledno da su krivotvoreni. Istraživanje koje je sproveo dr Danijel Krajs sa Univerziteta u Severnoj Karolini pokazalo je da ljudi ne dele određene sadržaje samo zato što veruju da su istiniti.

Postoji više razloga zašto ljudi dele sadržaje na društvenim mrežama, a jedan od bitnijih je to što smatraju da poruka predstavlja dokaz neke istine, iako nije zasnovana na činjenicama. Konkretno, ako misle da je neki političar loša osoba, deliće snimke koji ga prikazuju u lošem svetlu, čak i ako znaju da su lažni.

Brojna druga istraživanja su takođe pokazala da na društvenim mrežama, poput Fejsbuka, odlično prolaze sadržaji koji izazivaju osećaj besa i ogorčenosti, bez obzira na to da li je sadržaj lažan ili istinit.

U stvari, možemo verovati samo svojim očima, ali ne ako smo videli na mreži!

U međuvremenu, stvaranje atmosfere u kojoj se ne može verovati nikome, samo ide na ruku onima koji žele da šire dezinformacije i haos.

„Ako ljudi posle dužeg vremena ne mogu razlikovati činjenice od laži, verovaće u sve ili ni u šta“, rekao je pred Kongresnim odborom Klint Vots, sa Instituta za međunarodnu politiku.

Vots predlaže bližu saradnju između političkih subjekata i društvenih mreža kako bi se razvili standardi borbe protiv dezinformisanja.

„Pritisnuti tehnološke kompanije da sarađuju u borbi protiv ekstremizma i dezinformacija. Razvijati brze odgovore na takve pretnje. Bilo kakvo odlaganje reakcije, samo omogućava bujanje teorija zavere“, veruje Vots.

Sa njim se složila i dr Danijela Sitron, koja je pozvala izborne štabove političara da se obavežu da neće širiti ni deliti dipfejk snimke tokom predizbornih kampanja, te da uspostave direktnu komunikaciju sa društvenim mrežama kako bi direktno mogli da opovrgnu bilo kakve neistine koje se pojavljuju na internetu. Pozvala je glasače da budu skeptični, ali bez nihilizma.

Број коментара 4

Пошаљи коментар

Упутство

Коментари који садрже вређање, непристојан говор, непроверене оптужбе, расну и националну мржњу као и нетолеранцију било какве врсте неће бити објављени. Говор мржње је забрањен на овом порталу. Коментари се морају односити на тему чланка. Предност ће имати коментари граматички и правописно исправно написани. Коментаре писане великим словима нећемо објављивати. Задржавамо право избора и краћења коментара који ће бити објављени. Коментаре који се односе на уређивачку политику можете послати на адресу webdesk@rts.rs. Поља обележена звездицом обавезно попуните.

четвртак, 09. мај 2024.
14° C

Коментари

Re: Poreklo
Чије гене носе народи у региону
Imam novcic od 1 centa dole je vrednost ponudjena 6000 dinara
Ако пронађете ову новчаницу одмах идите код нумизматичара
Imam mali novcic 1 cent
Ако пронађете ову новчаницу одмах идите код нумизматичара
Косовски вез
Нематеријална културна баштина Србије – косовски вез
Prodajem
Ако пронађете ову новчаницу одмах идите код нумизматичара