Ускоро нећемо моћи да верујемо ни властитим очима

Способност алгоритама вештачке интелигенције да креирају наизглед стварне снимке било ког човека – тема је која изазива све већу бојазан и код обичних људи.

На интернету је могуће пронаћи видео снимке на којима људи раде нешто што никада нису урадили. Стварни људи, права лица, скоро потпуно фотореалистичан снимак, али потпуно нестваран догађај.

Овакви видео записи се називају „дипфејк" (дубоко лажни) и направљени су помоћу одређене технологије, алгоритма вештачке интелигенције. Наравно, прво су се појавили у порно филмовима. Постоји врло развијено онлајн тржиште на коме лице било које личности можете „налепити“ на главу порно глумца или глумице.

Међутим, сада су људи забринути због могућности да се оваквим снимцима утиче на политички живот. Те могућности су подстакле британску владу и амерички Конгрес да размотре начине за њихово регулисање.

Видео снимак који је покренуо изненадну забринутост прошлог месеца заправо није био никакав дипфејк који је креирала вештачка интелигенција. Био је то добар старомодни видео снимак председнице Представничког дома америчког Конгреса, Ненси Пелоси, који је једноставно био успорен на око 75 одсто од нормалне брзине, а висина гласа подигнута како би звучала природно. Тако нешто је могло да се уради и пре 50 година.

Због ове интервенције на снимку, Ненси Палоси је деловала као да је толико пијана да не може да говори. На друштвеним мрежама овај снимак је размењен више милиона пута. Чак га је поделио и Руди Ђулијани, адвокат Доналда Трампа и бивши градоначелник Њујорка, пре него што је откривено да је видео лажиран.

Као одговор на ову манипулацију, рекламна агенција "Canny" направила је видео снимак у коме Марк Закерберг, власник компаније „Фејсбук“ отворено изговара признање на многобројне оптужбе.

„Један човек има потпуну контролу над украденим подацима милијарде људи. Свим њиховим тајнама, њиховим животима, њиховом будућношћу. Све то могу захвалити 'Спектри'. 'Спектра' ми је показала да ко управља подацима, управља и будућношћу“, изговара Закерберг у овом снимку.

Овај видео је урађен помоћу дипфејк технологије и објављен на друштвеној мрежи Инстаграм која је, такође, у власништву Марка Закерберга. Због случаја Ненси Палоси заказана је расправа у Конгресу, али компанија „Фејсбук“ је, и поред притисака, одбила да уклони снимак, већ су одлучили да смање учесталост појављивања ове објаве и да уз њу поставе линк на вест која открива да је реч о лажном снимку.

Чак је један од директора рекао да ће видео остати и да би  учинили потпуно исто и да је неко објавио лажни видео са Закербергом. Када је агенција "Canny" урадила управо то, одлучили су да одрже обећање и тај видео се још увек налази на Инстаграму, али са упозорењем да је лажан.

Прошле године су, пак, Оскаром награђени редитељ Џордан Пил и његов пашеног, Џона Перети, председник „Базфида“, направили дипфејк видео Барака Обаме у коме он назива Доналда Трампа „комплетним и потпуним ђ....том“, управо да би скренули пажњу на ризике које ова технологија собом носи.

Много се расправља о разним негативним последицама које собом носи савремена технологија. Често се и претерује, али професорка права и етике вештачке интелигенције на Универзитету Оксфорд, Сандра Вачтер, верује да проблем дипфејка нешто око чега морамо бити забринути.

„Свака технологија која се тако брзо развија могла би имати непредвиђене и нежељене последице. Лажни видео записи или лажне вести, нису ништа ново, али се ствари тако брзо мењају да стављају на пробу нашу способност да са њима одржимо корак. Све софистициранији начини на које се могу креирати лажне информације, брзина којом се оне производе и колико се бескрајно могу ширити, сада је на сасвим другом нивоу. И у прошлости су ширене лажи, али је њихов домет био много ограниченији“, напомиње професорка.

Како ради дипфејк?

Дипфејк снимци су производ не једног, већ два алгоритма вештачке интелигенције, који раде заједно у нечему што се назива „генеративна адверсаријална мрежа“, или Ган. Два алгоритма се називају генератор и дискриминатор.

Процес алгоритамског учења укључује и позитивне и негативне повратне везе. Програм се учи да препозна у чему је погрешио тако што га томе учи други програм који, са своје стране, учи да препознаје грешке овог првог.

Међутим, не значи да је могуће створити савршен дипфејк видео који нико неће моћи да раскринка.

Тим стручњака са Универзитета Беркли је демонстрирао технологију за откривање лажних снимака. Ради се о дигиталној форензици која упоређује постојеће, аутентичне снимке особа са лажним, и препознаје ако се кретње не подударају. Ради се о потенцијално моћном алату за разоткривање дипфејк радова, но проблем је што захтева велику базу постојећих снимака како би био поуздан. Други проблем је што се сви алгоритми који препознају дипфејк снимке могу користити и за производњу много бољих лажних снимака.

Шта да се ради?

Правница и професорка Универзитета у Мериленду, Данијела Ситрон, сведочила је пред Конгресом да не постоји начин да се заустави производња дипфејк снимака и да је неопхода комбинација „закона, тржишта и друштвене отпорности“, али да ће резултати сигурно бити веома скромни.

Прогањати ауторе дипфејк снимака биће готово немогуће. Прошле године интернет је преплавила лавина дипфејк порнографских снимака. Бројни корисници користили су се веома приступачним алгоритмима како би лице своје омиљене глумице или певачице „залепили“ на тело порнозвезде. Технологија је толико напредовала да је за успех била потребно основно информатичко знање.

Квалитет технологије је значајно напредовао, а није постао сложенији за коришћење. Напротив. Институционални актери, државне или приватне службе, изборни штабови и разна удружења, врло лако ће моћи да производе лажне видео записе високог квалитета, што ће бити још лакше у случају политичара.

Данас је могуће произвести лажни снимак користећи се само једном фотографијом „мете“, али се најбољи резултати постижу уз већи број фотографија из различитих углова и под разним осветљењима. Резултати су још бољи ако циљана особа не мења превише положај тела и гледа право у камеру или у једну тачку. Све су то одлични предуслови да понизите политичког противника, јер је интернет препун њихових фотографија, а говоре углавном гледајући директно у камеру.

Пошто било ко може да произведе лажни снимак, биће готово немогуће открити њен извор. Чак, и у случајевима када постоји сумња, питање је да ли ће осумњичени бити под јурисдикцијом земље у којој је извршен покушај злоупотребе. Као и у другим случајевима ширења дезинформација, институционални актери се увек могу правдати тиме да су у питању појединци који су деловали на своју руку.

Како увести цензуру?

„Уз довољно података, ови моћни алгоритми за производњу дипфејк снимака могу показати стварну особу како ради нешто што никада није или говори речи које никада није изрекла“, упозорио је Адам Шиф, председник Одбора за обавештајна питања америчког Конгреса.

Овакви снимци представљају двоструку претњу. С једне стране, могуће је приказати неког кандидата како чини или говори нешто што би му неодлучни гласачи могли изразито замерити, а с друге стране, било који политичар који је снимљен како ради или говори нешто незаконито или неморално, лако се може одбранити тврдњом да је то дипфејк снимак.

Шиф је покренуо и питање одговорности платформи друштвених мрежа које су до сада уживале имунитет од одговорности за постављене садржаје, али активисти за слободу говора забринути су око било какве могућности увођења цензуре.

Тако би Фејсбук, ако би му било дозвољено да сам одређује шта су лажни, а шта прави снимци, могао да цензурише и легитимне снимке или да заштити неког кандидата од прогона, а подстакне осуду другог. Посебно су републиканци забринути због тога јер сматрају да су све друштвене мреже наклоњеније либералним струјама у друштву.

Постоји ли законска регулатива?

Закони су, за сада, потпуно неприпремљени да се носе са овом врстом технологија. Дипфејк снимак Ким Кардашијан који је објавила агенција "Canny" у склопу исте кампање као и видео Закерберга, уклоњен је са Јутјуба због кршења ауторских права, јер се лажни видео заснивао на њеном интервјуу за часопис Вог. Али закон о заштити ауторских права није довољан правни оквир како би се спречила злоупотреба лажних видео снимака.

Шта учинити са снимцима које је неко сам снимио и приредио, па накнадно намонтирао позната лица на протагонисте?

Проблем је и што на друштвеним мрежама овакви снимци прикупе хиљаде и хиљаде прегледа и размењују се у недоглед. Неки људи их радо прихватају чак и када је очигледно да су кривотворени. Истраживање које је спровео др Данијел Крајс са Универзитета у Северној Каролини показало је да људи не деле одређене садржаје само зато што верују да су истинити.

Постоји више разлога зашто људи деле садржаје на друштвеним мрежама, а један од битнијих је то што сматрају да порука представља доказ неке истине, иако није заснована на чињеницама. Конкретно, ако мисле да је неки политичар лоша особа, делиће снимке који га приказују у лошем светлу, чак и ако знају да су лажни.

Бројна друга истраживања су такође показала да на друштвеним мрежама, попут Фејсбука, одлично пролазе садржаји који изазивају осећај беса и огорчености, без обзира на то да ли је садржај лажан или истинит.

У ствари, можемо веровати само својим очима, али не ако смо видели на мрежи!

У међувремену, стварање атмосфере у којој се не може веровати никоме, само иде на руку онима који желе да шире дезинформације и хаос.

„Ако људи после дужег времена не могу разликовати чињенице од лажи, вероваће у све или ни у шта“, рекао је пред Конгресним одбором Клинт Вотс, са Института за међународну политику.

Вотс предлаже ближу сарадњу између политичких субјеката и друштвених мрежа како би се развили стандарди борбе против дезинформисања.

„Притиснути технолошке компаније да сарађују у борби против екстремизма и дезинформација. Развијати брзе одговоре на такве претње. Било какво одлагање реакције, само омогућава бујање теорија завере“, верује Вотс.

Са њим се сложила и др Данијела Ситрон, која је позвала изборне штабове политичара да се обавежу да неће ширити ни делити дипфејк снимке током предизборних кампања, те да успоставе директну комуникацију са друштвеним мрежама како би директно могли да оповргну било какве неистине које се појављују на интернету. Позвала је гласаче да буду скептични, али без нихилизма.

број коментара 5 Пошаљи коментар
(субота, 29. јун 2019, 16:21) - anonymous [нерегистровани]

Evo, ja sada nisam vise siguran, da......

…….li sam ovo sto upravo citate ja napisao, ili- neko drugi!!!

(субота, 29. јун 2019, 10:17) - anonymous [нерегистровани]

Kraj prava

To neće BITI, to je VEĆ tu.Npr.Srebrenica,Račak...

(петак, 28. јун 2019, 22:26) - Protoss [нерегистровани]

Dzordz Orvel

Početak kraja ljudske civilizacije.. Svet bez kontrole, je svet u kome najmocniji drze alat za potpunu kontrolu.. Apsurdno je govoriti o slobodi neoliberalnog verovanja, jer u ovom tekstu se spominje cenzura, koja je u suprotnosti sa demokratskim i neoliberalnim vrednostima.. U svakom slucaju, ovu zver ce kontrolisati najmocniji zli ljudi.. To je ustvari Matrix, svet bez pravila, kontrole, gde je sve moguce.. Film je namenski napravljen..

(петак, 28. јун 2019, 21:52) - anonymous [нерегистровани]

Kraj prava

To će biti kraj prava i početak nameštaljki

(четвртак, 27. јун 2019, 13:07) - Suverena [нерегистровани]

Роботи међу нама?

Овај Зукерберг изгледа 100% механички робот - очи без живота, глас машински...