Вештачка интелигенција (не) решава политичке кризе, може ли „фино подешавање“ против „папагајисања“
Вања Суботић, филозоф и научна сарадница на Институту за филозофију Филозофског факултета у Београду, каже за РТС да наратив о хладној и прорачунатој суперинтелигенцији која ће завладати људима одражава наш страх од непознатог, који је лако монетизовати и изманипулисати. Случај града у САД оцењује као успешну и контролисану примену вештачке интелигенције, али упозорава на тенденциозан назив самог „Гугловог“ алата и играње на карту антропоморфизације. Објашњава које су могућности ВИ у политици, шта је „папагајисање“ и шта се може постићи „финим подешавањем“.

Идеја да филозофи треба да владају државом стара је скоро колико и филозофија, и прилично је игнорисана пар хиљада година, барем у пракси. Међутим, за разлику од природне интелигенције, вештачка изгледа има много више среће. Није прошло ни пар година од њене појаве, и већ је постала политички чинилац. Наравно, у Америци.
Занимљив екперимент у малом граду у Кентакију – локалне власти у Боулинг Грину (Bowling Green) организовале су онлајн анкете у којима се велики број грађана, политички веома поларизиваних као и у остатку САД, током месец дана изјашњавао о многим питањима. Резултати су затим синтетизовани помоћу алата ВИ и преточени у извештај, који је открио да се становници заправо слажу готово око свега и који ће власт користити за доношење одлука.
О том случају, о односу политике и ВИ, и њеној одговорној употреби, за Интернет портал РТС-а говорила је Вања Суботић, филозоф и научна сарадница на Институту за филозофију Филозофског факултета у Београду
Вештачка интелигенција нуди решења, у овом случају политичка, која нису само резултат података које је човек унео, већ чини суштински искорак тиме што користи своју логику и сама формира закључке. Шта мислите о овом случају, да ли је у питању пука занимљивост или можда најава тенденције у којој ће граница између човека и машине бити померене не само у привреди, већ у и пољу политике, етике, културе?
- За почетак, мислим да је важно нагласити да је опасно описивати постојеће моделе вештачке интелигенције као да имају своју логику или да формирају своје закључке, иако је то свакако нама људима интуитиван начин гледања на перформансе таквих модела - антропоморфизујемо их по угледу на наше способности.
Модел компаније „Гугл“ коришћен у Боулинг Грину има помало тенденциозан назив, који је управо изабран због потенцијалне профитабилности и играња на карту наше антропоморфизације вештачке интелигенције, а то је "Тумач здравог разума" (према енг. SenseMaker). Овај модел је текстуално изнесене преференције и ставове грађана категорисао према одређеним параметрима - рецимо, шта треба зановити од инфраструктуре, које туристичке атракције треба ставити у први план, треба ли градити дечје игралиште или бензинску пумпу, и слично. Крајњи резултат је био интерактивни извештај који је био доступан свим грађанима на интернету и који се састојао од сажетих идеја више од 7.000 грађана.
У том смислу, овај модел није унео новитет којег није било већ у подацима, већ је препознао заједничке шаблоне на основу података и издвојио оно што грађане уједињује, пре него разједињује. У подељеном друштву какво је америчко, ово заправо лако може одати утисак истинског новитета.
Па ипак, граница јесте померена у самом методу грађанске партиципације - вештачка интелигенција је у овом случају омогућила враћање идеалу директне демократије каква је била у античкој Грчкој.
Извршни директори великих компанија, као добри продавци, такође виде развој вештачке интелигенције као начин враћања човека у доколицу, јер би аутоматизација обезбедила више слободног времена, а управо у таквим условима цветају више когнитивне способности, односно људи могу да се посвете политичким дискусијама, интелектуалном и креативном раду.
Алгоритми већ дуже време суверено управљају друштвеним мрежама и поларизују јавност, удаљене позиције чине још даљим. Вештачка интелигенција изгледа делује супротно, као да ради дијалектичи, правећи синтезу супротних позиција. Међутим, у исто време, кажу да нас ВИ „заглупљује“, угрожава развој критичког мишљења, сводећи сазнање на просек и општа места. Да ли је могуће некако помирити супротне тенденције или технологију решавању политичких и друштвених проблема треба избегавати и свести на најмању могућу меру?
- Рецентна истраживања у областима неуронаука и когнитивне науке су показала негативан утицај коришћења вештачке интелигенције као што су популарни четботови (ChatGPT, Claude, Gemini, DeepSeek) на когнитивне способности људи - мање се трудимо око задатка, фокусирани смо искључиво на крајњи резултат, а не на сам процес обављања задатка, и мишљење нам постаје униформније, то јест „упросечи“ се.
Ентузијасти пак ове резултате тумаче само као показатељ да је потребан већи степен дигиталне писмености да би се ови алати користили на такав начин да се изазову позитивне, а не негативне последице.
Ове супротне интерпретације могу да се превазиђу изоштравањем наших когнитивних способности и подизања свести о стварним дометима вештачке интелигенције - уместо антропоморфизације, треба је посматрати као пуки алат, који не може да замени у потпуности људски аутпут.
Другим речима, слично као што је интернет перципиран као опасност по развој способности процесирања и истраживања информација, и коришћење вештачке интелигенције мора да прође ту „пробну“ фазу почетничких грешака, да бисмо је интегрисали у когнитивне алате.
С друге стране, једно је аутоматизација задатака попут одговарања на мејлове или писања текстова, а друго је друштвено и политичко одлучивање са практичним последицама.
У том случају веће етичке проблеме од самог „упросечивања“ представља алгоритамска неправда, то јест недовољна заступљеност различитих демографских, социјалних и родних идентитета у постојећим скуповима података услед које ови модели могу сугерисати доношење одлука базираних на предрасудама.
Познато је да су модели вештачке интелигенције тренирани и „фино подешени“ тако да буду мање или више „пристрасни“ у одговорима које дају на питања која су осетљива за њихове власнике. Она се у случају малог америчког града показала као успешан арбитар, вероватно јер се ради о локалним питањима. Да ли је могуће обучити ВИ да буде неутрална и када се ради о крупнијим питањима националне политике, идеологије, моралних вредности?
- Један од начина певазилажења алгоритамске неправде је управо „фино подешавање“ или чак цензура. Тако је Chat GPT одмах цензурисан непосредно након што је пуштен у коришћење, јер га је било лако навести да подражава говор мржње.
Упркос оваквим интервенцијама, ниједан модел није вредносно неутралан. То смо видели нарочито у случају кинеског четбота Дипсик, који је „фино подешен“ да не даје одговоре шта се догодило на тргу Тјенанмен 1989. године, али не заостају ни амерички четботови, када треба у разговору да се изјасне о геополитичким темама и националној политици одређених земаља.
Досадашњи утисак је да сви ови модели вештачке интелигенције понављају стандардизоване одговоре у складу са спољном политиком земаља у којима су произведени. У том смислу, модели вештачке интелигенције тешко да су директно неутрални.
Што се тиче моралних вредности, ту су ствари далеко компликованије, јер постоје спорови међу самим етичарима вештачке интелигенције које вредности су универзалне и који је најбољи начин њихове имплементације у моделе вештачке интелигенције, као што су четботови, али такође је проблем што етичаре сами инжењери и извршни директори ретко за шта питају. Махом је случај да су етички експертски тимови сведени на симболичку улогу унутар компаније, или се чак њихов посао делегира правницима, настојећи тако да се питање моралних вредности сведе на пуко поштовање бирократских правних процедура, што би представљало неки вид изнуђене изведене неутралности.
Ако је језички модел вештачке интелигенције, који је ипак само компјутерски софтвер, успео да пронађе компромис и покаже да ставови људи ипак нису тако удаљени – шта то говори о нашим ставовима и начину на који се формирају? Колико су и они заправо „вештачки“, неаутентични?
- Велики језички модели су управо модели који су имплементирани у четботове о којима је до сад било речи. Четбот са вама разговара управо захваљујући великом језичком моделу, те се они још називају и моделима конверзационе вештачке интелигенције, ако хоћемо да баш спецификујемо на шта тачно мислимо.
Ови модели су засновани на посебној врсти вештачке неуронске мреже која учи на основу изложености великим количинама скупова података, што укључује наше објаве на интернету, новинске чланке, интервјуе као што је овај, књиге, и све остало што може да вам падне на памет.
Као и „Тумач здравог разума“ употребљен у Боулинг Грину, велики језички модели су огледала наших несавршености, когнитивних пристрасности, предрасуда, и осталих сазнајних „пречица“ и површности којима смо склони и чији траг се налази у подацима за обучавање.
Лингвистикиња Емили Бендер и инжењерке Тимнит Џебру и Маргарет Мичел стога називају велике језичке моделе „стохастичким папагајима“. Њихово „упросечавање“ и „папагајисање“ су показатељи заједничких, друштвено обликованих шаблона нашег говорног језика, па самим тим и наших површних ставова који чине алгоритамску неправду реалним проблемом који није лако решити „финим подешавањем“. Иронија је у томе да је управо оно што нас чини неаутентичним, то јест сличним међусобно, уједно и кључни маркер распознавања конверзационе вештачке интелигенције.
Често се говори о вештачкој интелигенцији као опасности, медији су пуни апокалиптичних сценарија о суперинтелигенцији која ће завладати људима. Зар се ВИ овде није показала као успешан коректив јавне расправе и демократског процеса?
- Наратив о хладној и прорачунатој суперинтелигенцији која ће завладати људима је присутан још од индустријске револуције, и више одражава наш страх од непознатог, који је лако монетизовати, изманипулисати, или усмерити у одређеном правцу како би се неке друге, а битније, идеје и ствари провукле „испод радара“. Случај Боулинг Грина нам показује успешну и контролисану примену вештачке интелигенције пре него што је сама вештачка интелигенција некакав коректив демократског процеса. Злоупотреба је, наравно, увек могућа, али злоупотреба лежи, опет, у рукама и намерама људи, а не у самој вештачкој интелигенцији.
Уместо апокалиптичних сценарија, од већег друштвеног значаја би била медијска покривеност три теме, а то су интереси и одговорност великих компанија, то јест "великих играча", етички аспекти развоја модела вештачке интелигенције по сваку цену и без освртања на правну регулативу, као и права цена развоја ових модела у погледу људских и природних ресурса.
Постоје схватања да је технологија заправо идеологија, јер доноси дубоке промене у друштву и у начину на који посматрамо стварност, човека, природу, друштво, будућност... Да ли развој ВИ, која се често сматра новом технолошком револуцијом, може да значи и политичку промену, да ли ће јој успети оно што другим идеологијама није, у смислу приближавања идеалу директне демократије?
- Већ крајем деведесетих година прошлог века, а нарочито од 2010-их година, активно се расправља међу експертима у друштвено-хуманистичким наукама о утицају технологије на демократску делиберацију.
У скорије време се често говори о "алгоритамском управљању", то јест могућности да модели вештачке интелигенције буду посредници у ланцима демократских процедура одлучивања као "објективнији" и "неутралнији", и којим би се, зарад општег добра, ограничила људска аутономија.
Ово се такође природно повезивало са идејом да је можда погрешно универзално право гласа, нарочито након америчких избора 2016. година када је Доналд Трамп освојио први мандат, јер неки људи нису увек у стању да направе "прави" односно рационални избор (где се рационалност мери тренутним идеолошким аршинима).
С друге стране, многи експерти такође упозоравају да примена вештачке интелигенције у политичком домену може само донети већи и опаснији надзор, као и прилике за манипулацију грађана и злоупотребу грађанске изборне воље, а у најгорем случају и неки вид технолошког патернализма.
Посебно забрињавајућа појава која баца сенку на технолошки подржану демократску делиберацију су такозвани "deepfakes", то јест вештачки генерисани или измењени видео или аудио записа направљени уз помоћ вештачке интелигенције тако да изгледају или звуче стварно, иако су заправо лажни.
Можете ли да замислите свет у којем политичке одлуке доноси ВИ? Да ли вам та идеја делује као утопија, дистопија или просто медијски сензационализам, маркетинг великих компанија и хајп који прати развој вештачке интелигенције?
- Могу да замислим такав свет, јер су људска неодговорност и необазривост предмет како митолошких представа карактеристичних за многе цивилизације, тако и класика светске књижевности - од Пандоре која отвара кутију, преко Икара који лети преблизу сунцу упркос упозорењима, па све до Фауста који продаје душу ђаволу.
Међутим, ван сфере замисливости, а у сфери уверљивости, вештачка интелигенција која сама доноси политичке одлуке је пре мешавина клик бејт стратегије и трке за профитом, и одражава изостанак етике и етичара вештачке интелигенције у јавном дискурсу, али и озбиљнијих инжењера вештачке интелигенције који су свесни лимита модела које праве и о којима публикују научне радове.
Коментари