уторак, 01.10.2024, 08:00 -> 08:35
Извор: РТС, Medium
Ljude će zameniti veštačka inteligencija i to je odlična vest
„Meta“, „Antropik“, „Alibaba“, „Mistral“ i druge tehnološke kompanije već nekoliko godina predstavljaju velike jezičke modele otvorenog koda, ali izgleda da je „Meta“ prva koja ima zaista dobar razlog za to. Zakerbergova korporacija menja zaposlene veštačkom inteligencijom na veoma specifičan način. I, prema oceni nekih, to je odlična stvar.
Mark Zakerberg je u poslednje vreme učinio dosta da popravi svoj imidž u javnosti. To može da bude rezultat pažljivog planiranja jer mnogi direktori tehnoloških kompanija imaju loš imidž. Zajedno sa novom slikom direktora i kompanije, „Meta“ je prihvatila ideologiju otvorenog koda u oblasti razvoja jezičkih modela Lama (Llama AI).
Kompanija koja je sinonim za veštačku inteligenciju zahvaljujući četbotu ChatGPT, "OpenAI" (u prevodu sa engleskog jezika Otvorena veštačka inteligencija) počela je od otvorenog koda, ali se brzo brzo zatvorila da bi se fokusirala na profit.
Dok je nekoliko kompanija sledilo njihov primer objavljivanjem svojih modela, malo njih je promenljive modele učinilo dostupnim na način na koji je to učinila „Meta“.
U početku su ove strategije izgledale kao rešenja koja traže probleme. Modeli su mogli da se koriste pri osmišljavanju reklama, pisanju svih mogućih tekstova, za virtuelnu stvarnost i mnogo toga još.
Mogućnosti su neograničene, ali trenutne primene u stvarnom svetu nisu. Alat jeste zanimljiv, ali jednostavno ne postoji pravi poslovni cilj osim da „bude najbolja veštačka inteligencija otvorenog koda“.
Međutim, sa izlaskom Lame 3.2, „Meta“ se okrenula ka jednom veoma važnom cilju koji direktno utiče na njihov krajnji rezultat i održivi rast njihove platforme društvenih medija.
Ključ je u uređivanju
Moderiranje sadržaja i negovanje zajednice je žila kucavica društvenih medija. Bez neke mere moderacije ili barem biranja korisnog sadržaja, dolazimo do platformi koje postaju toksične i destruktivne za zajednice za koje je bilo planirano da podstaknu njihov razvoj.
Neke platforme su zbog profita povećale toleranciju na agresivne reakcije (kao na primer Iks, to jest bivši Tviter) i to toliko da je koncept uređivanja potpuno izgubljen.
Tamo gde ste nekada mogli da nađete druge ljude sličnih interesovanja i njihove zanimljive sadržaje, sada ćete naći pustoš koji ostaje iza vrištanja i mržnje. Sve je dizajnirano tako da vas uvredi, naljuti, da vas natera da gubite svoje dragoceno vreme reagujući.
Fejsbuk ima problem koji nikada nećete videti
Kada označite nešto kao sadržaj koji zadovoljava vaše potrebe ili, pak, kao štetan, čovek mora da proveri to što ste označili da bi odlučio da li se zaista krše neka pravila. Ovo deluje kao normalno i neophodno.
Neki bi pretpostavili da bi mnoge takve prijave mogle biti preterana reakcija korisnika. Naravno, neko je objavio neki štetni politički sadržaj, ali da li je to zaista prekršilo pravila? Možda. Tu je provera korisna i od pomoći.
Međutim, najčešće ne razmišljamo o lošim namerama. Nije reč o upornom trolovanju komšije u Fejsbuk grupi malog grada, već prave loše namere – da se neko zaista povredi, muči, zlostavlja itd.
Postoje stvarni ljudi koji objavljuju takav sadržaj i to na mestima gde bi mogao da izazove još veću štetu. Kada kliknete na „Prijavi“, neki čovek mora da pogleda sporan sadržaj i utvrdi da li su pravila prekršena.
I to je dovoljno šokantno. Ali ako je pregledanje takvog sadržaja posao koji neko radi osam do 10 sati dnevno i iznova i iznova gleda potresne ili užasne slike i sadržaje, to ne može biti prijatno. Svakog dana, ljudska bića koja pokušavaju da zaštite zajednicu bivaju podvrgnuta takvoj mentalnoj torturi.
Rešenje se već nazire
Već neko vreme „Meta“ radi na modelima zasnovanim na veštačkoj inteligenciji koji se mogu primeniti u oblastima zaštite. Jedan od rezultata je LLama-Guard-3–1B. Oznaka 1B ukazuje na to da je model treniran na jednoj milijardi parametara. Takvi modeli su veoma mali u okvirima velikih jezičkih modela, ali ono što je dobra vest je da „Meta“ aktivno prilagođava svoje skupove podataka za ovu funkcionalnost.
Poređenja radi, model 1B verovatno može da radi na novijim telefonima. Nešto veći modeli od 32B ili veći (poput pojedininih „Metinih“ modela od 405B) su verovatno korisniji za detaljan ili nijansiran rad, koji se obično izvodi na većim serverima.
Otvoreni model LLama-Guard-3–1B (slobodan za preuzimanje) može da omogući malim kompanijama da sprovedu neku vrstu kontrole nad svojim zajednicama i sadržajem.
Modeli namenjeni oblastima zaštite, smatraju se multimodalnim, što uključuje funkcionalnosti kao što su kategorizacija i analiza slika ili kreiranje sažetaka teksta.
Možete takvom alatu dati sliku, a on će ukratko „ispričati“ šta slika prikazuje. „Meta“ tako zapravo pokušava da reši problem svojih zaposlenih.
Evo posla koji čovek ne mora da radi
Postoje poslovi koje ljudi žele da rade, ali i oni koje ljudi ne žele da rade, ali rade, postoje neprijatni poslovi koje ljudi rade koje može da radi mašina, a postoje poslovi koje ljudi ne bi ni trebalo da rade. Takvi poslovi konstantno nanose štetu radniku.
Automatizacija prerade nuklearnog otpada ili izuzetno toksičnih materijala neće na ići na otpor. Međutim, ono što mnogi ne shvataju je da posao prebiranja po toksičnom sadržaju nije ništa drugačiji.
To su poslovi koje ljudi ne bi trebalo da rade. Oni su neophodni za bezbednost i dobrobit svih, ali na račun pojedinca koji svakodnevno strada na svom radnom mestu. Zato su takvi poslovi savršeni za prebacivanje na teren mašinske inteligencije.
Iako je nophodna dodatna regulacija, kao i veoma pažljivo definisanje podataka za treniranje modela, ovo će biti sjajna primena veštačke inteligencije.
Da, ljude će zameniti veštačka inteligencija i to je, u ovom slučaju, odlična vest.
Коментари