Читај ми!

Највећи генеративни језички модел на српском

У емисији Дигиталне иконе са нама ће у студију бити Михаило Шкорић, интердисциплинарни научник који је креирао „sr-gpt2-large”, тренутно највећи језички модел за генерисање текста на српском језику и Слободан Марковић, суоснивач пројекта „COMtext” за израду скупова података и прилагођених модела за обраду српског језика помоћу вештачке интелигенције.

Причаћемо о поменутом моделу, који је обучаван на Националној платформи за вештачку интелигенцију у Државном дата центру у Крагујевцу, али и на осталим корпусима Друштва за језичке ресурсе и технологије, о томе шта су језички модели, чему служе и како се обучавају. У виртуелној и проширеној стварности која долази, глас (претворен у текст) биће примарни начин за интеракцију између корисника и рачунара. Шта ће бити ако српски језик ту не буде подржан? Колико су друге мале језичке заједнице препознале важност улагања у развој језичких технологија и који изазови нас очекују у наредном периоду?

Емисију уређује и води: Тамара Вученовић

Коментари

Re: Knjiga
Амазоновим „Прстеновима моћи" нема помоћи
Re: Steta
Амазоновим „Прстеновима моћи" нема помоћи
Re: Ко би свијету угодио
Амазоновим „Прстеновима моћи" нема помоћи
Knjiga
Амазоновим „Прстеновима моћи" нема помоћи
Komentar
Амазоновим „Прстеновима моћи" нема помоћи