Пристигна YugoGPT, првиот јазичен модел со вештачка интелигенција за балканското говорно подрачје, а веќе во првата верзија успеа да го надмине LlaMA 2 на Марк Цукерберг. YugoGPT беше лансиран на 25 декември, а за првите 24 часа собра 1.250 регистрирани корисници.
Има многу сличен интерфејс како ChatGPT, со тоа што зад него стои јазичен модел обучуван специфично на српски, босански, црногорски и хрватски податоци.
Иако најпопуларните четботови можат да работат и на српски јазик, квалитетот на одговорите е значително послаб во однос на популарните јазици, каде што секако има многу повеќе достапни податоци на основа на кои може да учи моделот.
Алекса Гордиќ, софтверскиот инженер кој стои зад овој проект, вели дека YugoGPT по своите перформанси го надминал четботот на Марк Цукерберг за српски, босански, хрваски и црногорски јазик. Ова е импресивен резултат имајќи го предвид повеќе милионскиот буџет со кој располага компанијата Meta.
За обучување на еден ваков јазичен модел неопходно е да се собере огромна количина текст, а потоа да се помине низ џиновски невронски мрежи, кои потоа се обидуваат да извлечат правилности. Сето тоа е временски и финансиски скап процес, затоа што е неопходна хардверска инфраструктура.
Има многу простор за напредок затоа што само што беше лансирања првичната верзија на овој јазичен модел, а Гордиќ вели дека веќе наредната ќе биде подобра од ChatGPT 3.5. Јазичните модели специјализирани за еден регион имаат свои предности затоа што генерираат текст кој е во склад со духот на јазикот и исто така, располагаат со побогат вокабулар, посебно во специфичните ниши.
(Nova)
(фото: Yugo GPT)