ChatGPT станува попаметен, но и повеќе измислува и лаже

- Advertisement -


Историјата е полна со брилијантни, но несигурни поединци, а оваа особина, се чини, не ја заобиколила ниту вештачката интелигенција. Според истражувањето спроведено од OpenAI и споделено со NewYork Times, нивните најнови модели на ChatGPT AI, GPT o3 и o4-mini покажуваат значителна тенденција за халуцинирање, т.е. фабрикување факти.

Моделите GPT o3 и o4-mini се дизајнирани да имитираат човечко размислување, за разлика од постарите верзии, кои се фокусираа на генерирање течен текст. OpenAI забележа дека претходниот модел o1 можеше да се спореди со или да ги надмине перформансите на докторантите по хемија, биологија и математика. Но, последните бројки предизвикуваат загриженост.

- Advertisement -

Во тестот со јавни личности GPT o3 халуцинирал 33% од времето, двојно повеќе од o1. Помалиот модел o4-mini бил уште понесигурен, со 48% од одговорите кои содржат измислици. На тестот за општо знаење SimpleQA бројките се зголемиле: 51% од одговорите на моделот o3 и 79% од одговорите на o4-mini биле неточни, пренесува порталот Tech Radar.

Претпоставка што се разгледува во заедницата на вештачката интелигенција е дека колку повеќе моделот се обидува да расудува, толку е поголема неговата веројатност за грешка. Постарите, поедноставни модели се држат до многу сигурни предвидувања, додека поновите анализираат повеќе опции и импровизираат, што потоа лесно се претвора во измислување факти.

- Advertisement -

Од OpenAI изјавија за The Тimes дека причината за зголемениот број на халуцинации можеби не е само покомплексното расудување, туку и поголемата гласност на одговорите. Како што моделите се повеќе прават нагаѓања, границата помеѓу теоријата и фикцијата станува нејасна.

Ова е загрижувачки бидејќи вештачката интелигенција се повеќе се користи во училиштата, канцелариите, болниците и администрацијата. GPT o3, иако е способен за сложени задачи, го губи кредибилитетот кога почнува да генерира неточности, како што е тврдењето дека Абрахам Линколн бил домаќин на подкаст. Вештачката интелигенција, која треба да помогне и да ја олесни работата на човекот, не смее да биде извор на грешки и со тоа всушност да ја отежне работата што се обидува да ја олесни.

- Advertisement -

OpenAI и конкурентите како Google и Anthropic се стремат да ја подобрат точноста. Дотогаш, корисниците мора да бидат крајно внимателни бидејќи ниту еден одговор на вештачката интелигенција не треба да се зема здраво за готово.

(Zimo)

(фото: Free Malaysia Today)

Сподели!
- Advertisement -