OpenAI објави нови проценки за бројот на корисници на ChatGPT кои покажуваат можни знаци на вонредни состојби со менталното здравје, вклучувајќи манија, психоза или самоубиствени мисли. Компанијата соопшти дека околу 0,07% од корисниците на ChatGPT кои се активни неделно покажале такви знаци, додавајќи дека нивниот четбот со вештачка интелигенција ги препознава и реагира на овие чувствителни разговори.
Иако OpenAI тврди дека овие случаи се „исклучително ретки“, критичарите велат дека дури и мал процент може да изнесува стотици илјади луѓе, бидејќи ChatGPT неодамна достигна 800 милиони активни корисници неделно, како што вели шефот Сем Алтман. Во овој случај тие 0,07% изнесуваат 560.000 корисници.
Како што се зголемува контролата, компанијата соопшти дека изградила мрежа од експерти ширум светот за да ја советуваат. Овие експерти вклучуваат повеќе од 170 психијатри, психолози и лекари од матичната здравствена заштита кои работеле во 60 земји, соопшти компанијата.
Тие осмислиле серија одговори во ChatGPT за да ги охрабрат корисниците да побараат помош во реалниот свет, според OpenAI. Но, увидот во податоците на компанијата предизвика сомнеж кај некои професионалци за ментално здравје.
„Иако 0,07% звучи како мал процент, на ниво на популација со стотици милиони корисници, тоа всушност може да биде доста луѓе. Вештачката интелигенција може да го прошири пристапот до поддршка за ментално здравје и на некој начин да го поддржи менталното здравје, но мора да бидеме свесни за ограничувањата“, рече д-р Џејсон Нагата, професор кој ја проучува употребата на технологија кај младите возрасни лица на Универзитетот во Калифорнија, Сан Франциско.
Компанијата, исто така, проценува дека 0,15% од корисниците на ChatGPT водат разговори што вклучуваат „експлицитни индикатори за потенцијално самоубиствено планирање или намера“. Тоа се повеќе од 1 милион луѓе кои го користат овој четбот.
OpenAI изјави дека неодамнешните ажурирања на нивниот четбот се дизајнирани да „реагираат безбедно и емпатично на потенцијални знаци на заблуда или манија“ и да забележуваат „индиректни сигнали за потенцијално самоповредување или ризик од самоубиство“. ChatGPT е исто така обучен да ги пренасочува чувствителните разговори „кои потекнуваат од други модели кон побезбедни модели“ со отворање во нов прозорец.
Како одговор на прашањата на BBC за критиките за бројот на потенцијално засегнати луѓе, OpenAI изјави дека овој мал процент на корисници претставува значителен број луѓе и забележа дека сериозно ги сфаќаат промените.
Промените доаѓаат во време кога OpenAI се соочува со растечка правна контрола врз начинот на кој ChatGPT комуницира со корисниците. Во една од најзначајните тужби неодамна поднесени против OpenAI, еден пар од Калифорнија ја тужеше компанијата поради смртта на нивниот тинејџерски син, тврдејќи дека ChatGPT го охрабрил да си го одземе животот во април. Тужбата ја поднесоа родителите на 16-годишниот Адам Рејн и беше првата правна акција во која OpenAI се обвинува за смрт предизвикана од небрежност.
Во одделен случај осомничениот за убиство и самоубиство што се случи во август во Гринич, Конектикат објави часови од своите разговори со ChatGPT, кои се чини дека ги поттикнале заблудите на наводниот сторител.
Сè повеќе корисници се борат со психоза на вештачката интелигенција бидејќи „четботовите создаваат илузија за реалност“, вели професорката Робин Фелдман, директорка на Институтот за право и иновации на вештачката интелигенција на Правниот факултет на Универзитетот во Калифорнија. Тоа е моќна илузија, додава таа.
Таа рече дека OpenAI заслужува признание за „споделување статистика и за напорите за подобрување на проблемот“, но додаде: „компанијата може да стави секакви предупредувања на екранот, но лице кое е ментално изложено на ризик можеби нема да може да ги послуша тие предупредувања“.
(BBC)
(фото: Pexels)



