Седум работи што не треба да му ги кажете на ChatGPT

- Advertisement -


Големите јазични модели или алатките за вештачка интелигенција станаа речиси незаменлив дел од животот. Дури и ако не ги користите активно секој ден, голема е веројатноста дека користите услуга што користи модел на вештачка интелигенција во позадина, како ChatGPT, Gemini, Perplexity и слично.

Сепак, иако многумина се потпираат на овие услуги за да им помогнат во нивните секојдневни деловни (и приватни) обврски, тие исто така не се свесни дека нивното користење на овие услуги претставува одреден безбедносен ризик. Имено, луѓето во нивната желба да завршат работа што е можно побрзо, често откриваат чувствителни и приватни информации на чет-ботови и други модели на вештачка интелигенција кои не треба да им се откриваат ниту на други луѓе.

- Advertisement -

Всушност, во овој контекст тие треба да се сметаат за личности, бидејќи како што никому не би откриле никакви информации за себе или за компанијата во која работите, така не треба лесно да ги внесувате ниту во чет-ботови на модели со вештачка интелигенција.

Иако компаниите кои ги развиваат овие модели најчесто не користат податоци од разговорите на корисниците со моделот (иако, на пример, DeepSeek го тренира својот модел со вештачка интелигенција на овој начин) за дополнително да го обучат моделот, тоа не значи дека овие податоци не остануваат запишани во вашата корисничка сметка. Доволно е некој да седне пред вашиот компјутер, да го отвори вашиот омилен модел со вештачка интелигенција и да ја прочита вашата историја на разговори, а со тоа и чувствителни податоци.

- Advertisement -

Кои чувствителни податоци не треба да се споделуваат?

  1. 1.Лични податоци

Без разлика колку доверба имате во моделите со вештачка интелигенција, за ваша сопствена безбедност никогаш не треба да го споделувате вашето полно име, адреса, број на социјално осигурување, број на лична карта, број на пасош и слични документи за идентификација во разговор со кој било чет-бот со вештачка интелигенција. Истото важи и за фотографии од такви документи.

- Advertisement -
  1. 2.Финансиски информации

Исто како што има постојано предупредување за споделување финансиски податоци како што се броеви на кредитни или дебитни картички, детали за банкарска сметка или лозинки за пристап до интернет или мобилно банкарство, истото правило важи и за споделување на овие податоци со модели со вештачка интелигенција. Можеби сакате да добиете совет од модел на вештачка интелигенција за најдобриот заем за вас или како да заштедите на даноци, но во тој случај, подобро е да користите измислено сценарио отколку лични податоци.

  1. 3.Лозинки

Споделувањето лозинки за пристап до кориснички сметки или сметки во вашата компанија е крајно неодговорно. Исто како што не би ги дале клучевите и адресата на станот на странец на улица, не откривајте лозинки и кориснички имиња ниту на модел со вештачка интелигенција.

  1. 4.Чувствителни или доверливи информации

Моделот со вештачка интелигенција не треба да се третира како исповедник или најдобар пријател и не треба да му се откриваат чувствителни или тајни информации. Приватните податоци како кој со кого и со кого изневерува или што правел колегата на работа не се информации што треба да ги знае еден модел со вештачка интелигенција. Истото важи и за приватни информации за нечие здравје или членови на семејството.

  1. 5.Информации за компанијата во која работите или соработувате

Можеби е примамливо да ги внесете податоците во ChatGPT и да побарате од него да подготви договор меѓу двете компании, но тоа не е паметен потег. Истото важи и за сите документи кои содржат доверливи информации (информации за прототипови, заштитени патенти итн.), како и информации за состаноци, деловни планови и финансии на компанијата. Токму затоа некои компании го блокираат пристапот до ChatGPT и другите модели на вештачка интелигенција на канцелариските компјутери.

  1. 6.Експлицитна содржина

Дури и ако на шега побаравте од ChatGPT информации за „како трајно да се ослободите од некого“, тоа може да ви направи проблеми. Не само што ChatGPT нема да одговори на такво прашање, туку и некои модели со вештачка интелигенција ги означуваат таквите сомнителни прашања и ги пријавуваат во полиција. Затоа, ако сте во искушение да побарате совет од него, подобро е да не го правите тоа.

  1. 7.Медицински информации

Сте слушнавте за „доктор Google“? Многу корисници го замениле Google со ChatGPT и го третираат како свој лекар. Нема ништо лошо во барањето ChatGPT за појаснување за наодот, но избегнувајте конкретни информации за идентификација во вашето барање. Ве молиме генерализирајте го вашето барање подобро. На пример, „препорачај вежби за маж во неговите 30-ти кој има ишијас“.

(021)

Сподели!
- Advertisement -