Интервју со Мила Јосифовска Даниловска, програмска менаџерка, Фондација Метаморфозис по повод спроведеното истражување за ефектот на новите технологии, со особен фокус на вештачката интелигенција, врз човековите права на интернет
Новинар – Верица Јорданова
Метаморфозис неодамна спроведе истражување за ефектот на новите технологии, со особен фокус на вештачката интелигенција, врз човековите права на интернет. Moже ли да споделите со нашите читатели кои се клучните наоди од ова истражување и кој беше мотивот да се спроведе едно вакво истражување?
Главната цел на истражувањето беше да се процени влијанието на новите технологии, со особен фокус на вештачка интелигенција, врз човековите права, со намера наодите да придонесат кон заштитата на човековите права во политиките поврзани со вештачка интелигенција.
Развојот на вештачката интелигенција доведе до глобален трансформативен дигитален напредок кој сè повеќе влијае на нашиот секојдневен живот, работа, семејство, здравје, спорт, дружење, приватност што е видливо преку системите за мапирање, лоцирање и препознавање, гласовно управување, лични дигитални помошници, транспорт со автономни возила, финансиско тргување, автоматизирано договарање и превод, итн. Напредокот на вештачката интелигенција носи значителни придобивки за социјалната благосостојба во области како прецизната медицина, еколошката одржливост, образованието и трговијата, но поради ризикот од неетичка употреба, исклучително важно е да се воспостават регулативи и правила за нејзината употреба, кои внимаваат на овие предизвици и гарантираат рамноправна заштита за сите.
Без да се намали важноста на другите сфаќања и начела, истражувањето ги издвојува следните етички стандарди кои се препознаваат како појдовна точка за создавање, примена и употреба на системи за вештачка интелигенција, а кои треба да претставуваат применливи, достојни и неприкосновени правила за зачувување на човечкото достоинство поради нивната сигурност, доверливост и одговорност кон луѓето: објаснивост и проверливост, достоинство, забрана за предизвикување штета, правичност, и етичка и општествено одговорна употреба на податоците.
Речиси секојдневно слушаме различни информации и анализи за влијанието на ВИ врз работните места, економијата, продуктивноста и многу други економски аспекти. Зошто решивте да го анализирате ефектите врз човековите права? Кои се најголемите грижи кои произлегуваат во овој сегмент?
Една од главните вредности кои Метаморфозис ги практикува во својата работа е заштитата на човековите права на интернет, па затоа и нашата анализа беше со фокус на влијанието на новите технологии врз човековите права на интернет.
Зависно од тоа со какви податоци се тренирани системите базирани на вештачка интелигенција, постои ризик од нивна пристрасност и предизвикување на дискриминација преку автоматизирано донесување одлуки, што може да резултира со нееднаков третман на одредени групи. На пример, алгоритмите за препознавање на лица може да покажуваат пристрасност кон одредени етнички и расни групи, што може да доведе до погрешно профилирање или неправедни апсења. Исто така, автоматизираното донесување одлуки во здравството, вработувањето или одредување на кредитна способност може да ги продлабочи социјалните нееднаквости ако податоците се пристрасни.
Најголемите грижи поврзани со вештачката интелигенција вклучуваат нарушување на приватноста преку масовно собирање на податоци, пристрасност на алгоритмите и недоволната транспарентност на системите. Овие појави може да ги ограничат основните права како еднаквост, слобода на изразување и пристап до правда и услуги, што го прави клучно анализирањето на влијанието на вештачката интелигенција врз човековите права за да се обезбеди нивна заштита во дигиталната ера.
Во кој сегмент, на кој начин најмногу се загрозуваат човековите права кога е во прашање користењето на вештачката интелигенција?
Човековите права најмногу се загрозуваат при автоматското донесување на одлуки. При креирање на системи кои поддржуваат автоматско донесување на одлуки мора да се тргне од принципот „правичност“ кој меѓу другото значи дека во одлуката нема да бидат земени предвид чувствителни лични податоци за да се избегне дискриминација. Доколку вештачката интелигенција се користи за етички погрешни цели, може да се зголеми ризикот за ранливите групи преку пристрасност во алгоритмите.
На пример при користење на автоматско донесување на одлуки во селекција на кандидати за вработување – ако претходно компанијата имала пракса да вработува само мажи, системот може да заклучи дека и сега треба да вработи маж и да ги исклучи жените од селекцијата. Слична е состојбата и со мерење на работен перформанс – ако претходно перформансот на вработените се мерел по број на работни часови поминати во канцеларија, може да се дискриминира кон вработени кои имале теренски активности.
Што е клучно да знаеме сите ние кои како „лаички“ корисници ја употребуваме вештачката интелигенција во одредени сегменти од нашата работа или секојдневие?
Најважното е да разбереме дека системите базирани на вештачката интелигенција не секогаш се непристрасни или неутрални, а за да ги користиме одговорно, потребно е да ја развиваме нашата дигитална писменост. Тоа значи да бидеме свесни дека системите базирани на вештачка интелигенција се засноваат на податоци кои може да бидат пристрасни или погрешни, па затоа треба критички да ги оценуваме резултатите што ги добиваме. Дополнително, сајбер безбедноста и заштитата на лични податоци се важни аспекти кои мораме да ги разбереме и практикуваме, бидејќи многу апликации базирани на вештачка интелигенција се потпираат на нашите лични информации. Разбирањето на ризиците и преземањето на мерки за заштита на нашето „дигитално јас“ се неопходни за безбедно и свесно користење на вештачката интелигенција во нашето секојдневие.
Што во ситуации кога сме изложени или користиме информации/услуги креирани од ВИ, а за тоа воопшто не сме свесни?
Кога сме изложени на информации креирани врз основа на вештачка интелигенција кои се создадени со лоша намера, а не сме свесни за тоа или немаме вештини да ги препознаеме, ризикуваме да бидеме подложни на дезинформации, лажни или манипулативни содржини, како и на дипфејк технологии, што понатаму може да го наруши нашето разбирање на реалноста и што е најстрашно – да влијае на нашите одлуки. За да се заштитиме, клучно е да развиваме критичко мислење и медиумска писменост, што подразбира способност да процениме колку се веродостојни изворите на информации и да препознаеме потенцијално манипулативни или лажни содржини. Исто така, важно е да се информираме за начините на борба против дезинформации, како и да користиме алатки за проверка на факти, особено кога се соочуваме со содржини кои може да изгледаат сомнително. Развивањето на свест за сајбер безбедноста и технологиите како дипфејк е од суштинско значење за да не станеме жртви на манипулации во дигиталниот свет.
Кои би биле клучните препораки од ваша страна за тоа како може да се заштитиме од прекршување на нашите права на интернет?
За да бидеме заштитени на интернет, најпрвин треба да се информираме и едуцираме за нашите права како што се приватноста, слободата на изразување, недискриминацијата, и да ја градиме својата дигитална и медиумска писменост за да бидеме отпорни на ризиците кои произлегуваат од неправилно или неетичко дејствување во дигиталниот свет. Бидејќи делувањето на интернет е неизбежен слој од нашето секојдневие, мора да применуваме безбедносни мерки за наша заштита како што се силни лозинки и двојна автентикација, но и да внимаваме со споделување на лични податоци и правилно користење на поставките за приватност на онлајн платформите.
Доколку станеме жртва на нарушување на правата на интернет, онлајн измами или сме сведоци на вакви случаи, важно е веднаш да ги пријавиме инцидентите до надлежните институции или соодветните интернет платформи.
Ве молам споделете ни искуства и практики од други земји, како овие аспекти се инкорпорираа во законската легислатива?
Европската Унија е предводничка во регулирање на вештачката интеилигенција. Во март 2024 Европскиот парламент го донесе првиот закон за вештачка интелигенција (AI Act) чиј приоритет е системите за ВИ да бидат безбедни, транспарентни, да може да се следат, да бидат недискриминаторски и еколошки, како и надгледувани од луѓе за да спречат негативни исходи. На Западен Балкан, единствено Србија има своја „Стратегија за развој на вештачката интелигенција“ уште од 2020 година, како и усвоено „Етички насоки за развој, примена и употреба на доверлива и одговорна вештачка интелигенција“, кои овозможуваат одговорен развој на вештачката интелигенција и начините на верификација на системите базирани на машинско учење согласно највисоките етички и безбедносни стандарди.
Дали и какви законскии решенија се препорачуваат за Македонија во оваа насока?
Регулацијата на вештачката интелигенција е неопходна за да се обезбеди нејзина одговорна и етичка примена, спречувајќи потенцијални злоупотреби и негативни последици. Без регулативи, постои ризик од пристрасност во одлуките на системите базирани на вештачка интелигенција, нарушување на приватноста, загрозување на човековите права и несакани влијанија врз луѓето и економијата. Регулацијата ќе овозможи поголема транспарентност, отчетност и инклузивност, осигурувајќи дека развојот на вештачката интелигенција придонесува кон општо добро и е во согласност со општествените вредности и потреби.
Кај нас по иницијатива на Фонд за иновации и технолошки развој е создадена работна група за креирање на Национална стратегија за вештачка интелигенција што постои од септември 2021, но сѐ уште нема започнато со конкретни чекори кои би донеле до развој на истата. Фондација Метаморфозис има свој претставник во оваа работна група.