
U okviru vodeće evropske futurističke konferencije Kaspersky Horizons, koja se održava od 30. juna do 2. jula 2025. u Madridu, stručnjaci za sajber bezbednost pozivaju na veću transparentnost u upotrebi veštačke inteligencije (AI).
Veštačka inteligencija je mač sa dve oštrice: iako može doneti značajne iskorake u efikasnosti i otvoriti nove mogućnosti za kompanije i pojedince, takođe može biti i zloupotrebljena od strane sajber kriminalaca za pravljenje malvera i druge napade. Prema nedavnom istraživanju kompanije Kaspersky, 52% kompanija širom sveta strahuje od gubitka poverenja ukoliko ne unaprede zaštitu od sajber napada zasnovanih na AI tehnologiji. Istovremeno, 41% njih navodi da im nedostaje stručno znanje o eksternim pretnjama kako bi se efikasno zaštitile od takvih scenarija. Pomoću „Smernica za bezbedan razvoj i primenu AI sistema“, kompanija Kaspersky nudi konkretne preporuke koje kompanije mogu koristiti za bezbednu i odgovornu implementaciju AI tehnologije. Uz to, dokument „Principi etičke upotrebe AI sistema u sajber bezbednosti“ dopunjuje smernice etičkim načelima za razvoj i upotrebu AI u oblasti sajber bezbednosti.
Veštačka inteligencija se brzo razvija, i dok je njen potencijal uglavnom usmeren ka korisnim efektima za kompanije i pojedince, manje sofisticirani sajber kriminalci već koriste AI kako bi proširili svoje kapacitete za maliciozne aktivnosti.
Nedavno istraživanje kompanije Kaspersky pokazuje da je većina kompanija svesna ovih opasnosti: 58% kompanija širom sveta strahuje od gubitka poverljivih podataka, a 52% od gubitka poverenja i finansijske štete, ukoliko ne unaprede svoju zaštitu od napada zasnovanih na veštačkoj inteligenciji. Međutim, često nedostaje potrebno znanje: 41% ispitanika navodi da nemaju relevantne informacije od eksternih stručnjaka o aktuelnim pretnjama koje donose napadi podržani AI tehnologijom.
Kompanija Kaspersky se zato zalaže za jasne smernice za etički razvoj i upotrebu veštačke inteligencije kako bi se efikasno sprečile manipulacije i zloupotrebe. Tokom 2024. godine, kompanija Kaspersky je potpisala Pakt o veštačkoj inteligenciji Evropske komisije, inicijativu čiji je cilj priprema organizacija za primenu Akta o veštačkoj inteligenciji – prvog sveobuhvatnog pravnog okvira o veštačkoj inteligenciji na globalnom nivou, koji je usvojila Evropska unija (EU). U decembru iste godine, kompanija Kaspersky je na radionici u okviru Foruma za upravljanje internetom (IGF) 2024. u Rijadu predstavila i svoje smernice za bezbedan razvoj i primenu AI sistema. Transparentnost, bezbednost i sigurnost, ljudska kontrola i zaštita podataka predstavljaju glavna načela i temelj ove inicijative.
„Etička veštačka inteligencija predstavlja temelj poverenja, usklađenosti sa propisima i održivog poslovnog uspeha. Ona omogućava kompanijama da efikasno umanje rizik od curenja podataka i pretnji zasnovanih na AI tehnologiji, dok istovremeno pouzdano ispunjavaju regulatorne zahteve poput Akta o veštačkoj inteligenciji EU. U sve digitalizovanijem svetu, odgovorna upotreba AI nije samo tehnološko pitanje, već i pitanje poslovnog integriteta i dugoročne održivosti. Naše smernice za bezbedan razvoj i primenu veštačke inteligencije, kao i principi etičke upotrebe AI sistema u sajber bezbednosti, omogućavaju kompanijama da koriste AI odgovorno i bezbedno – štiteći se od pretnji povezanih sa veštačkom inteligencijom, a da pritom ne žrtvuju koristi koje ova tehnologija pruža“, izjavio je Johen Mikels, direktor za odnose s javnošću za Evropu u kompaniji Kaspersky.
Clément Domingo podelio je svoja saznanja i iskustvo kao promoter sajber bezbednosti: „Tokom proteklih meseci svedočio sam drastičnoj upotrebi veštačke inteligencije od strane sajber kriminalaca. Oni veoma dobro razumeju kolika je to prekretnica i već je uspešno koriste za unapređenje svojih napada. Zato je od izuzetne važnosti da i kompanije odmah uključe veštačku inteligenciju u svoje odbrambene strategije, kako bi ojačale celokupne bezbednosne mere. Pri tome je ključno razumeti metode sajber kriminalaca – ponekad čak i staviti se u njihovu poziciju – kako bismo postali efikasniji u borbi protiv njih. U tom smislu, AI može biti moćan alat – ako se koristi mudro i odgovorno – za zaštitu vrednih podataka, infrastrukture, privatnosti i celokupnog poslovanja.“
Transparentnost, bezbednost, kontrola i zaštita podataka kao stubovi etičke upotrebe veštačke inteligencije
Kako bi podržala usvajanje etičke veštačke inteligencije, kompanija Kaspersky je razvila smernice i principe za njenu odgovornu upotrebu.
„Smernice za bezbedan razvoj i primenu AI sistema“ bave se ključnim aspektima razvoja, primenom i upravljanjem AI sistemima, uključujući dizajn, najbolje bezbednosne prakse i integraciju, bez fokusiranja na razvoj osnovnih modela. To uključuje:
- Svest i obuka o sajber bezbednosti: Kompanija Kaspersky naglašava lidersku podršku i specijalizovanu obuku zaposlenih. Zaposleni bi trebalo da razumeju pretnje u vezi sa sa veštačkom inteligencijom kroz redovno ažurirane obuke koje odražavaju nove rizike.
- Modelovanje pretnji i procena rizika: Proaktivno modelovanje pretnji (npr. STRIDE, OWASP) pomaže u ranom otkrivanju ranjivosti. Kompanija Kaspersky ističe značaj procene rizika kao što su trovanje podataka i zloupotreba modela.
- Bezbednost infrastrukture (oblak): Snažna bezbednost oblaka je od suštinskog značaja. Kompanija Kaspersky preporučuje enkripciju, segmentaciju mreže, principe nultog poverenja i redovno instaliranje zakrpa kako bi se sprečili bezbednosni proboji.
- Bezbednost lanca snabdevanja i podataka: AI alati trećih strana predstavljaju rizik za podatke i privatnost. Kompanija Kaspersky savetuje stroge provere, korišćenje safetensor formata i snažne politike privatnosti kako bi se sprečile zloupotrebe.
- Testiranje i validacija: Kontinuirana validacija modela otkriva probleme kao što su odstupanje podataka i napadi protivničkih modela. Kompanija Kaspersky preporučuje praćenje, particionisanje skupova podataka i proveru logike donošenja odluka.
- Odbrana od napada specifičnih za mašinsko učenje: Kako bi se zaštitili od napada kao što su ubacivanje manipulisanih upita i zlonamerni ulazi, kompanija Kaspersky predlaže treniranje na simuliranim napadima, detekciju nepravilnosti i pojednostavljivanje modela.
- Redovno ažuriranje bezbednosti i održavanje: Često instaliranje zakrpa za AI alate i učešće u programima za prijavu bagova pomažu u otklanjanju ranjivosti i jačanju otpornosti.
- Usklađenost sa međunarodnim standardima: Kompanija Kaspersky naglašava važnost poštovanja globalnih standarda (npr. GDPR, Akt EU o veštačkoj inteligenciji) i redovnih provera kako bi se obezbedila usklađenost sa zakonskim, etičkim i standardima zaštita privatnosti.
„Principi etičke upotrebe AI sistema u sajber bezbednosti“ zagovaraju veću edukaciju i jasne standarde usredsređene na transparentnost, bezbednost, ljudsku kontrolu i zaštitu podataka, kako bi se efikasno sprečila manipulacija i zloupotreba AI. Ovi principi uključuju:
- Transparentnost: Otkrivanje upotrebe veštačke inteligencije/mašinskog učenja korisnicima; objašnjavanje kako funkcioniše; razvijanje sistema koji su što razumljiviji; i uvođenje kontrolnih mehanizama kako bi se obezbedili validni rezultati.
- Bezbednost: Davanje prioriteta bezbednosti tokom razvoja i implementacije; sprovođenje specifičnih bezbednosnih provera i simulacije napada; minimiziranje oslanjanja na eksterne podatke za obuku; primena višeslojnih strategija zaštite; i davanje prednosti rešenjima zasnovanim na oblaku sa odgovarajućim merama zaštite.
- Ljudska kontrola: Obezbeđivanje ljudskog nadzora nad svim sistemima veštačke inteligencije/mašinskog učenja; kontinuirano praćenje od strane stručnjaka; i kombinovanje algoritama sa ljudskom ekspertizom.
- Zaštita podataka: Poštovanje privatnosti ličnih podataka; ograničavanje i smanjenje obrade podataka; pseudonimizacija ili anonimizacija; obezbeđivanje integriteta podataka; i primena tehničkih i organizacionih mera za zaštitu privatnosti.
Image by Kohji Asakawa, Pixabay
Prijavite se za Advertiser Serbia Daily Newsletter
Facebook
Twitter
LinkedIn
RSS