Umetna inteligenca (UI) je v zadnjih letih v različnih segmentih zelo napredovala in s tem družbi omogočila nove razvojne priložnosti. Posebej hiter razvoj na področju generativnega UI je odprl nove možnosti tudi na področju kibernetske varnosti, in sicer tako kibernetskim napadalcem kot tudi strokovnjakom, ki skrbijo za obrambo pred njimi. V evropskem policijskem uradu Europol poudarjajo, da prihajajo novi modeli kibernetskega kriminala, temelječi na generativnem UI. Zato postaja čedalje pomembneje, da organi pregona s svojo dejavnostjo predvidijo in preprečijo zlorabe.
Generativni UI združuje moč strojnega učenja, globokega učenja in UI za izvirno ustvarjanje vsebin, kot so besedila, zvok, slika, video in koda. Čeprav ima ta tehnologija veliko prednosti, so se hitro pokazale tudi njene negativne strani oziroma možnosti za zlorabo. Če zorni kot nekoliko spremenimo, lahko rečemo tudi nasprotno – da ima generativni UI kljub različnim izzivom in možnostim za zlorabo tudi številne prednosti.
Višja dodana vrednost in pomisleki
Nova tehnologija generativnega UI lahko pomaga na številnih delovnih mestih, denimo programerjem, strokovnjakom za trženje, turističnim vodnikom, študentom in celo kuharjem, ne nazadnje pa tudi vsem, ki si želijo izboljšati produktivnost. ChatGPT med drugim pomaga pisati profesionalna, prepričljiva in vljudna e-sporočila, pri čemer svoje naloge opravlja hitreje in z višjo dodano vrednostjo. Uporabniki lahko pri tem ustvarjajo in prilagajajo svoje lastne velike jezikovne modele (LLM) v povezavi z določenimi področji in idejami.
Vendar pa je rast generativnega UI tudi razlog za različne skrbi. Eden izmed glavnih pomislekov je njen možni vpliv na delovna mesta, saj je postala konkurenca ustvarjalcem video- ali avdiovsebin, kar lahko povzroči izgubo delovnih mest. Drugi možni pomislek se nanaša na bližnjico do učenja brez dejanskega razumevanja gradiva.
Globoko učenje in globoki ponaredki
Prav tako lahko generativni UI ustvarja vsebine, s katerimi krši avtorske pravice. Ena izmed takšnih je možnost širjenja strupenih vsebin, saj generativni UI, ki je usposobljen na obstoječih podatkih, lahko ponovi ali tudi okrepi negativno vsebino. Generativna UI lahko ustvari tudi zelo prepričljive ponaredke (deepfakes), ki pa lahko privedejo do žalitev in različnih varnostnih težav. Če niso regulirani, globoki ponaredki lahko škodijo ugledu ljudi in privedejo do resne škode. Dovolj je, da si zamislimo z UI ustvarjen videoposnetek z našim dejanskim obrazom in lastnostmi, ki počne nekaj nezakonitega. Zato je nujno hkrati s koristmi poskrbeti za trenutna, prihajajoča in morebitna prihodnja tveganja.Izjemne zmogljivosti ob negativnih učinkih
Seveda ima generativni UI velike možnosti za spremembe na bolje in razvoj ter nam lahko olajša življenje v številnih panogah in na področjih, vendar pa se moramo zavedati, da lahko tako kot skoraj vsaka tehnologija prinaša tudi tveganja, ki jih je treba obravnavati. Samo z odgovornim upravljanjem in urejanjem lahko okrepimo zmogljivosti generativnega UI, hkrati pa zmanjšamo njegove negativne učinke. Očitno je, da morajo predvsem velika podjetja, ki veliko vlagajo v UI, dati prednost njegovemu upravljanju in urejanju, da bi se izognila neželenim posledicam. Regulatorni ukrepi pa morajo obravnavati vprašanja, kot so varnost, avtorske pravice in strupene vsebine.
Varnostni ukrepi ameriške administracije
Vlada ZDA je na začetku maja dala izjavo o uporabi UI, vključno z jezikovnimi modeli, kot je ChatGPT. Z njo je sprejela varnostne ukrepe pred vse drznejšo uporabo najnovejših tehnologij s strani napadalcev. V izjavi se poudarja pomen odgovorne uporabe inovacij na področju UI z namenom zaščite pravic in varnosti državljanov. Izjava poudarja skrbi zaradi uporabe UI za širjenje dezinformacij, zlonamernih izjav in zasebnih podatkov. Med drugim napoveduje srečanja podpredsednika ZDA z voditelji podjetij OpenAI, ki je v lasti Microsofta, ter Alphabet in Anthropic.
»UI bo za nas velik izziv,« pravi Dan Schiappa, vodja za produkte v podjetju za varnostne operacije Arctic Wolf. »Medtem ko moramo zagotoviti, da legitimne organizacije UI ne uporabljajo nezakonito, je brez dvoma res, da ga bodo zlobneži uporabljali tudi v prihodnje in da za zdaj nimamo načina, da jih reguliramo.«
V letu dni za polovico več ribarjenja z UI
UI v službi nepridipravov sicer ni nič novega, saj je že pred tremi leti Karthik Ramachandran, višji direktor za varnost v Deloittu, razložil, da so hekerji že uporabljali UI za ustvarjanje novih kibernetskih groženj. Med drugim je navedel, da je zlonamerni trojanski konj Emotet napadel industrijo finančnih storitev, izraelski subjekti pa so ga uporabili za ponarejanje zdravstvenih rezultatov.
Zlonamerne kode s funkcionalnostmi UI
Letos se kampanje z zlonamerno programsko opremo vse bolj usmerjajo k uporabi generativne tehnologije UI, meni družba Meta. Njeni analitiki navajajo, da je marca letos račune po internetu ogrožalo več kot deset družin zlonamernih programov, ki so se predstavljali kot ChatGPT in podobna orodja. Dodajajo, da so kriminalci z UI ustvarili zlonamerne razširitve brskalnika, ki so zdaj dostopne v uradnih spletnih trgovinah in se predstavljajo kot orodja, povezana s ChatGPT, pri čemer nekatera celo vsebujejo nekaj njegovih funkcionalnosti.
Podjetje Meta poudarja, da se tako prevaranti izogibajo sumom trgovin in uporabnikov. Ob tem dodaja, da je zaznalo in blokiralo več kot tisoč edinstvenih zlonamernih spletnih naslovov ter jih umaknilo iz skupne rabe v aplikacijah Meta in jih prijavilo drugim podjetjem iz panoge in podjetjem za izmenjavo datotek.
Zaščitni ukrepi z luknjami
»Primeri zlonamernih vsebin, ki so jih ustvarila orodja UI, kot so e-sporočila za ribarjenje, vohunski virusi (information stealers) in programska oprema za šifriranje, so na spletu pogosti,« pravi Bar Block, raziskovalka v podjetju Deep Instinct, ki se ukvarja s kibernetsko varnostjo na podlagi globokega učenja. OpenAI je zato s ciljem preprečevanja zlorab svojega novega orodja vanj med drugim vgradil nekatere mehanizme za prepoznavanje namere uporabnika, da kreira zlonamerno vsebino oziroma kodo. Program v takšnem primeru zavrne nadaljnjo pomoč, razlaga raziskovalka. Vendar uporabnik vseeno lahko obide te zaščitne ukrepe, če zadevo predstavi drugače, recimo nastopi kot raziskovalec, ki proučuje učinke hipotetičnega napada.Nepridipravi za zdaj v prednosti
Razvoj rešitev UI na splošno in izboljševanje zmogljivosti ChatGPT sta pokazala, da bo prihodnost ustvarjanja in odkrivanja zlonamerne programske opreme prepletena z napredkom na področju UI in dostopnostjo javnosti do teh orodij.
Snovalci groženj bodo tudi v prihodnje odkrivali poti za njihovo uporabo v svojo korist, strokovnjaki za kibernetsko varnost, ki imajo za zdaj od teh orodij manj koristi, pa bodo morali poiskati nove metode za obrambo pred zlonamerno programsko opremo, ustvarjeno z orodji (generativnega) UI. Število varnostnih produktov, ki temeljijo na UI, se že hitro povečuje. Po oceni podjetja Acumen Research and Consulting je bil trg tovrstnih rešitev leta 2021 vreden 13,78 milijarde evrov, do leta 2030 pa se bo ta številka povzpela na 123,79 milijarde evrov.
Europol proti zlorabam z UI
Na ChatGPT in druge velike jezikovne modele (LLM) je zadnje čase vse bolj pozoren tudi Europol. Konec leta 2019 so ustanovili inovacijski laboratorij za podporo kazenskega pregona na področju inovacij. Europol Innovation Lab je v zadnjem letu dni organiziral vrsto delavnic, na katerih so raziskovali možnosti zlorabe velikih jezikovnih modelov in možnosti njihove podpore raziskovalcem pri vsakdanjem delu. Rezultat raziskovanja je poročilo ChatGPT – vpliv velikih jezikovnih modelov na izvrševanje kazenskega pregona, ki ponuja pregled morebitnih zlorab ChatGPT in napovedi, kaj lahko še prihaja. Namen poročila je ozaveščanje o zlorabah LLM, odpiranje dialoga s podjetji za UI s ciljem, da jim pomagajo zgraditi boljše zaščitne ukrepe, ter spodbujanje razvoja varnih in zaupanja vrednih sistemov UI. Poročilo med drugim opozarja na aktivno izboljševanje zmogljivosti generativnega UI in možno rast zlorabe tovrstnih sistemov.Tri skupine kaznivih dejanj
Pri prvem gre za sposobnost ChatGPT, da pripravi zelo realistično besedilo za namene lažnega predstavljanja, sposobnost LLM za kopiranje jezikovnih vzorcev pa se lahko uporabi za posnemanje sloga govora posameznikov ali skupin, kar pa kriminalci lahko uporabijo za zavajanje.
Pri drugem področju gre za to, da je ChatGPT izjemen pri hitri izdelavi pristnega obsežnega besedila in je zato idealen za propagando in dezinformacije, saj omogoča posnemanje sloga govora posameznikov ali skupin ter pridobivanje in zlorabo zaupanja. Nazadnje pa je ChatGPT sposoben proizvajati tudi kodo v številnih različnih programskih jezikih, kar je za potencialnega kriminalca z malo tehničnega znanja neprecenljiv pripomoček pri izdelavi zlonamerne kode.