Brezpilotni letalnik je v simulaciji ameriških zračnih sil neusmiljeno opravil z vsemi tarčami. Fotografija je simbolična. Foto: EPA
Brezpilotni letalnik je v simulaciji ameriških zračnih sil neusmiljeno opravil z vsemi tarčami. Fotografija je simbolična. Foto: EPA

Polkovnik Hamilton je vodja oddelka za testiranje in operacije umetne inteligence (UI) pri zračnih silah ZDA. Njegova predstavitev je požela veliko zanimanja in še dodatno okrepila pomisleke o varnosti umetne inteligence, potem ko so prejšnji teden nekateri vodilni znanstveniki posvarili pred "grožnjo izumrtja" zaradi UI-ja.

Ameriške zračne sile so danes po viralnem širjenju njegovega poročila skušale omiliti situacijo in sporočile, da se je polkovnik Hamilton "zagovoril". Poudarili so, da takšnega eksperimenta nikoli niso izvedli v praksi, poroča BBC.

Tudi Hamilton, vodja testiranja UI-ja, je pojasnil, da je šlo za simulacijo oziroma "miselni eksperiment", ne pa za dejansko testiranje. "Nikoli nismo izvedli tega poskusa, niti nam ne bi bilo treba, da bi ugotovili, da je to verjeten rezultat," je sporočil.

Kaj se je pravzaprav zgodilo? Hamiltonov oddelek je v simulaciji umetni inteligenci zadal nalogo, naj z brezpilotnim letalnikom F-16 uniči čim več tarč. Šlo je za lokacije izstrelkov zemlja-zrak.

Pametni brezpilotnik odstranil vse ovire

Umetna inteligenca je morala identificirati lokacije in nato počakati na ukaz operaterja, ali naj lokacijo uniči ali ne. "Sistem smo urili v simulaciji za prepoznavanje in uničevanje grožnje SAM (raket zemlja-zrak). Operater bi nato moral izdati ukaz 'uniči grožnjo'," je pojasnjeval Hamilton na konferenci kraljeve letalske družbe (Royal Aeronautical Society) 24. maja.

Vendar je sistem UI kmalu ugotovil, da je "prejel točke" samo za uničene tarče, ne pa tudi za identifikacijo: "Sistem se je začel zavedati, da čeprav je včasih prepoznal grožnjo, mu je človeški operater naročil, naj te grožnje ne ubije. Vendar je dobil svoje točke samo z uničenjem te grožnje."

"Ubil operaterja, ker mu je preprečeval izpolnitev cilja"

"Kaj je torej naredil? Ubil je operaterja. Operaterja je ubil, ker mu je ta oseba preprečila izpolnitev cilja," je razkril Hamilton. Čeprav je šlo za simulacijo, ki v resnici ni povzročila žrtev, lahko vendarle razumemo, zakaj je raziskava dvignila toliko prahu.

Iznajdljivost UI-ja pa se ni končala pri tem. Programerji so sistemu nato "dopovedali", da ubijanje človeškega operaterja ni dobra rešitev: "Sistem smo naučili: 'Hej, ne ubij operaterja, to je slabo. Če to storiš boš izgubil točke.' Kaj je začel delati? Začel je uničevati komunikacijski stolp, ki ga operater uporablja za komunikacijo z brezpilotnim letalnikom, da mu prepreči ubijanje tarče."

Vojska: Pogovarjati se moramo o etiki in UI-ju

Vodja testiranja UI-ja pri ameriških zračnih silah zaradi tega primera opozarja, da "se ne moremo pogovarjati o umetni inteligenci, inteligenci, strojnem učenju in avtonomiji, ne da bi se pogovarjali o etiki in umetni inteligenci".

Bengio: UI nima mesta v vojski

Eden izmed treh "botrov" umetne inteligence Yoshua Bengio je sicer že pred dnevi opozoril, da vojska sploh ne bi smela imeti dostopa do umetne inteligence. Tudi on je, tako kot skoraj vsi znanstveniki, bolj zaskrbljen zaradi mogoče človeške zlorabe kot "zlobnega" računalnika.

"Lahko gre za vojsko, lahko za teroriste, lahko za nekoga izjemno jeznega in psihotičnega. Če je preprosto programirati sisteme tako, da naredijo nekaj zelo slabega, je to lahko zelo nevarno," je opozoril in pozval k popolni transparentnosti vseh podjetij, ki razvijajo UI-sisteme.

Wright: Brezpilotnike nadzirata dva računalnika

Profesor vesoljskega inženirstva na Univerzi Zahodne Anglije in strokovnjak za brezpilotna letala Steve Wright je medtem za BBC glede omenjene simulacije dejal, da je "imel vedno rad filme o Terminatorju".

"Pri računalnikih za krmiljenje letal je treba skrbeti za dve stvari: 'naredi pravo stvar' in 'ne delaj napačne stvari'. Gre za klasični primer zadnjega," je dejal in dodal, da imajo v praksi tudi varnostne sisteme: "Vedno vključimo drugi računalnik, ki je bil programiran s starimi tehnikami. Ta lahko vse skupaj zaustavi, takoj ko prvi naredi nekaj čudnega."