1. Idi na sadržaj
  2. Idi na glavnu navigaciju
  3. Idi na ostale ponude DW-a

Nema zabrane korištenja robota ubojica?

Nina Werkhäuser
25. juli 2022

U budućnosti bi roboti ubojice mogli odlučivati ​​o ratovima. Komisija UN-a u Ženevi želi regulirati njihovu upotrebu. Ali zbog rata u Ukrajini, pregovori su pri kraju.

https://p.dw.com/p/4EanY
Autonome Waffen | Drohnenschwärmen
Foto: Andy Dean/imagebroker/IMAGO

Ovaj dron ne dostavlja pizzu, već je napunjen eksplozivom. Na bordu su kamera i senzori, pokreću ih četiri lopatice rotora. Riječ je o takozvanom dronu kamikazi koji može samostalno locirati svoj cilj i baciti se na njega. Algoritmi to omogućuju. Tokom napada, dron se samouništi, ostavljajući za sobom malu hrpu elektroničkog otpada.

Dron kamikaze ne vidimo u nekom znanstveno-fantastičnom filmu, već u promotivnom videu proizvođača. Upravo o takvom oružju od ponedjeljka (25. jula) oko 80 zemalja ponovno pregovara o zabrani - u Ujedinjenim narodima u Ženevi.

Strojevi koji ubijaju ljude

Po definiciji, riječ je o oružju koje svoju metu može neovisno tražiti, birati i gađati. Za razliku od oružja na daljinsko upravljanje, posljednjom fazom napada upravljaju samostalno. Obrambene tvrtke koriste najnovija saznanja u području umjetne inteligencije (AI) i strojnog učenja. Kritičari takvo oružje nazivajurobotima ubojicama, u konferencijskoj dvorani u Ženevi govori se o "letalnim (smrtonosnim) autonomnim oružanim sustavima". To mogu biti primjerice dronovi, robotska vozila ili podmornice.

Rukovanje tim oružjem je sporno: neke zemlje traže zabranu jer algoritam nikada ne bi trebao odlučivati ​​o životu i smrti. Druge predlažu pravila za njihovo korištenje koja bi trebala biti više ili manje obvezujuća. Osnovni zahtjev je, kako navode, da ljudsko biće mora održavati određenu razinu kontrole nad tim oružanim sustavima u svakom trenutku. 

Autonome Waffen | Kamikaze-Drohne
Dron kamikaza ne vidimo u nekom znanstveno-fantastičnom filmu, već u promotivnom videu proizvođačaFoto: AeroVironment, Inc/abaca/picture alliance

Veto Rusije

Međunarodna zajednica se od 2014. godine sastaje dva puta godišnje u Ženevi od kako bi raspravljala o eksplozivnoj temi. Pozicije su udaljene. Iznad svega, SAD, Rusija i Kina protive se zabrani ili obvezujućim pravilima, za koja se boje da će imati vojno-strateški nedostatak.

Ruski agresorski rat u Ukrajini dodatno je otežao pregovore: Rusija je blokirala posljednji sastanak u martu neusvajanjem dnevnog reda. "Rusima se nije svidjelo što su im uvedene sankcije. Zato su spriječili da pregovori uopće počnu", kaže Ousman Noor. On prati razgovore za "Campaign to Stop Killer Robots", nevladinu organizaciju koja radi na zabrani ovog oružja. Noor načelo konsenzusa u Ženevi smatra jednom od najvećih prepreka: "Jedna država može staviti veto na cijeli proces", kaže on. Stoga je, smatra on, krajnje vrijeme da oni koji su za zabranu napuste neučinkoviti forum u Ženevi - koji je istrošen.

Ratni zločini počinjeni autonomnim oružjem

"Razgovori u Ženevi su propali", slaže se Vanessa Vohs, koja istražuje autonomno oružje na Sveučilištu Bundeswehr u Münchenu. Još uvijek ima mnogo neodgovorenih pitanja: "Ako autonomni oružani sustavi pogriješe i eventualno počine ratne zločine, ko je onda odgovoran?" - pita se ova znanstvenica. "Takozvani jaz u odgovornosti je veliki problem", dodaje ona.

Malo je toga što ukazuje na to da će se tako goruća pitanja riješiti u Ženevi. Pogotovo jer se situacija promijenila kao posljedica rata u Ukrajini: neki smatraju da je zabrana smrtonosnog autonomnog oružja hitnija nego ikad, dok joj drugi ne daju nikakve izglede.

"Smrtonosniji od nuklearne bombe"

"Postoje dokazi da Rusija koristi autonomne oružane sustave u ovom sukobu", rekao je Ousman Noor iz "Campaign to Stop Killer Robots". Među njima su navodno i dronovi kamikaze. Njihova uporaba u ratu "mogla bi dovesti do spoznaje da hitno moramo regulirati to oružje prije nego što se počne prodavati širom svijeta". 

Autonome Waffen |  Protest gegen "Killerroboter" in London
Po definiciji, riječ je o oružju koje svoju metu može neovisno tražiti, birati i gađatiFoto: Getty Images/AFP/C. Court

Stručnjaci za umjetnu inteligenciju već dugo upozoravaju da se posebno male naoružane bespilotne letjelice mogu jeftino proizvesti u velikim količinama - a nekoliko talentiranih studenata informatike bilo bi dovoljno da ih programiraju. "Kada vam više ne  trebaju ljudi za upravljanje tim oružjem, možete ih poslati desetke hiljada ili čak milijuna", upozorava britanski istraživač umjetne inteligencije Stuart Russell u intervjuu za DW. "Čineći to, stvaramo oružje koje je potencijalno smrtonosnije od nuklearne bombe", kaže on.

Više novca za vojsku

Dakle, postoji li nova dinamika u pokušaju zabrane korištenja robota ubojica? U ovom trenutku može se primijetiti suprotan učinak: upravo zbog rata u Ukrajini države ulažu više novca u vojsku, ponajprije u moderno oružje. Njemačka ulaže dodatnih 100 milijardi eura u Bundeswehr. Ulaže i u sisteme koji, poput borbenih aviona budućnosti (FCAS), rade s umjetnom inteligencijom.

Promatrači javljaju da je Njemačka u posljednje vrijeme neodlučna u pregovorima u Ženevi. Čini se da se vlada u Berlinu ne želi odreći vojnih prednosti koje autonomno oružje može donijeti. Dokument u kojem je ona iznijela svoj stav o toj temi, ne postoji. Njemačka nije sama u tome, barem ne u Ženevi: Niko ne očekuje da će ovo tijelo zabraniti smrtonosna autonomna oružja ili barem izdati obvezujuća pravila za njihovu upotrebu.

Sada se traži alternativa - po mogućnosti država koja će voditi pokret i pozvati druge države da pregovaraju o ugovorima. Nizozemska se smatra mogućim kandidatom. Vrijeme je ključno - s tehnološkim napretkom rizici su se povećali, upozoravaju stručnjaci poput Vanesse Vohs. "Zato su nam potrebna nova pravila prije nego što krenemo u apokaliptični scenarij u kojem će nešto stvarno poći po zlu."

Pratite nas i na Facebooku, na Twitteru, na YouTube, kao i na našem nalogu na Instagramu