Borbeni Roboti: Zabranjeno Ne Može Biti Dozvoljeno

Sadržaj:

Borbeni Roboti: Zabranjeno Ne Može Biti Dozvoljeno
Borbeni Roboti: Zabranjeno Ne Može Biti Dozvoljeno

Video: Borbeni Roboti: Zabranjeno Ne Može Biti Dozvoljeno

Video: Borbeni Roboti: Zabranjeno Ne Može Biti Dozvoljeno
Video: EVO ŠTA JE HITLER REKAO O SRBIMA, BEOGRADU, JUGOSLAVIJI! - NIJE HTEO DA NAPADNE... 2024, Maj
Anonim

Stručnjaci su se sastali u Ženevi, ali nije moguće postići dogovor: Sjedinjene Države i Rusija blokirale su sve radove. Možda je ovo jedini put kada hegemoni djeluju tako skladno.

Borbeni roboti: zabranjeno ne može biti dozvoljeno
Borbeni roboti: zabranjeno ne može biti dozvoljeno

Sastanci stručnjaka u formatu Konvencije o nehumanom oružju završeni su u Ženevi kako bi odlučili o sudbini takozvanih borbenih robota - autonomnog oružja koje koristi umjetnu inteligenciju za poraz ciljeva. Međutim, nije se mogao postići dogovor. Sjedinjene Države, Rusija, Južna Koreja, Izrael i Australija bile su među manjinskim državama koje su uspjele blokirati sentiment prema potpunoj zabrani robota ubica.

Dakle, iako na svijetu još uvijek ne radi autonomno oružje, tehnologija ostaje, da tako kažem, humana - može se razvijati i istraživati. Zanimljivo je da su Sjedinjene Države i Rusija, prema Stokholmskom institutu za istraživanje mira (SIPRI), na vrhu liste najvećih izvoznika oružja. Južna Koreja, Izrael i Australija također ne zaostaju na ovoj ljestvici - oni su među 20 najboljih tržišnih igrača.

Iako se Kina (peti izvoznik oružja na svijetu, stalna članica Vijeća sigurnosti UN-a zalaže za zabranu borbenih robota, tijekom sastanaka nije uspjela prilagoditi vagu u svom smjeru. Danas 26 zemalja otvoreno podržava zabrana upotrebe umjetne inteligencije u ratu. Drugi se klone jasnog stava) Francuska i Njemačka (treći i četvrti izvoznik oružja) nude potpisivanje dokumenta koji bi učvrstio primat čovjeka nad umjetnom inteligencijom, ali vjerojatnije je da će na strani onih koji žele razviti autonomna borbena vozila.

"Svakako je razočaravajuće da mala grupa vojnih divova može zadržati volju većine", komentirala je Mary Verhem, koordinatorica Kampanje za zaustavljanje robota ubica, ishod ženevskih sastanaka.

Zapravo, situacija izgleda kao zavjera naoružanih monopolističkih tajkuna, s obzirom na to da Sjedinjene Države i Rusija obično ne mogu postići barem neku vrstu kompromisa o važnim pitanjima. Uzmimo sirijsku: Washington i Moskva međusobno su blokirali međusobne rezolucije nakon upotrebe hemijskog oružja u Siriji ovog proljeća. Ugušujući gasovi i druge toksične supstance za vojne svrhe, inače, ranije su bile zabranjene Konvencijom o nehumanom oružju.

Sljedeći sastanak o sudbini robota ubica održat će se u novembru u Ženevi.

Zašto žele zabraniti autonomno oružje

Pristalice zabrane robotskog rata insistiraju na tome da bojno polje nije mjesto za umjetnu inteligenciju. Po njihovom mišljenju, takve tehnologije predstavljaju veliku prijetnju. Danas barem nije jasno kako će mašina razlikovati borce (one koji su direktno uključeni u neprijateljstva) od neboraca (osoblje vojne vojske koje oružje može koristiti samo za samoodbranu) i civila uopšte. Postoji mogućnost da će rad usmrtiti ranjenike i one koji se predaju, što je zabranjeno važećim pravilima ratovanja.

Šta sprečava posao da ometa sve strane u sukobu, čak i vlasnike takvog oružja? Elementi umjetne inteligencije već se uspješno koriste u vojnoj opremi, raketama; roboti su privučeni za izviđanje, ali konačna riječ i dalje ostaje na ljudima. Autonomno oružje neće se povinovati naredbama komandanata - zato je autonomno. Zbog toga su vojni generali iz različitih zemalja skeptični prema uvođenju mašina u redove osoblja.

I još jedno otvoreno pitanje je međunarodni terorizam. Tehnologija autonomnog oružja može pasti u pogrešne ruke i na kraju može biti hakirana. Prije godinu dana ruski predsjednik Vladimir Putin rekao je da će vladar svijeta biti taj koji će postati lider u razvoju umjetne inteligencije. U slučaju autonomnog oružja, onaj ko dobije pristup takvim tehnologijama postat će vladar svijeta. A za ovo su vam zapravo potrebni samo računar i izvrdač koji će proći kroz sigurnosne sisteme. Inače, Pentagon je hakiran više puta. Shodno tome, niko ne može dati garancije da će autonomno oružje ostati nepovredivo.

Takođe je nejasno ko će biti zakonski odgovoran ako se ratni zločin počine kao rezultat funkcionisanja autonomnog sistema naoružanja. „Inženjer, programer, proizvođač ili zapovjednik koji je koristio oružje? Ako se odgovornost ne može definirati kako to zahtijeva međunarodno humanitarno pravo, može li se primjena takvih sistema prepoznati kao pravna ili etički opravdana?”, Napominje Međunarodni komitet Crvenog križa.

Zanimljivo je da su se i naučnici zalagali za zabranu borbenih robota. U julu ove godine više od dvije hiljade naučnika, posebno tvorac Tesle i SpaceX-a Elon Musk i suosnivači DeepMind-a, potpisali su dokument da neće razvijati smrtonosno autonomno oružje. Google je učinio isto. Tehnički div je odustao od rada na Pentagonovom projektu Maven. A 2017. godine, brojni naučnici već su pozvali UN da zabrane stvaranje robota ubica.

Inače, pitanje umjetne inteligencije u ratu pojavilo se na dnevnom redu Ujedinjenih nacija krajem 2013. godine, ali od tada se praktično ništa nije promijenilo. Tek ove godine počeli su stručni sastanci u obliku Konvencije o nehumanom oružju. Odnosno, trebalo je više od četiri godine da se dođe do neke manje-više praktične ravni.

Zašto ne žele zabraniti autonomno oružje

Bez obzira koliko to zvučalo otrcano, trka u naoružanju glavni je razlog zašto ne žele zabraniti robote ubojice. Putin je u pravu: onaj ko prvi dobije autonomno oružje dominirat će svijetom. Službeno se ovaj razlog iznosi.

Glavni argument protivnika zabrane je nemogućnost odvajanja civilne umjetne inteligencije od vojske. Kao, nećemo zabraniti kuhinjske noževe samo zato što ih teroristi mogu koristiti. Zapravo, praktično je nemoguće odvojiti civilni razvoj umjetne inteligencije od vojske. Ali sada govorimo o zabrani ovog oružja, koje će moći samostalno određivati i napadati ciljeve. Ovo bi mogao biti projekt Maven, na kojem američko Ministarstvo obrane radi zajedno s Boozom Allenom Hamiltonom (Google je odbio ugovor).

Programeri Maven žele naučiti bespilotne letjelice da analiziraju slike, posebno sa satelita i - potencijalno - identificiraju ciljeve za napad. Pentagon je počeo raditi na projektu još u aprilu 2017. godine i nadao se da će prve radne algoritme dobiti do kraja godine. Ali kroz demaršu Googleovih zaposlenika, razvoj je odgođen. Od juna ove godine, prema Gizmodu, sistem je mogao razlikovati elementarne objekte - automobile i ljude, ali pokazalo se da je potpuno beznačajan u teškim situacijama. Ako se zabrana autonomnog oružja ipak usvoji na razini UN-a, projekt će morati biti ukinut, dok Pentagon tvrdi da njegov razvoj može spasiti živote, jer se može programirati da djeluje preciznije i pouzdanije u usporedbi s ljudima.

"Morate shvatiti da govorimo o tehnologiji, da ona nema uzorke koji bi mogli raditi. Ideja takvih sistema još je uvijek površna", primijećeno je uoči sastanka u Ženevi u ruskom ministarstvu vanjskih poslova. - Prema našem mišljenju, međunarodno pravo, posebno humanitarni sektor, može se primijeniti na autonomno oružje. Ne trebaju modernizaciju ili prilagođavanje sistemima koji još ne postoje."

Pa, i još jedan stvarni, ali ne i glas, razlog je novac. Danas se tržište vojnih tehnologija umjetne inteligencije procjenjuje na više od šest milijardi dolara. Ali do 2025. brojka će se utrostručiti - na skoro 19 milijardi, prema analitičarima američke kompanije MarketsandMarkets. Za najveće izvoznike oružja ovo je dobar motiv da blokiraju bilo kakva ograničenja u razvoju robota ubica.

Napredak se ne može zaustaviti

Pristalice zabrane autonomnog oružja napominju da se tehnologija razvija vrlo brzo i da će umjetna inteligencija na kraju postati oružje - pitanje vremena. U njihovim riječima ima logike. Umjetna inteligencija sastavni je dio četvrte naučno-tehnološke revolucije koja se nastavlja i danas. Treba imati na umu da je tehnički napredak na ovaj ili onaj način povezan s vojnim operacijama. Treća naučno-tehnološka revolucija trajala je do sredine 50-ih godina XX vijeka, odnosno vrhunac je pao na period Drugog svjetskog rata.

1949. godine Ženeva je usvojila Konvenciju o zaštiti civilnih osoba u ratno vrijeme. U poslijeratnom periodu dopunili su i IV Hašku konvenciju iz 1907. godine koja je utvrdila pravila vođenja rata. Odnosno, strahote Drugog svjetskog rata postale su katalizator ovog procesa. Dakle, branitelji ljudskih prava ne žele čekati Treći svjetski rat kako bi zaštitili čovječanstvo od autonomnog oružja. Zbog toga je sada potrebno odlučiti o sudbini robota ubica, insistiraju oni.

Prema stručnjacima Human Rights Watcha, upotreba borbenih robota u suprotnosti je s Martensovom deklaracijom - preambulom Haške konvencije o ratnim zakonima i običajima iz 1899. godine. Drugim riječima, roboti ubojice krše zakone čovječanstva i zahtjeve javne svijesti (stav je potvrđen u IV Haškoj konvenciji).

"Moramo zajedno raditi na tome da nametnemo preventivnu zabranu takvih oružnih sistema prije nego što se prošire svijetom", rekla je Bonnie Doherty, viša istraživačica u odjelu za oružje Human Rights Watch-a.

Pa, ovaj put nije uspjelo zabraniti robote ubojice. Predvidljivo će i sastanci u novembru biti besplodni. Istina, gotovo sve zemlje se slažu - tehnologiji se ne može dozvoliti da teče gravitacijom i borbenim robotima je potrebna takva zaustavna dizalica. Ali još uvijek nije jasno hoće li čovječanstvo imati vremena povući ga kad se za tim ukaže potreba.

Preporučuje se: