14.7 C
Belgrade
Monday, March 16, 2026

O ŽIVOTU I SMRTI ODLUČUJU ALGORITMI: Zloupotreba veštačke inteligencije narušava etička ograničenja i odgovornost u ratovima

-

NEOGRANIČENA primena veštačke inteligencije (VI) od strane vojske, njeno korišćenje kao alata za kršenje suvereniteta drugih nacija, omogućavanje VI da prekomerno utiče na ratne odluke i davanje algoritmima moći da odlučuju o životu i smrti – četiri su formule kojima je američke vojne operacije u Iranu i Venecueli sažeo prošle nedelje portparol kineskog ministarstva odbrane Đijang Bin.

Foto: Printscreen

Stručnjaci za informatiku upozoravaju da oficiri koji odobravaju ciljeve koje im daje VI imaju najviše 20 sekundi da provere njihovu verodostojnost, što ih pretvara u robote za nekritičko potvrđivanje. To je direktno potvrdila američka visokotehnološka kompanija “Antropik” (Anthropic) koja je pre rata u Iranu imala ugovore sa Pentagonom vredne 20 milijardi dolara. U njima su bila stroga ograničenja da AI Klod (Claude) ne sme da se koristi za autonomno upravljanje robotizovanim oružjem koje samo odlučuje o ispaljivanju, niti za masovni nadzor građana SAD. Informatičari su branili tradicionalni princip da prisluškivanje mora da bude odobreno za konkretnu osobu.

Oni upozoravaju da zloupotrebljeni VI sistemi vrše totalni nadzor usisavajući sve podatke o svim građanima na sve načine, pomoću snimaka javnih kamera koje prepoznaju ne samo lica već i način hoda i držanje, do mobilnih telefona koji neprestano odaju lokaciju vlasnika i čiji se pozivi i poruke analiziraju. Za takvu VI svaki građanin je unapred “sumnjivo lice” pod prismotrom. Informatičari su ukazali da je to stručni problem “crne kutije” jer ni oni zapravo ne znaju tačno zašto VI nekoga ocenjuje visoko sumnjivim ili opasnim.

SUMNjIVA LICA

UPOTREBA AI sistema poput izraelskih “Lavandera” i “Jevanđelja” iz temelja menja koncept pravne države i ljudskih prava, jer se procesi koji su nekada zahtevali sudske naloge i ljudsku procenu sada sele u sferu automatizacije i uvođenje “krivice po asocijaciji”, odnosno “algoritamske sumnje”. Ovi sistemi funkcionišu na bazi “povezanosti” pa ako uoče da meta, na primer kriminalac ili pripadnik militantne grupe, često odlazi u isti frizerski salon ili prodavnicu, ili naručuje hranu iz istog restorana, AI automatski markira berberina, prodavca i ugostitelja i njihove lokale kao sumnjive i potencijalne vojne ciljeve. Upravo tako informatičari objašnjavaju aktuelna ljudskom logikom neshvatljiva razaranja desetina hiljada civilnih objekata u Iranu i Libanu.

Pojednostavljeno, programer kaže mašini: “Evo ti podaci o 1.000 potvrđenih terorista i 1.000 civila, a sam pronađi milione sitnih sličnosti među njima koje mi ljudi ne vidimo”. Tako, na primer, funkcioniše izraelski “lavender” za praćenje islamskih militanata koji analizira hiljade parametara istovremeno: ko koga zove, koliko traju pozivi, kojom rutom se osobe kreću, u koje vreme menjaju lokaciju. Ocena VI da je neko opasan ili deo terorističke mreže je rezultat milijardi matematičkih operacija i ni sam programer ne može tačno da objasni koja je tačno kombinacija od hiljadu faktora bila presudna za konkretnog čoveka.

Pri tome se VI alat “samousavršava” i vremenom softver može početi da kažnjava ljude, na šta je nedvosmisleno upozorio Đijang Bin: “Davanje algoritmima moći da odlučuju o životu i smrti ne samo da narušava etička ograničenja i odgovornost u ratovima, već i rizikuje da se tehnologija odmetne. Taj trend nosi rizik da se film ‘Terminator’ koji prikazuje samosvesni program veštačke inteligencije koji izaziva nuklearnu apokalipsu pretvori u stvarni život”.

Foto: Printscreen

Ubistvo navodnog militanta u Libanu dronom

Da Trampova administracija nije uzela za ozbiljno opasnost da vojni komandanti veruju “nepogrešivoj matematici” VI iako ni sami ne razumeju kako funkcioniše, pokazao je zahtev Pentagona kompaniji “Antropik” da ukloni etičke restrikcije iz Kloda, a kada je ona odbila predsednik Tramp ju je optužio za “nedostatak patriotizma” i “vouk” ideologiju. Ona je proglašena kao “rizik za lanac snabdevanja” što je etiketa koja se obično koristi za neprijateljske strane firme, a svim federalnim agencijama i vojnim saradnicima je zabranjeno da koriste njene proizvode.

Konkurentski OpenAI video je šansu i potpisao ugovor sa Pentagonom, a “Antropik” je tužio vladu SAD sudu uz obrazloženje da je njena odluka neustavna i predstavlja odmazdu zbog njihovih etičkih stavova. Pojavio se i novi problem, kada su mediji poput “Vol strit džornala” i “Aksiosa” izvestili da se “Antropikov” četbot Klod ipak koristi kao deo sistema za identifikaciju meta tokom masovnih vazdušnih udara na Iran, ugrađen u sistem Maven (Maven Smart System), glavni program Pentagona za analizu snimaka iz vazduha i senzorskih podataka radi otkrivanja meta. Ubrzavanje planiranja operacija pomoću VI je omogućilo Pentagonu da izvrši udare na preko 1.000 meta u roku od samo 24 sata, a to se pokazalo kao glavni uzrok katastrofalnih grešaka u identifikaciji.

Najtragičniji primer bio je raketni napad na osnovnu školu za devojčice u iranskom Minabu, gde je stradalo najmanje 165 osoba, većinom dece uzrasta sedam do 12 godina. Ves Dž. Brajant, nekadašnji viši savetnik u Pentagonu, u analizi za “Njujork tajms” je potvrdio da škola nije kolateralna šteta, već da je uništena “savršenim pogocima” jer je pogrešno identifikovana kao deo vojnog objekta iako se na satelitskim snimcima od 2018. jasno vidi da je reč o školi.

Foto: Printscreen

Tramp je pobesneo jer Antropil nije dozvolio da se njgov softver koristi za ubijanje

VI očigledno nije ažurirala snimke a čovek koji je odobrio cilj je podredio svoje rasuđivanje softveru koji je lansirao projektile sa namerom da proizvede što više žrtava. Naime, nisu sve učenice stradale u prvom udaru. Jedan od nastavnika i direktor su premestili preživele u udaljenu školsku molitvenu salu, ali upravo kada su stigli roditelji i spasioci usledio je drugi napad na to sklonište. VI nije razlikovala decu, roditelje i spasioce od vojnika, toplotni senzori su registrovali samo ljudska bića u pokretu koje je trebalo uništiti.

Bio je to prvi od do sada više puta dokumentovanih akcija koje se u američkoj vojnoj i bezbednosnoj terminologiji nazivaju double tap, višestrukom udaru sa zadrškom u kome prvi projektil pogađa metu, a sledeći dolazi nakon pet, 10 ili 15 minuta, za vreme koje VI proceni da je potrebno da se ljudi okupe oko ruševina. Po međunarodnom ratnom pravu to je ratni zločin, ali softver ne može da se izvede na sud. To je savršeno pokriće za tehnologiju zločina koje je NATO pod rukovodstvom SAD činio protiv civila tokom agresije na Srbiju, samo mnogo brže i razornije.

Na školu u Minabu je primenjena ista taktika kao pri raketiranju zgrade Generalštaba u Beogradu u noći između 29. i 30. aprila 1999. Napad je izveden u dva talasa sa razmakom od oko 15 minuta, što je dovelo do stradanja vatrogasaca, spasilaca i fotoreportera “Novosti” Igora Marinkovića koji su došli na lice mesta. Tada nije postojala VI u današnjem smislu, ali je korišćena preteča digitalnog ratovanja koja je postavila temelje za današnje sisteme.

Rakete “tomahavk” su koristile sistem TERCOM (Terrain Contour Matching), projektil je u memoriji imao digitalnu 3D mapu terena koju je tokom leta upoređivao sa onim što “vidi” svojim radarom, pa je sam korigovao kurs kako bi pogodio cilj. Tadašnji napadi nisu zavisili od AI koja u realnom vremenu vidi pokret spasilaca, već od hladnog vojnog proračuna koji se zove time-on-target: planeri u komandi NATO su unapred programirali rakete da udare u razmaku od 15 minuta i to je bila strategija da se desetkuje protivnik koji pritekne u pomoć, što je bio ratni zločin za koji niko nije odgovarao.

Foto: X printskrin/wion

Sahrana učenica iz Minaba

To što su tada radili konkretni ljudi – ratni zločinci, danas obavlja AI prepoznajući “neuspeh uništenja mete” ako ima znakova života, posle čega samostalno sugeriše ili aktivira sledeći udar. Ono što je 1999. bilo mehaničko izvršenje zle namere, danas je algoritamsko; tehnologija je omogućila da se razmak između dva udara skrati i da se iz njega potpuno izbaci ljudsko oklevanje. To je savršen mehanizam za izvođenje nekažnjenih zločina jer ako AI pogreši, ne postoji pravni okvir koji daje odgovor na pitanje ko je kriv: programer koji je pisao kod, oficir koji je pritisnuo dugme ili država koja je dozvolila upotrebu softvera?

Stavljanje VI pod kontrolu postalo je vrhunska tema širom planete jer je postalo jasno da ona neće kontrolisati samo oružane sukobe, već da preti da postane alat totalitarizma u miru, koji čak neće kontrolisati ni države već “digitalni feudalci”, vlasnici informatičkih kompanija. Kao zloćudan primer navodi se izraelski sistem koji je već u praksi pokazao da je u stanju da analizira podatke o gotovo celokupnom stanovništvu (društvene mreže, kontakte, lokaciju telefona) i da svakom pojedincu dodeljuje ocenu od jedan do 100 na osnovu verovatnoće da je povezan sa militantima, a na osnovu tih “ocena” formiraju se liste za odstrel. Po istom principu moguće je programirati da cilj budu pripadnici neke političke struje ili etnička ili religiozna grupa, koja čak i ne mora da bude fizički eliminisana, već se u digitalno umreženom svetu može staviti u geto.

GDE JE TATA

SISTEM veštačke inteligencije “Gde je tata?” (Where is Daddy?) koji koristi izraelska vojska za lociranje i praćenje pojedinaca izazvao je ogromne reakcije zbog neetičnosti. Dizajniran je da preko podataka o lokaciji mobilnih telefona prostorno i vremenski prati osobe koje su prethodno identifikovane kao vojni ciljevi. Primarna uloga sistema je da obavesti operatore u trenutku kada ciljana osoba uđe u određeni objekat, najčešće svoju porodičnu kuću. On tada šalje automatsko obaveštenje, tzv. ping operaterima, a to često rezultira velikim brojem civilnih žrtava, pre svega članova porodica. Kritičari ukazuju da sistem doprinosi visokom broju civilnih žrtava jer su napadi usmereni na stambene objekte.

Pratite nas i putem iOS i android aplikacije

Najnovije