Financial Times: Oružje sa veštačkom inteligencijom preti čovečanstvu

priredila N. Jokić

Ugledni naučnik Stjuart Rasel će koristiti Bi-Bi-Sijeva Rejt-predavanja, tražeći zabranu autonomnih smrtonosnih sistema
(ilustracija, SAD i Rusija, zajedno sa Velikom Britanijom, Izraelom i Australijom, i dalje protiv zabrane, navodi Rasel za FT)

Kompjuterski naučnik Stjuart Rasel sastao se u oktobru sa zvaničnicima britanskog Ministarstva odbrane kako bi im dao oštro upozorenje: ugradnja veštačke inteligencije u oružje mogla bi da uništi čovečanstvo. Međutim, pionirski istraživač veštačke inteligencije, koji je tokom prošle deceniju pokušavao da zabrani korišćenje veštačke inteligencije za lociranje i ubijanje ljudskih ciljeva, nije uspeo da izvuče nikakva obećanja od prisutnih na sastanku.

Ove nedelje, (Stjuart) Rasel, britanski profesor na Univerzitetu Kalifornije u Berkliju, koji je pre više od 25 godina bio koautor jednog od najvažnijih udžbenika o veštačkoj inteligenciji, koristiće godišnja Rejt-predavanja Bi-Bi-Sijevog radija da se i dalje bori (protiv ugradnje veštačke inteligencijeu u oružje).

Otvoreno pismo nemačkoj vladi

Njegovi pozivi na međunarodni moratorijum za autonomno smrtonosno oružje naišli su na odjek u akademskoj zajednici. Prošle nedelje, više od 400 nemačkih istraživača veštačke inteligencije objavilo je otvoreno pismo nemačkoj vladi tražeći od nje da zaustavi razvoj ovih sistema od strane svojih oružanih snaga.

„Ubijanje ljudi nikada ne bi trebalo da bude automatizovano na osnovu algoritamskih formula“, navodi se u pismu. „Takva dehumanizacija odlučivanja o životu i smrti od strane autonomnih sistema naoružanja mora biti zabranjena širom sveta“.

Rasel, koji se redovno sastaje sa vladama na međunarodnom nivou, rekao je da su SAD i Rusija, zajedno sa Velikom Britanijom, Izraelom i Australijom, i dalje protiv zabrane.

Smrtonosni kvadrokopter sa AI pogonom mogao bi biti mali kao konzerva kreme za cipele . . . oko tri grama eksploziva je dovoljno da ubije osobu iz neposredne blizine, kaže Stjuart Rasel. „Još mnoge vlade i vojske ne razumeju šta je prigovor“, rekao je Rasel u intervjuu za Fajnenšel tajms.

„Jednostavno rečeno, mi ne prodajemo nuklearno oružje u supermarketima — a sa ovim oružjem će biti upravo tako. Smrtonosno oružje sa veštačkom inteligencijom je „malo, jeftino i lako proizvedeno“. Bez provera, uskoro bi moglo da bude sveprisutno kao automatske puške, sa dometom od preko 100 metara u privatnim rukama“.  

Već u prodaji

U drugom od svoja četiri predavanja na temu „Živeti sa veštačkom inteligencijom“ koja će se emitovati na radiju Bi-Bi-Si od srede, Rasel je upozorio da oružje sa veštačkom inteligencijom više nije naučna fantastika, već da se razvija brzo i potpuno nekontrolisano.

„Možete ih kupiti danas. Oni se oglašavaju na vebu“, rekao je on. U novembru 2017, turski proizvođač oružja pod nazivom STM najavio je „kargu“, potpuno autonomni dron ubicu veličine ragbi lopte, koji može da izvrši ciljane pogotke na osnovu prepoznavanja slike i lica. Dron je korišćen u sukobima u Libiji 2020. godine za selektivno pogađanje mete, uprkos embargu UN na prodaju oružja Libiji.

„STM je relativno mali proizvođač u zemlji koja nije lider u tehnologiji. Dakle, morate pretpostaviti da se u mnogim zemljama odvijaju programi za razvoj ovog oružja“, rekao je Rasel.

Takođe je opisao „harpiju“ izraelske vlade - 12 stopa dugačku letelicu sa fiksnim krilima koja nosi eksploziv od 50 funti, i njenog potomka, „harop“. Avioni mogu da lete na daljinu ili mogu da rade autonomno nakon što ljudski operater odredi geografiju i cilj. „Harop“ je možda prodat Indiji i Azerbejdžanu, gde je primećen na snimku koji je proizvela vojska. U saopštenju za štampu izraelske aerokosmičke industrije se navodi da je prodato „stotine“ ovih proizvoda.

Rasel je upozorio da širenje AI oružja predstavlja neposrednu i egzistencijalnu pretnju. „Smrtonosni kvadrokopter sa AI pogonom mogao bi biti mali kao konzerva kreme za cipele . . . oko tri grama eksploziva je dovoljno da ubije osobu iz neposredne blizine. U običan kontejner bi mogao da stane milion smrtonosnog oružja, i... svi oni mogu biti poslati da rade svoj posao odjednom“, rekao je on u svom predavanju.

Selektivno oružje za masovno uništenje

„Dakle, neizbežan krajnji ishod je da autonomno oružje postane jeftino, selektivno oružje za masovno uništenje. U nedostatku diplomatske akcije, akademci se udružuju kako bi osmislili svoju idealnu verziju sporazuma o zabrani AI oružja.“

Grupa kompjuterskih naučnika, inženjera i etičara sastala se 2019. godine da to razjasni, u bostonskom domu profesora MIT (Massachusetts Institute of Technology), Maksa Tegmarka, koji je suosnivač Instituta za budućnost života.

Dvodnevni sastanak uključio je, između ostalih, robo-etičara Rona Arkina iz Georgia Tech-a, Pola Šara, bivšeg oficira američke vojske koji proučava budućnost rata i Rasela. Na kraju su se složili da navođenje minimalne težine i veličine eksploziva treba da bude obavezno, tako da se autonomna oružja ne mogu koristiti kao rojevi.

„Ono što pokušavate da izbegnete je da ne bude moguće da dva tipa u kamionu lansiraju milion komada oružja“, rekao je Rasel. On veruje da treba apelovati na vlade zemalja poput SAD, Rusije i Velike Britanije koje se i dalje opiru zabrani, da to prestanu da čine u ime samoodržanja. Kako je rekao: „Ako su tehnička pitanja previše komplikovana, vaša deca verovatno mogu da ih objasne.“ ​

 

 


Molimo Vas da pročitate sledeća pravila pre komentarisanja:

Komentari koji sadrže uvrede, omalovažavanje, nepristojan govor, pretnje, rasističke ili šovinističke poruke neće biti objavljeni. Nije dozvoljeno lažno predstavljanje, ostavljanje lažnih podataka u poljima za slanje komentara. Zadržavamo pravo izbora ili skraćivanja komentara koji će biti objavljeni. Web časopis BalkanMagazin ne odgovara za sadržaj objavljenih komentara. Sva mišljenja, sugestije, kritike i drugi stavovi izneseni u komentarima su isključivo lični stavovi autora komentara i ne predstavljaju stavove redakcije Web časopisa BalkanMagazin.

captcha image
Reload Captcha Image...