Nova uzbuna povodom nekontrolisanog razvoja veštačke inteligencije (1): Čovečanstvu preti izumiranje?

Nataša Jokić

Samo dva meseca posle otvoreng pisma u kome naučnici traže “pauzu“ u istraživanjima u domenu veštačke inteligencije, objavljena je alarmantna peticija koju podržavaju i čelnici tehnološke industrije
(ilustracija, casefire.ca)

Veštačka inteligencija (AI-artificial intelligence) nosi opasnost od izumiranja čovečanstva i njeno ograničavanje i regulacija trebalo bi da budu globalni prioritet, poput drugih rizika velikih razmera kao što su pandemije ili nuklearni rat -  piše u peticiji koju je u utorak, 30. maja, pokrenulo 350 ličnosti iz sektora veštačke inteligencije.

Ovu peticiju pokrenula je NVO Centar za AI bezbednost, sa sedištem u San Francisku. Pre samo dva meseca objavljeno je otvoreno pismo svetskoj javnosti u kome se traži „pauza“ naprednih istraživanja u domenu AI, sa više od hiljadu potpisa uključujući i potpis generalnog direktora Tesle, Elona Muska.

Rizik za čovečanstvo

Najnoviju peticiju objavljenu u utorak podržavaju i rukovodioci tehnološke industrije: Sem Altman, izvršni direktor OpenAI, tvorac ChatGPT, Demis Hasabis, izvršni direktor Google-DeepMind, James Maniika, prvi potpredsednik za regulatorna pitanja i etiku veštačke inteligencije u Google-u, Erik Horvic, naučni direktor Microsoft-a, Dario Amodei, bivši OpenAI i osnivač Anthropic-a, mladi kadar kojeg podržava Google.

Među ostalim potpisnicima peticije nalaze se mnogi potpisnici pomenutog pisma objavljenog krajem marta kojim se traži šestomesečna pauza u razvoju AI, uključujući Maksa Tegmarka, iz nevladine organizacije Future of Life Institute, ili Stjuarta Rasela, iz Centra za veštačku inteligenciju kompatibilnu sa ljudima, laboratorije univerziteta iz Berklija.

Pojavljuju se i neki vodeći istraživači koji su nedavno prihvatili ideju da veštačka inteligencija predstavlja egzistencijalni rizik za čovečanstvo, uključujući Džefrija Hintona, koji je dao ostavku u Guglu, i Joshua Bengioa, sa Univerziteta u Montrealu. Obojica se smatraju „očevima“ moderne veštačke inteligencije i dobili su prestižnu nagradu Alan-Tjuring. Istu nagradu dobio je i jan Jan Lekan (Yann LeCun), šef istraživanja veštačke inteligencije u Meta (Google), koji ne deli opšti pesimizam i strah i kaže da ne razume zašto bi softver veštačke inteligencije napao ljude.

Zašto bi čelnici industrije u usponu pozvali države širom sveta da svoju tehnologiju smatraju velikom opasnošću i da je regulišu u skladu sa tim? Inicijativa deluje kontraintuitivno, ali se može objasniti, ako se setimo početaka OpenAI.

„Dvostruka igra“

Elon Musk je već 2015. upozoravao medije na potencijalnu opasnost koju može da predstavlja veštačka inteligencija „potencijalno opasnija od nuklearnih bombi“. Neki su tvrdili da bi „veštačka opšta inteligencija“ superiornija od ljudske mogla, namerno ili greškom, postati neprijateljsko orjentisana ljudima: “Laboratorije su ušle u nekontrolisanu fazu kako bi razvili digitalnu sve moćniju inteligenciju koju niko – pa čak ni oni koji su je stvorili – ne mogu da razumeju, niti da predvide njeno delovanje, ni da je kontrolišu“.

To nije sprečilo Maska da bude suosnivač OpenAI, čiji je prvobitni cilj da stvori opštu veštačku inteligenciju „na način koji koristi čovečanstvu“. Mnogi ga zato kritikuju za “dvostruku igru“.

“Za svoju novu kompaniju – čiji je on direktor – Elon Musk je angažovao istraživače veštačke inteligencije i kupio 10.000 grafičkih procesora, moćne računare za obuku jezičkih modela, osnovu generativnih AI sistema“ – optužio je Maska švajcarski stručnjak sa napredne tehnologije Anuš Sejdtagia u ženevskom dnevniku L Tan.

“Dvostruka igra Elona Maska je jasna. Njegov stav rizikuje da diskredituje kritike, često opravdane, na račun veštačke inteligencije. To je najžalosnije“, piše Sajtagia.

Ko će propisati pravila?

Peticija od utorka nastavlja ofanzivu koju je pokrenuo upravo OpenAI pre dva meseca, u korist stvaranja nove „globalne“ regulative veštačke inteligencije:

„Veće vlade na svetu mogle bi da pokrenu projekat koji bi se pridružio velikim kompanijama i strukturama trendova u AI sektoru, “, napisao je Mask u svom postu na blogu „Upravljanje superinteligencijom“.

Referenca podseća na CERN, Evropsku organizaciju za nuklearna istraživanja, strukturu koju su u Švajcarskoj stvorile 23 države članice. G. Altman je takođe pokrenuo ideju da se ovlašćenja glavnog softvera veštačke inteligencije verifikuje od strane strukture „inspirisane Međunarodnom agencijom za atomsku energiju“, odgovornom za inspekciju nuklearnih lokacija.

Sa svoje strane, Google smatra da bi regulisanje veštačke inteligencije moglo da zahteva „nove organizacije i institucije“:

„Vodeće kompanije bi mogle da se okupe u Globalnom forumu o veštačkoj inteligenciji, oslanjajući se na primere kao što je Globalni forum na internetu za borbu protiv terorizma“, Guglov službenik za javne poslove, Kent Voker, izjasnio se u objavi od 19. maja.

Da li debate sprečavaju regulativu?

Neki, kao nevladine organizacije AI Nov Institute ili Distributed AI Research Institute, ipak smatraju da su alarmantni pozivi štetni. „Fokusirajući se na hipotetičke i dugoročne rizike, mi skrećemo razgovor sa debate o neophodnoj regulativi protiv rizika koje vidimo danas i sada“, rekla je liderka Instituta AI Nov Sara Majers Vest, nakon otvorenog pisma u martu.

Za ove nevladine organizacije, ono što je hitno jeste da se sagledaju greške koje softver veštačke inteligencije već može da napravi, diskriminatorske predrasude koje će verovatno reprodukovati, napadi na slobode koje bi mogao da izazove.

Za neke od potpisnika peticije, briga o egzistencijalnim rizicima ne isključuje nužno brigu o pitanjima koja su sada pred nama. Štaviše, Sem Altman je više puta pozivao na "regulaciju" sektora. Njega takođe brinu moguće posledice po ChatGPT  koje će proizići iz poštovanja obaveza transparentnosti i regulacije sektora AI. Reč je o Zakonu o veštačkoj inteligenciji - evropskoj regulativi o kojoj se trenutno raspravlja. Nakon tvita evropskog komesara Tjerija Bretona koji je upozorio da AI sector “ucenjuje“, šef OpenAI (Elon Mask)je pokušao da smiri stvari, ocenivši da je moguće pronaći "ravnotežu između regulative i inovacija".

 

 


Molimo Vas da pročitate sledeća pravila pre komentarisanja:

Komentari koji sadrže uvrede, omalovažavanje, nepristojan govor, pretnje, rasističke ili šovinističke poruke neće biti objavljeni. Nije dozvoljeno lažno predstavljanje, ostavljanje lažnih podataka u poljima za slanje komentara. Zadržavamo pravo izbora ili skraćivanja komentara koji će biti objavljeni. Web časopis BalkanMagazin ne odgovara za sadržaj objavljenih komentara. Sva mišljenja, sugestije, kritike i drugi stavovi izneseni u komentarima su isključivo lični stavovi autora komentara i ne predstavljaju stavove redakcije Web časopisa BalkanMagazin.

captcha image
Reload Captcha Image...