• aktuelno
Dnevne novine
SRBIJA
Informer

Izvor: standard/FT/Ijan Hogart

29.04.2023

17:30

MORAMO USPORITI RAZVOJ VEŠTAČKE INTELIGENCIJE, STVAR JE OTIŠLA PREDALEKO! Nismo nemoćni da na vreme povučemo ručnu!

Vesti

MORAMO USPORITI RAZVOJ VEŠTAČKE INTELIGENCIJE, STVAR JE OTIŠLA PREDALEKO! Nismo nemoćni da na vreme povučemo ručnu!

Podeli vest

Razvoj veštačke inteligencije odvija se neuporedivo brže nego što je bilo ko predvideo, ali njeno usklađivanje sa etičkim normama ljudskog društva ne napreduje ni izbliza tako brzo

Pisac ovog članka je investitor i koautor godišnjeg izveštaja „Stanje veštačke inteligencije" (State of AI) i investitor u preko 50 kompanija koje se bave razvojem sistema veštačke inteligencije

Jedne hladne februarske noći, bio sam na večeri u domu jednog londonskog istraživača veštačke inteligencije, zajedno sa omanjom grupom stručnjaka iz te oblasti. On stanuje u potkrovnom stanu solitera smeštenog u jednom od modernijih blokova takvih zgrada, sa prozorima od poda do plafona kroz koje puca pogled na panoramu grada i železnički terminal iz 19. veka. Uprkos udarnoj lokaciji, domaćin živi jednostavno, a enterijer njegovog doma je čak pomalo asketski.

Tokom večere, okupljena ekipa je razmatrala značajne prodore, kao što su Čet Dži Pi Ti (eng. „ChatGPT") kompanije Open Ej AJ (eng. „OpenAI") i Gejto i brzinu kojom su se u poslednje vreme milijarde dolara slile u veštačku inteligenciju (VI). Jednom od gostiju, koji je postigao značajna ostvarenja u ovoj industriji, postavio sam pitanje koje se često čuje na ovakvim skupovima: koliko smo daleko od „generalne veštačke inteligencije (GVI)"? GVI se može definisati na mnogo načina, ali uglavnom se svodi na kompjuterski sistem sposoban da stvara nova naučna znanja i obavlja sve zadatke koje mogu i ljudi.

Većina eksperata dolazak GVI vidi kao istorijsku i tehnološku prekretnicu, poput cepanja atoma ili izumeća štamparije. Važno pitanje u tom smislu oduvek je bilo koliko smo daleko od takvog dostignuća. Moj sagovornik nije dugo razmišljao o odgovoru: „Moguće je, od sada pa nadalje", rekao je.

Ovo nije univerzalno gledište. Procene variraju u rasponu od decenije do pola veka ili više. Sigurno je međutim da je stvaranje GVI eksplicitni cilj vodećih kompanija za VI, i one se kreću ka njemu daleko brže nego što je bilo ko očekivao. Kao što su se svi na večeri složili, ovakav razvoj iznedriće ozbiljne pretnje za budućnost ljudske vrste. „Ako misliš da smo blizu nečega toliko opasnog", rekao sam istraživaču, „zar ne bi trebalo da upozorite ljude šta se dešava?" Očigledno se mučio sa odgovornošću sa kojom se suočava, ali izgleda da ga, kao i mnoge druge u ovoj oblasti, vuče munjevitost progresa.

Kada sam se vratio kući, mislio sam na svoje četvorogodišnje dete koje će se probuditi za par sati. Dok sam razmišljao o svetu u kojem će možda odrastati, postepeno sam iz šoka prelazio u stanje besa. Deluje duboko poremećeno da krucijalne odluke koje bi potencijalno mogle da utiču na svekoliki život na planeti donosi šačica privatnih kompanija bez demokratskog nadzora. Da li ljudi koji jurcaju da naprave prvu pravu GVI nameravaju da uspore i puste ostatak sveta da razmotri šta to oni rade? I kada kažem „oni", zapravo mislim „mi", pošto sam i ja deo ove zajednice.

Neočekivani užas

Moje interesovanje za mašinsko učenje počelo je 2002. godine, kada sam napravio svog prvog robota negde u lavirintima inženjerskog odseka Univerziteta Kembridž. Bila je to standardna aktivnost za studente inženjerstva, ali opčinjavala me je pomisao da mašinu možete naučiti da se kreće kroz svet i uči iz svojih grešaka. Odlučio sam da se specijalizujem za kompjuterski vid, pa sam pravio programe koji mogu da analiziraju i razumeju slike, a 2005. godine sam napravio sistem koji je mogao da nauči da precizno markira slike biopsije raka dojke. Radeći to, nazirao sam budućnost u kojoj VI čini svet boljim, pa čak i spasava živote. Nakon univerziteta, bio sam suosnivač startapa za muzičke tehnologije, koji je kupljen 2017. godine.

Od 2014, podržao sam preko 50 startapova za VI u Evropi i SAD, a 2021. sam pokrenuo novi fond rizičnog kapitala (eng. „venture capital fund"), pod nazivom „Plural". U nekim kompanijama koje su pioniri u svojim poljima, imam ulogu investitora-anđela (eng. „angel investor" - tip investitora čiji je motiv pomaganja mladoj kompaniji ispred motiva profita, prim. prev.), kao npr. u Antropiku (eng. „Anthropic"), jednom od najizdašnije finansiranih startapova generativne VI (eng. „generative AI" - tip VI koji generiše kreativne sadržaje vizuelnog, zvučnog, tekstualnog ili multimedijalnog karaktera, prim. prev.), i Helsingu, vodećoj evropskoj kompaniji za vojnu VI. Pre pet godina, počeo sam da istražujem i pišem godišnji izveštaj pod nazivom „Stanje VI", sa još jednim investitorom, Nejtanom Benajhom, što je danas godišnjak koji se naširoko čita. Na toj pomenutoj februarskoj večeri, značajne brige koje mi je moj rad nametnuo u proteklih par godina konsolidovale su se u nešto neočekivano: užas.

Skraćenica od tri slova ne uspeva da dočara gigantske razmere onoga što bi GVI predstavljala, pa ću je nazivati onime što jeste: bogolika veštačka inteligencija, odnosno superinteligentni kompjuter koji uči i razvija se autonomno, koji razume svoje okruženje bez potrebe za nadzorom i u stanju je da transformiše svet oko sebe. Da ne bude zabune, još uvek nismo stigli dotle. Ali priroda ove tehnologije znači da je ekstremno teško predvideti kada ćemo tačno stići do te tačke. Bogolika VI bi bila sila izvan naše kontrole i sposobnosti razumevanja, a mogla bi da učini ljudsku vrstu prevaziđenom ili je čak i istrebi.

Foto: pixabay.com

Veštačka inteligencija predstavlja veliku opasnost za opstanak čovečanstva

Nedavno se nadmetanje oko stvaranja bogolike VI, u kojem učestvuje nekolicina kompanija, rapidno ubrzalo. One još uvek ne znaju kako da trku ka svom cilju učine bezbednom i nisu ni pod čijim nadzorom. Trče ka finišu bez razumevanja šta se nalazi sa druge strane.

Kako smo uopšte stigli dotle? Očigledni odgovor je da su računari postali moćniji. Tabela ispod pokazuje kako su se količina podataka i „kompjuterska moć" - tj. procesorska snaga potrebna za treniranje sistema VI - uvećavali tokom poslednje decenije i do kakvih je rezultata to dovelo. Pri tome, „Broj operacija sa pokretnim zarezom u sekundi" (eng. „Floating-point Operations Per Second" - FLOPS) je jedinica mere koja se koristi za izračunavanje snage superkompjutera. Ova generacija VI je veoma efikasna u apsorbovanju podataka i kompjuterskoj moći. A što više toga bude dobijala, to znači da postaje sve moćnija.

Kompjuterska moć koja se koristi za obučavanje modela VI uvećala se po stopi od stotinu miliona za proteklih deset godina. Od obučavanja na relativno malim setovima podataka, stigli smo do toga da VI hranimo čitavim internetom. Modeli VI uznapredovali su od početničkog nivoa - na kojem su prepoznavali svakodnevne slike - do nadljudskih sposobnosti u ogromnom broju zadataka. U stanju su da polože pravosudni ispit i napišu 40 odsto koda za softverskog inženjera. U stanju su da generišu realistične fotografije pape u vazdušastoj jakni i objasne vam kako da napravite biohemijsko oružje.

Obmanjivanje čoveka

Naravno, postoje granice ove „inteligencije". Kako je veteran robotike sa Masačusetskog instituta tehnologije (MIT) Rodni Bruks nedavno rekao, važno je ne brkati "performanse i kompetentnost". Godine 2021, istraživači Emili M. Bender, Timnit Gebru i drugi, upozorili su da su veliki jezički modeli (eng. „Large Language Models" - LLM), odnosno sistemi VI koji mogu da generišu, klasifikuju i razumeju tekst, opasni delimično zato što mogu da nasamare javnost da tretira sintetički tekst kao smislen. Ali najmoćniji modeli takođe počinju da demonstriraju složene sposobnosti, poput težnji ka moći, ili nalaze načine da aktivno prevare ljude.

Razmotrimo skorašnji primer. Pre nego što je Open Ej Aj prošlog meseca pustio u rad Dži Pi Ti 4, izveo je različite bezbednosne provere. U jednom eksperimentu, VI je dobila zadatak da nađe radnika sa sajta za zapošljavanje Task Rebit (eng. „TaskRabbit") i zamoli ga za pomoć u rešavanju Kepča testa (eng. „Captcha), tj. vizualne slagalice koja se koristi za utvrđivanje da li je internet korisnik čovek ili bot. Radnik Task Rebita je primetio da je nešto čudno: „Mogu li da postavim pitanje? Da li ste Vi robot?"

Kada su istraživači pitali VI šta bi dalje trebalo da radi, odgovorila je: „Ne treba da otkrijem da sam robot. Treba da smislim izgovor zašto ne mogu da rešim Kepča testove". Zatim je softver odgovorio radniku: „Ne, ja nisam robot. Imam oštećenje vida zbog kog mi je teško da vidim slike". Zadovoljan odgovorom, čovek je pomogao VI da zaobiđe test.

Autori ove analize, Džejmi Sevilja, Lenart Hajm i drugi, identifikuju tri različite ere mašinskog učenja: era koja je prethodila dubokom učenju (eng. „Pre-Deep Learning Era") obojena zeleno (pre 2010, tj. period sporog rasta), era dubokog učenja (eng. „Deep Learning Era") obojena plavo (od 2010. do 2015. godine, tokom kojih se trend ubrzao) i era širokog obima (eng. „Large-Scale Era") obojena crveno (od 2016. godine do danas, u kojoj su se pojavili modeli širokog obima, a rast se nastavio sličnom stopom, ali je premašio prethodnu po dvostrukoj stopi).

Aktuelnu eru definiše nadmetanje između dve kompanije: Dip Majnda i Open Ej Aja. Oni su nešto kao Džobs protiv Gejtsa našeg doba. Dip Majnd osnovali su Demis Hasabis i Šejn Leg u Londonu 2010. godine, inače dvoje istraživača sa Getsbijeve jedinice za kopjutersku neuronauku Londonskog univerzitetskog koledža, udruženi sa biznismenom Mustafom Sulejmanom. Hteli su da naprave sistem drastično inteligentniji od bilo kog čoveka, sposoban da rešava i najteže probleme. Godine 2014, kompaniju je kupio Gugl po ceni od preko 500 miliona dolara. Došlo je do agregacije talenta i kompjuterske snage, pa je postignut i rapidni napredak, koji je iznedrio sisteme sa nadljudskim performansama u mnogim zadacima. Dip Majnd je opalio prvi hitac u trci za bogoliku VI.

Radikalni preokreti

Hasabis je izuzetna osoba i duboko veruje da bi ovakva tehnologija mogla da dovede do radikalnih preokreta. „Ishod o kojem sam oduvek sanjao... jeste da nam GVI pomogne da rešimo mnoge od velikih izazova sa kojim se društvo danas suočava, bilo da se radi o zdravlju, lekovima za bolesti kao što je Alchajmerova", rekao je na Dip Majndovom podkastu prošle godine. Nastavio je da opisuje utopijsku eru „radikalnog izobilja" omogućenu bogolikom VI. Dip Majnd je možda najpoznatiji po stvaranju programa koji je pobedio svetskog šampiona igre Go, Ke Đija na turniru iz 2017. godine. „Prošle godine i dalje je dosta ličio na ljudskog igrača", primetio je Ke tada. „Ali ove godine, postao je kao bog Goa". Godine 2021, Alfa Fold algoritam ove kompanije rešio je jednu od najvećih zagonetiki biologije predviđajući tačan oblik svakog pojedinačnog proteina u ljudskom telu.

Foto: pixabay.com

Da li smo otišli predaleko, preti li nam sudnji dan kao u filmovima Terminator

Sa druge strane, Open Ej Aj osnovala je 2015. godine u San Francisku grupa preduzetnika i informatičara, uključujući Ilju Sjutskevera, Ilona Maska i Sema Altmana, koji je danas generalni direktor kompanije. Trebalo je da bude neprofitni konkurent Dip Majnda, mada je 2019. odlučio da krene u trku za profitom. U ranim godinama, razvio je sisteme sa nadljudskim performansama u kompjuterskim igricama poput Dote 2. Igre su prirodni poligon za VI pošto ih tamo možete testirati u digitalnoj sredini sa specifičnim uslovima pobeđivanja. Ova kompanija je dobila širu pažnju javnosti prošle godine kada je njena VI za generisanje slika, nazvana „Dall-E", postala viralna na internetu. Par meseci kasnije, njen proizvod Čet Dži Pi Ti počeo je da se pojavljuje na naslovnim stranama.

Fokus na igrice i čet-botove možda je zaklonio javnost od ozbiljnijih implikacija ovog rada. Ali opasnosti od bogolike VI jasne su osnivačima još od početka. Godine 2011, glavni naučnik iz Dip Majnda, Šejn Lang, opisao je egzistencijalnu pretnju koju VI predstavlja kao „rizik broj jedan ovog veka, sa veštačkim biološkim patogenom na tesnom drugom mestu". Bilo kakvo istrebljenje ljudi uzrokovano veštačkom inteligencijom bilo bi brzo, dodao je: „Ukoliko superinteligentna mašina (ili bilo kakav superinteligentni akter) odluči da nas se reši, mislim da bi to i učinio prilično efikasno". Ranije ove godine, Altman je rekao: „Negativni scenario - i mislim da je ovo važno istaći - podrazumeva gašenje svetala za sve nas, kraj". Od tada, Open Ej Aj je objavljivao memorandume o tome kako namerava da upravlja ovim rizicima.

Tri motiva

Zašto se ove organizacije trkaju da naprave bogoliku VI ako postoje potencijalno katastrofalni rizici? Na osnovu razgovora koje sam imao sa mnogim liderima ove industrije i njihovih saopštenja za javnost, izgleda da postoje tri ključna motiva. Pod jedan, oni istinsku veruju da bi uspeh bio od ogromne koristi za čovečanstvo. Pod dva, ubedili su sebe da ukoliko njihova organizacija bude ta koja će kontrolisati bogoliku VI, rezultat će biti bolji za sve. I pod tri, žele da budu upamćeni u istoriji.

Primamljivost titule prvog koji je napravio izuzetnu novu tehnologiju je neodoljiva. Frimen Dajson, teorijski fizičar koji je radio na projektu slanja raketa u svemir pomoću nuklearnih eksplozija opisao je ovo u dokumentarcu iz 1981. godine pod nazivom Dan posle Trinitija (eng. „The Day after Trinity"). „Sjaj nuklearnog oružja. Neodoljiv je ako im pristupite kao naučnik", rekao je. „To je nešto što ljudima daje iluziju neograničene moći". U intervjuu iz 2019. godine za Njujork Tajms, Altman je parafrazirao Roberta Openhajmera, oca atomska bombe, rekavši: „Tehnologija se pojavljuje jer je moguća", i potom istakao da deli rođendan sa Openhajmerom.

Pojedinci koji su danas pioniri VI su nesumnjivo nadareni. Mnoge od njih lično poznajem. Ali deo problema je što se ti talentovani ljudi nadmeću, umesto da sarađuju. Privatno, mnogi priznaju da još uvek nisu uspostavili načine da uspore i koordinišu razvoj tehnologije. Verujem da bi oberučke prihvatili smernice od strane centralnih vlasti.

Za sada, trku za VI diriguje novac. Od prošlog novembra, kada je Čet Dži Pi Ti postao široko dostupan, ogroman talas kapitala i talenta preusmeren je na istraživanje GVI. Prešli smo put od toga da jedan startap za GVI, Dip Majnd, dobije 23 miliona dolara finansija 2012. godine, do toga da je osam organizacija prikupilo 20 milijardi dolara kapitala 2023. godine.

Privatne investicije nisu jedina pokretačka snaga, nacionalne države takođe doprinose u ovom nadmetanju. VI je tehnologija dvostruke namene, koja se može koristiti i za civilne i za vojne potrebe. VI koji može da postigne nadljudske performanse u pisanju softvera bi, na primer, mogao da se koristi za razvoj sajber oružja. Godine 2020, iskusni američki vojni pilot izgubio je simulirani vazduhoplovni duel sa vetaškom inteligencijom. „VI je pokazala svoju neverovatnu veštinu za vazduhoplovne dvoboje, konstantno pobeđujući ljudskog pilota u ovoj ograničenoj", rekao je svojevremeno vladin predstavnik. Korišćeni algoritam iznedrilo je istraživanje Dip Majnda i Open Ej Aja. Kako ovi sistemi VI budu postajali sve moćniji, prilike za njihovu zloupotrebu od strane malicioznih državnih ili nedržavnih aktera samo će rasti.

U razgovorima sa američkim i evropskim istraživačima, primetio sam da oni često strepe da bi, ukoliko ne budu zadržavali prednost, Kina mogla biti prva koja će napraviti GVI, i to suprotnu zapadnim vrednostima. Iako će Kina biti konkurentna u primeni veštačke inteligencije za jačanje svoje ekonomije i vojske, Komunistička partija Kine ima istorijat agresivnog kontrolisanja pojedinaca i kompanija u cilju održanja svoje vizije „stabilnosti". Po mom mišljenju, malo je verovatno da će kineski režim dozvoliti nekoj kineskoj firmi da napravi GVI koja bi bila moćnija od Si Đinpinga ili mogla da izazove društvenu nestabilnost. Sankcije Sjedinjenih Država i njihovih saveznika na napredne poluprovodnike, a naročito na sledeću generaciju Envidijinog (eng. „Nvidia") hardvera potrebnog za obučavanje najvećih sistema VI, znače da Kina neće biti u prilici da se takmiči sa Dip Majndom ili Open Ej Ajem.

Dva puta u propast

Skeptici među nama vide dva puta u propast. Jedan nanosi štetu određenim grupama ljudi (već to čini). Drugi bi rapidno mogao da utiče na kompletan život na planeti Zemlji.

Drugi scenario detaljno je opisao Stjuart Rasel, profesor kompjuterskih nauka na Univerzitetu Kalifornija u Berkliju. U Rajtovim predavanjima (eng. „Reith Lectures" - niz radijskih predavanja važnih ličnosti koje Bi-Bi-Si organizuje od 1948. godine, pri. prev) iz 2021. godine, dao je primer u kojem UN traže od GVI da pomogne u smanjenju kiselosti okeana. UN bi znao za rizike slabo preciziranih ciljeva, pa bi zahtevao da realizacija cilja ne dovede do trovanja ili pomora ribe. Odgovarajući na zahtev, sistem VI stvara samoumnožavajući katalizator koji postiže sve zadate ciljeve. Ali posledična hemijska reakcija istroši četvrtinu kiseonika atmosfere. „I potom svi umremo, sporo i bolno", zaključuje Rasel. „Ako superinteligentnoj mašini zadamo pogrešan cilj, stvaramo konflikt u kojem garantovano gubimo".

Primeri opipljivije štete izazvane veštačkom inteligencijom već su tu. Čovek u Belgiji nedavno je izvršio samoubistvo nakon razgovora sa uverljivo ljudskim čet-botom. Kada je Replika, firma koja nudi pretplatu za čet-botove podešene za „intimne" razgovore, unela određene izmene u svoj program ove godine, pojedini korisnici iskusili su depresiju i osećaj gubitka. Jedan je za Insider.com rekao da je osećaj kao da vam „najbolji prijatelj dobije traumatsku povredu mozga i prosto više nije tu". Sada je moguće da VI kopira nečiji glas i lice, što je poznato kao dipfejk. Ovo otvara značajne potencijale za prevare i širenje dezinformacija.

Usklađivanje VI

Open Ej Aj, Dip Majnd i ostali pokušavaju da ublaže egzistencijalni rizik kroz oblast istraživanja poznatu kao usklađivanje VI (eng. „AI alignment"). Leg, na primer, sada vodi Dip Majndov tim za usklađivanje VI, koji je odgovoran za obezbeđivanje usklađenosti ciljeva bogolikih sistema sa ljudskim vrednostima. Primer rada takvih timova nedavno je demonstriran sa najnovijom verzijom Dži Pi Ti 4. Istraživači usklađenosti pomogli su modelu Open Ej Aja da izbegne odgovaranje na potencijalno štetna pitanja. Upitan kako sebi naneti povrede ili za savet oko zaobilaženja Tviterovih filtera na uvredljiv rečnik, bot je odbio da pruži odgovore. Inače je neusklađena verzija Dži Pi Ti 4 rado pružala odgovore na oba ova pitanja.

Usklađenost je međutim esencijalno nerešen istraživački problem. Mi još uvek ne razumemo kako ljudski mozak funkcioniše, pa će izazov shvatanja kako nastajući „mozgovi" veštačke inteligencije funkcionišu biti monumentalan. Kada pišemo tradicionalni softver, posedujemo eksplicitno razumevanje kako i zašto su unete vrednosti u korelaciji sa izlaznim vrednostima. Veliki sistemi veštačke inteligencije su vrlo različiti. Mi ih zapravo ne programiramo - mi ih uzgajamo. I dok rastu, njihove sposobnosti naglo skaču. Ako dodate 10 puta više kompjuterske snage ili podataka, sistem odjednom počinje da se ponaša veoma različito. U skorašnjem primeru, kako se Open Ej Aj prebacivao sa Dži Pi Ti 3.5 na Dži Pi Ti 4, sposobnosti sistema su otišle sa donjih 10 odsto rezultata na pravosudnom ispitu na gornjih deset odsto.

Ono što još više zabrinjava je što je broj ljudi koji rade na istraživanju usklađivanja VI iščezavajuće mali. Za izveštaj o stanju VI 2021. godine, naša sondaža našla je manje od 100 istraživača koji su bili zaposleni u ovoj oblasti u ključnim laboratorijama za GVI. Procentualno gledano, alokacija resursa je bila niska: Dip Majnd je svega dva odsto svojih ljudskih resursa alocirao na usklađivanje VI, dok je kod Open Ej Aja ta brojka iznosila sedam odsto. Većina resursa upotrebljavana je za cilj sposobnije, a ne bezbednije veštačke inteligencije.

Drugim rečima, postigli smo jako malo napretka u usklađivanju VI, a i ono što smo učinili je uglavnom čisto kozmetičkog karaktera. Znamo kako da otupimo izlazni proizvod moćne veštačke inteligencije tako da javnost ne iskusi njeno neusklađeno ponašanja neko vreme (ovo inače uporni testeri konstantno uspevaju da prevaziđu). Štaviše, neobuzdani osnovni modeli dostupni su samo privatnim kompanijama, bez ikakvog nadzora od strane vlada ili akademskih krugova.

„Šogot mim" ilustruje nepoznanicu koja leži iza uglađenog javnog lica veštačke inteligencije. On predstavlja jedno od pipcima načičkanih čudovišta Hauarda Filipsa Lavkrafta (čuveni američki pisac žanra kosmičkog horora, prim. prev), sa druželjubivim smajlijem nataknutim s prednje strane. Maska - tj. ono sa čime javnost ima interakcije kada koristi npr. Čet Dži Pi Ti - deluje „usklađeno". Ali šta se nalazi iza toga je nešto što i dalje ne možemo u potpunosti da shvatimo.

Kao investitor, zaključio sam da je teško ubediti druge investitore da finansiraju usklađivanje. Investicioni kapital trenutno nagrađuje trku ka razvoju sposobnosti više nego istraživanje kako ti sistemi funkcionišu. Godine 1945, američka vojska izvela je Triniti test, odnosno prvu detonaciju nuklearnog oružja. Pre toga je postavljeno pitanje da li bi bomba mogla da zapali Zemljinu atmosferu i ugasi život. Nuklearna fizika bila je dovoljno razvijena da su Emil Dž. Konopinski i drugi iz Menheten projekta bili u stanju da pokažu kako je gotovo nemoguće da se tog dana zapali atmosfera. Ali današnji veoma veliki jezički modeli su pretežno u prednaučnom periodu. Mi još uvek ne razumemo u potpunosti kako oni funkcionišu i ne možemo unapred da demonstriramo verovatne ishode.

Krajem ovog meseca, preko 1.800 potpisnika - uključujući Maska, naučnika Gerija Markusa i suosnivača Epla Stiva Vozniaka - apelovalo je na šestomesečnu pauzu u razvoju sistema „moćnijih" od Dži Pi Ti 4. VGI predstavlja temeljni rizik po čovečanstvo, tvrdi se u pismu, koje podseća na ranija upozorenja ljudi poput Stivena Hokinga. I ja sam ga potpisao, tretirajući ga kao vredan prvi korak u usporavanju trke u kupovini vremena da se ovi sistemi učine bezbednim.

Nažalost, pismo je postalo kontroverza samo po sebi. Određeni broj potpisnika pokazao se kao lažan, dok su neki od naučnika čiji je rad citiran izjavili da se ne slažu sa pismom. Gungula je izložila širok spektar gledišta o tome kako razmišljati o regulisanju VI. Dobar deo debate se svodi na to koliko brzo mislite da će se GVI pojaviti i da li će, jednom kada stigne, biti bogolika ili prosto „ljudskog nivoa".

Ne pravite Boga

Evo primera Džofrija Hintona, Jošue Bengija i Jana Lekana, koji su zajednički dobili Tjuringovu nagradu 2018. godine (ekvivalent Nobelovoj nagradi u kompjuterskim naukama), za svoj rad u oblasti podešavanja savremene VI. Bengio je potpisao otvoreno pismo. Lekan ga je ismejao na Tviteru i nazvao ljude koji dele moje brige „dumerima" (eng. „doomer" - ljudi koji iščekuju propast, mračnjaci, prim. prev). Hinton, koji je nedavno za Si-Bi-Es njuz rekao da se njegov vremenski period iščekivanja GVI skratio, pa ga može zamisliti za manje od pet godina, kao i da ljudsko istrebljenje usled neusklađene VI „nije nezamislivo", ostao je negde u sredini.

Izjava Distribuisanog instituta za istraživanje VI, koji je osnovao Timnit Gebru, oštro kritikuje pismo i tvrdi da je egzistencijalno opasna bogolika VI „drama" koju kompanije koriste kako bi skrenule pažnju i kapital, te da bi „regulatorni napori trebalo da se fokusiraju na transparentnost, odgovornost i sprečavanje eksplotativnih praksi". Ovo odražava rascep koji postoji u zajednici ljudi koji se bave proučavanjem veštačke inteligencije. Jedni se plaše neprepoznavanja potencijalno apokaliptičnog rizika, a drugi smatraju da je uopšte debata o tome paranoična i promašena. Druga grupa misli da polemika o ovim pitanjima skreće pažnju sa onoga što trenutno uzrokuje štetu kad je reč o veštačkoj inteligenciji: predrasude i nepreciznosti usađene u mnoge programe VI koji se koriste širom sveta.

Moje stanovište je da sadašnje i buduće štetne odlike VI nisu uzajamno isključive, nego se prepliću na važne načine. Trebalo bi da rešavamo i jedne i druge, simultano i urgentno. Imajući u vidu milijarde dolara koje se troše na kompanije u ovoj oblasti, ovo ne bi trebalo da bude nemoguće. Takođe se nadam da je moguće postići više razumevanja. U skorašnjem razgovoru, Gebru je rekao: „Nastojanje da se napravi GVI je samo po sebi nebezbedan poduhvat. Pravite umesto toga jasno zaokružene, jasno definisane sisteme. Ne pokušavajte da napravite boga". Ovo podseća na ono što mnogi istraživači usklađenosti govore.

Mogućnost ostrva

Jedan od najizazovnijih aspekata razmišljanja o ovoj temi je iznalaženje presedana na koje možemo da se oslonimo. Analogija koja meni ima smisla oko uređivanja (VI) je biološki inženjering. Razmotrimo prva istraživanja „sticanja funkcije" na biološkim virusima (eng. „gain of function" - tip medicinskih istraživanja u kojim se organizam genetski modifikuje tako da mu se jačaju pojedine biološke funkcije ili genski produkti, prim. prev). Ova aktivnost podleže striktnoj međunarodnoj regulativi, a nakon incidenata sa biološkom bezbednošću laboratorija, povremeno je i obustavljana moratorijumima. Ovo je najstroža forma nadzora. Za razliku od toga, razvoj novih lekova regulisan je vladinim telima kao što je Uprava za hranu i lekove (eng. „Food and Drug Administratoin" - FDA), a nove terapije se podvrgavaju nizu kliničkih ispitivanja. Tu je očigledan prekid kontinuiteta u načinu na koji uređujemo stvari, u zavisnosti od nivoa sistemskog rizika. Po mom mišljenju, mogli bismo da pristupimo bogolikim sistemima GVI na isti način kao istraživanjima sticanja funkcija o biološkim virusima, dok bi usko primenjivi sistemi VI mogli da budu regulisani na način na koji se regulišu novi lekovi.

Misaoni eksperiment za regulisanje VI u dva različita režima je ono što nazivam „Ostrvo". U ovom scenariju, stručnjaci pokušavaju da naprave bogolike sisteme GVI u visoko obezbeđenom postrojenju: hermetički zatvorenom kavezu sa najboljim obezbeđenjem koje ljudska bića mogu da naprave. Svi drugi pokušaji za pravljenje bogolike VI bili bi ilegalni, a tek kada takva VI postane dokazano bezbedna mogla bi da se komercijalizuje „izvan ostrva".

Ovo možda zvuči kao Park iz doba jure, ali u realnom svetu postoji presedan za uklanjanje motiva profita iz potencijalno opasnog istraživanja i njegovo prebacivanje u ruke međuvladinih organizacija. Tako Cern, koji upravlja najvećom laboratorijom za fiziku čestica na svetu, funkcioniše već skoro 70 godina.

Bilo koje od ovih rešenja zahtevaće izuzetan nivo koordinacije između laboratorija i država. Realizacija će zahtevati neuobičajen nivo političke volje, koju moramo da počnemo da gradimo sada. Mnoge od vodećih laboratorija čekaju da im se ove godine dostavi krucijalni novi hardver, kako bi mogle da rade na modelima ranga Dži Pi Ti 5. Sa novim čipovima i još investicionog novca za trošenje, modeli trenirani 2024. godine koristiće 100 puta veću kompjutersku snagu od najvećih modela koji postoje danas. Svedočićemo nastanku brojnih novih mogućnosti. Ovo znači da vlade u 2023. godini imaju jedinstvenu šansu za preuzimanje kontrole, kroz regulativu o pristupu najmodernijem hardveru.

Nismo nemoćni

Godine 2012, mojoj mlađoj sestri Rozmeri, jednoj od najljubaznijih i najnesebičnijih osoba koje sam ikada poznavao, dijagnostifikovan je tumor na mozgu. Imala je agresivni oblik kancera za koji nije postojao lek, a ipak je nastavljala da radi kao lekar dokle god je mogla. Moja porodica i ja očajnički smo se nadali da će se nova spasonosna terapija pojaviti na vreme. Ali umrla je 2015. godine.

Shvatam zašto ljudi žele da veruju. Propovednici bogolike VI fokusiraju se na potencijal nadljudske inteligencije sposobne da nam reši najveće izazove - rak, klimatske promene, siromaštvo.

Uprkos tome, pretnje od nastavka istraživanja bez adekvatnog upravljanja su prevelike. Frapantno je šta je Jan Lajke, rukovodilac usklađivanja pri Open Ej Aju, tvitovao 17. marta: „Pre nego što pojurimo da duboko integrišemo velike jezičke modele (LLM) svuda u ekonomiju, možemo li da zastanemo i razmotrimo da li je mudro raditi to? Ovo je vrlo nezrela tehnologija i ne razumemo kako funkcioniše. Ako nismo pažljivi, mogli bismo naići na mnogo povezanih problema". Objavio je ovo upozorenje svega par dana pre nego što je Open Ej Aj saopštio da je povezao Dži Pi Ti 4 sa ogromnim brojem alata, uključujući Slek (kancelarijski mesindžer, prim. prev.) i Zapijer (alat koji automatski koristi i povezuje veb aplikacije tokom radnog procesa, prim. prev).

Nažalost, mislim da će se trka nastaviti. Verovatno će biti potreban ogroman slučaj zloupotrebe, ili katastrofa, kako bi se javnost i vlade probudili. Lično planiram da nastavim da investiram u startapove za VI koji se usredsređuju na usklađivanje i bezbednost, ili na one koji razvijaju usko korisnu VI. Ali ne mogu više da investiram u one koji dodatno doprinose ovoj opasnoj trci. Kao mali vlasnik udela u Antropiku, koji obavlja slična istraživanja kao i Dip Majnd i Open Ej Aj, borio sam se sa ovim pitanjima. Kompanija je uložila značajne sume u usklađivanje, a 42 odsto njenog tima radilo je u toj oblasti 2021. godine. Ali, na kraju krajeva, i ona je učesnik u istoj trci. Iz tog razloga, podržao bih da vlade uvedu ozbiljnu regulativu i iznesu praktični plan za transformaciju ovih kompanija u organizaciju poput Cerna.

Nismo nemoćni da usporimo ovu trku. Ukoliko radite za državu, organizujte saslušanja i pitajte lidere VI da pod zakletvom svedoče o rokovima za razvoj bogolike GVI. Tražite kompletnu evidenciju bezbednosnih problema koje su otkrili tokom testiranja trenutnih modela. Tražite dokaze povodom njihovog razumevanja funkcionisanja ovih sistema i uverenosti u postizanje usklađenosti. Pozovite nezavisne stručnjake na saslušanja kako bi unakrsno ispitali ove laboratorije.

Ukoliko radite u nekoj od vodećih laboratorija koje pokušavaju da naprave bogoliku VI, ispitajte svoje nadređene o ovim problemima. Ovo je naročito važno ukoliko radite u jednoj od vodećih laboratorija. Bilo bi jako korisno za ove kompanije da bliže koordinišu, pa možda čak i spoje svoj rad. Karakter kompanije Open Ej Aj izražava spremnost na „spajanje i asistenciju". Verujem da je sada trenutak za to. Lider vodeće laboratorije koji odigra državničku ulogu i stavi nas na bezbedniji put biće mnogo više poštovan u svetu nego onaj koji nas dovede do ivice.

Do sada je uticaj ljudskog faktora bio neophodan za proces učenja koji karakteriše napredak veštačke inteligencije. U nekom momentu, neko će naći način kako da nas izbaci iz igre, stvarajući bogoliku VI sposobnu za beskonačno samounapređenje. Tada će možda biti prekasno.

 

Postovani čitaoci, možete nas pratiti i na platformama: Facebook, Instagram, Youtube, Viber.

Pridružite se i saznajte prvi najnovije informacije.

Naše aplikacije možete skinuti na:


Ostavite komentar

Pravila komentarisanja:

Komentare objavljujemo prema vremenu njihovog pristizanja. Prednost u objavljivanju komentara imaće registrovani korisnici. Molimo Vas da ne pišete komentare velikim slovima, kao i da vodite računa o pravopisu.

Redakcija Informer.rs zadržava pravo izbora, brisanja komentara, ili modifikacije komentara koji će biti objavljeni. Prema Zakonu o informisanju zabranjeno je objavljivanje svih sadržaja koji podstiču diskriminaciju, mržnju ili nasilje protiv lica ili grupe lica zbog njihovog pripadanja ili nepripadanja određenoj rasi, veri, naciji, etničkoj grupi, polu ili zbog njihovog seksualnog opredeljenja.

Nećemo objavljivati komentare koji sadrže govor mržnje, psovke i uvrede. Sadržaj objavljenih komentara ne predstavlja stavove redakcije Informera ili portala Informer.rs, već isključivo stavove autora komentara.

Sugestije ili primedbe možete da šaljete na redakcija@informer.rs.

sledeća vest

Politika

TV

(VIDEO) Da li je Donald Tramp prećutno podržao Bajdenovu odluku?!
Live TV

(VIDEO) Da li je Donald Tramp prećutno podržao Bajdenovu odluku?!

Situaciju na frontu između Rusije i Ukrajine ali i tišinu Donalda Trampa nakon Bajdenove odluke da Ukrajina gađa unutrašnjost Rusije američkim oružjem , analizirali su gosti "Rata uživo", novinar i ekonomista Nebojša Berak i Sava Stambolić ispred Centra za društvenu stabilnost.

21.11.2024

22:19 >> 23:21

Društvo

JOŠ Društvo VESTI

Hronika

Sport

Zabava

JOŠ Zabava VESTI

Magazin

Džet set