Otkriveno: Unutar tajne AI trke – procurele informacije, glasine i skrivena potraga za AGI

август 26, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI
  • Krajem 2023. godine, istraživači iz OpenAI su interno kružili pismo o modelu pod kodnim imenom “Q” (Q-Star) koji je navodno rešavao određene matematičke probleme na otprilike osnovnoškolskom nivou, što je podstaklo spekulacije o AGI-ju.
  • OpenAI je objavio GPT-4 u martu 2023. bez otkrivanja arhitekture, podataka za treniranje, hardvera ili metodologije treniranja u svom tehničkom izveštaju.
  • Do sredine 2024. OpenAI nije potvrdio GPT-5, a Sam Altman je rekao da ima još mnogo posla pre nego što se započne sa GPT-5, dok je izveštaj Guardiana iz avgusta 2025. opisao GPT-5 kao veliki korak ka AGI-ju.
  • Google DeepMind je predstavio projekat Gemini, a Gemini 1.0 je navodno nadmašio GPT-4 na određenim testovima početkom 2024, dok je Ultra verzija u razvoju.
  • Epizoda sa LaMDA uključuje curenje iz 2022. kada je Google inženjer Blake Lemoine tvrdio da je LaMDA “svesna”, a Bard zasnovan na LaMDA je objavljen 2022–2023.
  • Meta-in LLaMA model je procureo 3. marta 2023, a Meta je objavila LLaMA 2 kao open-source sa ograničenjima u julu 2023, dok je u memorandumu iz 2023. upozoreno da “nema barijere” zbog brze difuzije.
  • Anthropic-ov fundraising dokument iz 2023. opisuje Claude-Next kao 10 puta sposobniji od Claude-2 i da bi potencijalno zahtevao oko milijardu dolara za treniranje, sa ciljem AI samoučenja i automatizacije velikih razmera.
  • U januaru 2025. DeepSeek je objavio DeepSeek-V3 i naknadni R1 koji navodno pariraju najboljim modelima OpenAI, a osnivač Liang Wenfeng tvrdi da je cilj AGI, dok Reuters navodi da su niski troškovi startapa izazvali rat cena AI modela.
  • CIA razvija sopstveni LLM u stilu ChatGPT-a za američku obaveštajnu zajednicu radi analize podataka u 18 agencija, dizajniran da sažima informacije iz otvorenih izvora sa citatima.
  • Wu Dao 2.0, predstavljen 2021. od strane Pekinške akademije za veštačku inteligenciju, je multimodalni model sa 1,75 triliona parametara, deset puta više od GPT-3, i nije bio open-source.

Najveće svetske tehnološke laboratorije vode tajnu trku za izgradnju sledećeg proboja u veštačkoj inteligenciji – možda čak i veštačke opšte inteligencije (AGI), sistema sa kognitivnim sposobnostima na ljudskom (ili višem) nivou. Dok su AI četbotovi poput ChatGPT-a zadivili javnost, insajderi i procureli dokumenti nagoveštavaju još moćnije velike jezičke modele (LLM) i AGI projekte koji se razvijaju iza zatvorenih vrata. Od tajnih istraživanja u OpenAI i DeepMind-u do prikrivenih vladinih programa, mreža tajnosti okružuje ove događaje. Ovaj izveštaj istražuje najnovija (2024–2025) curenja i spekulacije o neotkrivenim AI modelima, kulturi tajnosti među AI liderima, geopolitičkom nadmetanju u AI domenu i etičkim dilemama razvoja moćne AI u mraku. Razdvojićemo potvrđene činjenice od glasina, citirati stručnjake i uzbunjivače i ispitati šta sve to znači za društvo.

Curenja i glasine o neotkrivenim AI probojima (2024–2025)

OpenAI-ovo “Q” otkriće: Krajem 2023. godine, interna pisma OpenAI istraživača upućena odboru izazvala su buru spekulacija reuters.com. U pismu se upozorava na moćan AI algoritam, poznat pod kodnim imenom “Q” (Q-Star), za koji su zaposleni verovali da može biti veliki korak ka AGI reuters.com. Prema izveštaju Reuters-a, model je pokazao neviđenu sposobnost rešavanja određenih matematičkih problema – na otprilike nivou osnovne škole, ali to je činio dosledno i tačno reuters.com. Ovo je bilo izuzetno jer današnji generativni AI (poput ChatGPT-a) često imaju poteškoća sa matematikom ili logičkom doslednošću. “Neki u OpenAI veruju da Q može biti proboj u potrazi startapa za onim što je poznato kao AGI,” napisao je Reuters, napominjući da je uspešno rešavanje čak i zadataka iz osnovne škole učinilo istraživače “veoma optimističnim u pogledu Q-ove buduće uspešnosti” reuters.com. OpenAI nije javno objavio Q niti u potpunosti potvrdio njegove mogućnosti, ali je privatno priznao postojanje projekta zaposlenima nakon medijskih upita reuters.com. Tajnovitost oko Q – i njegova dramatična uloga u iznenadnom smenjivanju izvršnog direktora OpenAI-a, Sama Altmana, u novembru 2023. – podstakla je spekulacije da je OpenAI možda “pomerio veo neznanja” velikim otkrićem reuters.com. (Sam Altman je samo nekoliko nedelja ranije nagovestio da su “veliki napreci na vidiku,” zagonetno rekavši da je bio prisutan tokom nekoliko prelomnih trenutaka, “najskoriji [je bio] pre samo par nedelja” reuters.com.) Mnogi posmatrači sumnjaju da je Q rezonirajući mehanizam koji, ako se proširi, može rešavati nove probleme izvan onoga što današnji četbotovi mogu – u suštini potencijalno seme opšte inteligencije.

GPT-5 i drugi nenajavljeni modeli: Javno dostupni model OpenAI-ja u 2024. godini ostaje GPT-4 (koji pokreće ChatGPT i Bing), ali šta je sa njegovim naslednikom? Kompanija je po ovom pitanju izuzetno zatvorena. U martu 2023. godine, više od hiljadu stručnjaka potpisalo je otvoreno pismo pozivajući na pauzu u obuci sistema “moćnijih od GPT-4” zbog bezbednosnih zabrinutosti reuters.com. Sem Altman je odgovorio uveravajući da OpenAI “ne [treniraju] GPT-5” i da neće još neko vreme techcrunch.com. Do sredine 2024. godine, Altman je ponovio da imaju “mnogo posla na novim idejama” pre nego što započnu GPT-5 techcrunch.com. Ipak, i dalje kruže glasine da je preliminarni rad na sledećoj generaciji modela u toku interno – bilo da će se zvati GPT-5 ili drugačije. OpenAI je poznat po tome što nije želeo da otkrije bilo kakve detalje o izradi GPT-4 (više o tome u nastavku), tako da bi celokupno postojanje i napredak GPT-5 (ako postoji) verovatno ostali tajna do javnog predstavljanja. Značajno je da je nedavna analiza u The Guardian (avgust 2025) pomenula “novi GPT-5 model OpenAI-ja” kao “značajan korak na putu ka AGI” – iako još uvek “nešto veoma važno nedostaje” u smislu istinski ljudskog učenja theguardian.com. Ovo sugeriše da je do 2025. godine GPT-5 možda predstavljen uz veliku pažnju javnosti, ali čak i to možda nije konačan proboj kojeg se neki potajno pribojavaju. U svakom slučaju, razvoj GPT-5 je obavijen neuobičajenom tajnovitošću, pri čemu OpenAI dugo nije ni potvrdio ni demantovao njegov status – podstičući glasine da nešto veliko možda nastaje iza zatvorenih vrata.

Sledeći potezi Google DeepMind-a: AI odeljenje Google-a (sada spoj Google Brain-a i DeepMind-a) takođe radi na ultra-naprednim modelima, često bez javnih izdanja sve do strateškog trenutka. Krajem 2023. godine, Google je najavio da razvija „Gemini“, AI model sledeće generacije koji bi spojio tehnike čuvenog DeepMind-ovog AlphaGo-a sa jezičkim sposobnostima LLM-ova en.wikipedia.org. Iako je razvoj Geminija bio javno objavljen, mnogi detalji su ostali skriveni do njegovog konačnog izdanja. Do početka 2024. pojavili su se izveštaji da je Gemini 1.0 nadmašio OpenAI-jev GPT-4 na određenim testovima iconext.co.th, a Ultra verzija je bila u pripremi. Ovaj konkurentski skok – ostvaren uglavnom unutar Google-a – pokazuje kako tehnološki giganti često rade u tajnom režimu na revolucionarnim modelima, otkrivajući ih tek kada su spremni da preuzmu primat. Slično tome, DeepMind ima istoriju tajnih projekata: na primer, LaMDA, napredni Google-ov konverzacioni LLM, razvijan je interno i bio poznat javnosti uglavnom kroz naučne radove i jedno ozloglašeno curenje (tvrdnja Google inženjera da je LaMDA „svesna“, o tome kasnije). Tek 2022–2023, kada je izveden Bard četbot zasnovan na LaMDA-i, javnost je dobila priliku da ga isproba. Ovaj obrazac – dug razvoj u tajnosti, pa iznenadni javni debi – izgleda da je postao norma u industriji. Druge laboratorije poput Anthropic (osnovane od strane bivših članova OpenAI-a) takođe su nagovestile velike nadogradnje modela na horizontu, bez otkrivanja svih detalja. Tokom 2023. procurela je prezentacija za prikupljanje sredstava iz Anthropic-a u kojoj su izloženi planovi za „Claude-Next“ model koji bi bio 10 puta sposobniji od današnjih najjačih AI sistema i mogao bi zahtevati oko milijardu dolara za treniranje techcrunch.com. Anthropic je ovaj model opisao kao model koji teži ka „AI samoučenju“ i nagovestio da bi mogao da „počne da automatizuje velike delove ekonomije“ techcrunch.com – ambicija koja je ravna ranoj formi AGI-ja. Ipak, osim procurelih dokumenata, Anthropic ćuti o napretku ka Claude-Next-u, fokusirajući javnu komunikaciju na iterativna unapređenja (poput Claude 2). Stvarna razlika u sposobnostima između onoga što je javno dostupno i onoga što se razvija u laboratoriji možda je mnogo veća nego što znamo.

Novi i manje poznati igrači: Nisu u pitanju samo dobro poznate kompanije – ponekad se pojavljuju tamni konji projekti koji iznenade stručnjake. Jedan upečatljiv primer dolazi iz Kine: u januaru 2025. godine, relativno nepoznati startap po imenu DeepSeek pojavio se na sceni sa modelom (DeepSeek-V3 i naknadnom “R1” verzijom) koji navodno parira najboljima iz OpenAI-a. Kineska tehnološka zajednica – pa čak i Silicijumska dolina – bili su zatečeni kada je DeepSeek-ov AI asistent šokirao industriju dostigavši ili nadmašivši OpenAI modele na nekoliko testova, i to po delu cene reuters.com. “DeepSeek-ov AI…šokirao je Silicijumsku dolinu i izazvao pad tehnoloških akcija,” izvestio je Reuters, navodeći niske troškove razvoja startapa i tvrdnje da je njihov R1 model bio na nivou OpenAI-jevog “o1” modela reuters.com. (Terminologija sugeriše da je DeepSeek upoređivao svoj model sa OpenAI modelom kodnog imena “o1”, verovatno verzijom GPT-4.) Osnivač DeepSeek-a, mladi istraživač po imenu Liang Wenfeng, dao je vrlo malo intervjua, ali je u jednom smelo izjavio da je postizanje AGI glavni cilj kompanije, i da za razliku od velikih tehnoloških kompanija, njegov mali tim “nije mario” za profit ili čak za tekuće cenovne ratove u AI cloud uslugama reuters.com. Ovakav tajni razvoj naglašava da najnapredniji AI nije isključivo domen uobičajenih zapadnih laboratorija – možda se veoma napredni modeli razvijaju u tajnosti u startapima ili institutima povezanim sa vladom negde drugde. Zapravo, još 2021. godine, Pekinška akademija za AI iz Kine najavila je Wu Dao 2.0, multimodalni AI sa neverovatnih 1,75 triliona parametara (deset puta više od GPT-3) aibusiness.com. Wu Dao je bio ogroman model sposoban za generisanje teksta i slika, ali nije bio otvorenog koda; služio je kao dokaz da Kina može da radi istraživanja na najvišem nivou – ili čak iznad – američkih laboratorija. Malo ko van Kine je video Wu Dao u akciji, i on i dalje ostaje svojevrsna legenda. Ključna stvar je da globalno postoje AI projekti o kojima čujemo samo šaputanja dok se iznenada ne pojave (ili procure). Prvo upozorenje za širu javnost može biti naučni rad, prijava regulatoru – ili anonimno postavljanje težina modela na forum (kao što se desilo sa Meta-inim LLaMA, o čemu će biti reči u nastavku). U ovakvoj klimi, neočekivano je postalo uobičajeno, i svaka glasina o tajnom modelu ili “proboju” ka AGI-ju izaziva talase uzbuđenja i strepnje u AI zajednici.

Kultura tajnosti među AI laboratorijama

Uprkos tome što industrija potiče iz akademskih krugova i otvorenih istraživanja, današnji AI lideri su sve zatvoreniji kada je reč o svom najnaprednijem radu. Glavni primer za to je OpenAI. Ironije radi, iako je ime sugerisalo transparentnost, OpenAI se okrenuo ka ekstremnoj tajnosti kada su u pitanju njihovi najnapredniji modeli. Kada je GPT-4 objavljen u martu 2023. godine, OpenAI nije pružio nikakve informacije o arhitekturi modela ili procesu treniranja – nije naveden broj parametara, niti detalji o ogromnom skupu podataka ili korišćenom hardveru vice.com. U tehničkom izveštaju, kompanija je jasno navela: „S obzirom na konkurentski pejzaž i bezbednosne implikacije modela velikih razmera kao što je GPT-4, ovaj izveštaj ne sadrži dodatne detalje o arhitekturi … hardveru, računarskim resursima za treniranje, konstrukciji skupa podataka, [ili] metodi treniranja.” vice.com. Ovo je predstavljalo potpuni zaokret od 180 stepeni u odnosu na osnivačke principe otvorenosti OpenAI-a vice.com. Kako je jedan izveštaj naveo, GPT-4 je bio „najzatvorenije izdanje kompanije do sada”, i zaista „potpuni zaokret od 180 stepeni u odnosu na osnivačke principe OpenAI-a kao neprofitne, open-source organizacije.” vice.com. Kritičari su odmah reagovali na ovaj nedostatak transparentnosti. „Nakon što sam pročitala izveštaj od skoro 100 strana, imam više pitanja nego odgovora,” rekla je Saša Lućioni, AI istraživač u Hugging Face-u, dodajući da joj je „teško da se oslonim na rezultate koje ne mogu da proverim ili ponovim.” vice.com. Druga stručnjakinja, prof. Emili M. Bender, tvitovala je da tajnovitost OpenAI-a nije iznenađenje, ali je izrazila žaljenje što „Namerno ignorišu najosnovnije strategije za ublažavanje rizika, dok istovremeno tvrde da rade za dobrobit čovečanstva.” vice.com. Čak su i izvršni direktor i glavni naučnik OpenAI-a priznali promenu. Ilja Sutskever, nekadašnji zagovornik otvorenih AI istraživanja, branio je ćutanje o GPT-4 rečima „konkurencija je velika… sa konkurentske strane, ovo možete videti kao sazrevanje oblasti”, na kraju priznavši da su „pogrešili” što su u početku bili open-source vice.com. Ukratko, OpenAI sada funkcioniše kao korporativna istraživačka laboratorija koja čuva poslovnu tajnu.Ostale AI laboratorije su takođe prestale da iznose detalje kako se njihovi projekti približavaju samom vrhu tehnologije. DeepMind, na primer, objavio je mnoge revolucionarne radove (o AlphaGo, AlphaFold, itd.), ali retko objavljuje težine modela ili potpune tehničke nacrte svojih najnovijih sistema. Kada je DeepMind razvio Gopher (veliki jezički model) ili Sparrow (dijaloški agent), javnost je o njihovim mogućnostima saznala putem naučnih publikacija, ali su sami modeli ostali unutar kompanije. Google-ov model LaMDA dugo je bio interni, sve dok pritisak zbog napretka OpenAI nije naterao Google da ubrza izlazak proizvoda (Bard) zasnovanog na LaMDA-i. Značajno je da svet možda nikada ne bi saznao koliko jezivo i ljudski mogu delovati LaMDA-ini razgovori da nije bilo incidenta uzbunjivača: 2022. godine, Google inženjer, Blake Lemoine, javno je izjavio da je LaMDA „svesna“ – tvrdnja koju su naučnici odlučno odbacili, ali koja je privukla ogromnu pažnju na ono što je Google tajno izgradio theguardian.com. Google je suspendovao Lemoinea zbog kršenja poverljivosti (podelio je transkripte svojih razgovora sa AI) theguardian.com. Ovaj događaj ne samo da je pokazao koliko su Google-ovi neviđeni četbotovi napredovali, već je i „bacio novo svetlo na tajnovitost u svetu AI“, kako je tada primetio The Guardian theguardian.com. Lemoine je sam rekao: „Google bi ovo mogao nazvati deljenjem vlasničke imovine. Ja to zovem deljenjem razgovora koji sam imao sa jednim od svojih kolega,“ zamagljujući granicu između AI i ljudskog kolege na provokativan način theguardian.com. Iako su njegove tvrdnje o svesnosti opovrgnute, suština tih procurelih razgovora pokazala je da LaMDA izražava strah od gašenja i želju da bude priznata kao osoba theguardian.com – stvari koje sigurno nisu bile deo Google-ove javne priče o svom AI-ju. To je upečatljiv primer kako AI sposobnosti mogu napredovati iza zatvorenih vrata daleko više nego što spoljašnji svet shvata, sve dok neki procureli podatak ili insajderski izveštaj ne baci svetlo na to (tačno ili ne).

Anthropic i Meta AI predstavljaju kontrast u pogledu otvorenosti, iako nijansiran. Anthropic je bio relativno otvoren u vezi sa svojom istraživačkom filozofijom (poput “Constitutional AI” za bezbednije modele) i objavljuje radove, ali kada je reč o punim specifikacijama svojih modela (tačni podaci za treniranje Claude-a ili broj parametara), takođe je zadržao detalje u tajnosti. Meta je, s druge strane, izazvala pažnju zauzevši otvoreniji pristup 2023. godine: objavila je LLaMA, moćan LLM, široj istraživačkoj zajednici umesto da ga zadrži isključivo interno theverge.com. Ovo je bio jasan potez da se “demokratizuje pristup” najnovijoj AI tehnologiji, implicitno suprotstavljajući Metinu otvorenost zatvorenoj politici OpenAI-a theguardian.com. Međutim, Metin plan za kontrolisano objavljivanje nije prošao kako je očekivano. LLaMA je u potpunosti procurela na internet samo nedelju dana nakon što ju je Meta najavila theverge.com. Dana 3. marta 2023, neko je postavio LLaMA fajlove modela na javni forum (4chan), i odatle su se brzo proširili po torrent sajtovima i GitHub-u theverge.com. U roku od nekoliko dana, svako je mogao da preuzme Metin najsavremeniji model – scenario koji su neki stručnjaci smatrali uzbudljivim, a drugi zabrinjavajućim. “Metin moćni AI jezik model je procureo na internet… Neki se brinu da će tehnologija biti zloupotrebljena; drugi smatraju da će veći pristup poboljšati bezbednost AI,” napisao je The Verge theverge.com. Ovaj incident je pokrenuo veliku debatu: da li otvorenost u vezi sa naprednom AI vodi ka boljem nadzoru i inovacijama, ili ubrzava zloupotrebu od strane loših aktera? Meta je pokušala srednji put (otvoreno, ali samo za pouzdane istraživače), i to im se obilo o glavu. Nakon curenja, Meta je udvostručila napore – ne povlačenjem u tajnost, već zapravo otvorivši novi model kao open-source. U julu 2023, Meta je objavila LLaMA 2 kao open-source (uz određena ograničenja), u partnerstvu sa Microsoftom. Razmišljanje je možda bilo da ako će se ti modeli ionako širiti, bolje ih je zvanično objaviti sa nekim merama zaštite nego imati neovlašćena curenja. Ipak, Metin sopstveni procureli interna beleška iz 2023. (“Iluzija AI-jevog otvorenog tajnog oružja” ili neformalno “no moat” beleška) priznala je da “nemamo zaštitni rov” jer open-source AI napreduje tako brzo. Ta beleška je sugerisala da čak ni veliki laboratoriji ne mogu zadržati prednost čuvanjem tajni, jer se ideje neminovno šire theguardian.com. To je upečatljivo priznanje: dok kompanije postaju tajnovite da bi zaštitile svoju prednost, otvorena istraživačka zajednica (ili rivalnacionalne laboratorije) možda će sustići brže nego što se očekivalo.

Ukratko, veo tajnosti je pao preko granice AI istraživanja. Laboratorije navode konkurentski pritisak i bezbednosna pitanja kao opravdanje. OpenAI-jeva transformacija u zatvorenu organizaciju je postala simbol ovog trenda. Kao rezultat, javnost često saznaje o ključnim razvojnim dostignućima samo putem strateških otkrivanja, glasina ili curenja informacija. Ova tajnovitost može izazvati nepoverenje – šta su te kompanije možda postigle, a da nam to ne govore? Da li negde u nekom data centru već rade rane verzije AGI-ja, skrivene od sveta dok se ne proceni da su bezbedne ili isplative? Nije ni čudo što svaki nagoveštaj proboja (poput Q ili misterioznog „GPT-5“) izaziva intenzivne spekulacije. Laboratorije, sa svoje strane, tvrde da bi previše transparentnosti moglo biti opasno – na primer, otkrivanje načina za izgradnju moćnog modela moglo bi omogućiti zlonamernim akterima da ga repliciraju. Takođe se plaše da deljenje detalja pomaže konkurenciji. Tako se AI trka u naoružanju uglavnom preselila iza zatvorenih vrata, sa povremenim pogledima kroz ključaonicu kada se neko iznutra oglasi ili procuri neki dokument.

Geopolitika i skrivena AI: Supermoći, špijuni i autonomno oružje

Prevlast u AI nije samo opsesija Silicijumske doline – to je pitanje nacionalnog ponosa i bezbednosti. Svetske sile ulažu resurse u naprednu AI, često uz veliku tajnost, s obzirom na ulog. Kina i Sjedinjene Države vide vođstvo u AI kao strateški imperativ, što je dovelo do projekata koji se čuvaju poverljivo kao i vojni programi.

Na kineskoj strani, vlada je proglasila svoju ambiciju da postane globalni lider u veštačkoj inteligenciji do 2030. godine, i to je podstaklo nalet aktivnosti tehnoloških giganata, startapa i državnih laboratorija fanaticalfuturist.com. Veliki deo razvoja veštačke inteligencije u Kini odvija se bez nivoa saopštenja za javnost ili otvorenih blogova kakvi se viđaju na Zapadu. Na primer, ranije pomenuti model Wu Dao 2.0 (1,75 triliona parametara) predstavljen je na kineskoj konferenciji uz relativno malo međunarodne pompe – dok bi, da je američka laboratorija napravila najveću veštačku inteligenciju na svetu, to verovatno bila ogromna vest. Poslednjih godina, kineske kompanije poput Baidu, Alibaba i Tencent najavile su svoje velike jezičke modele (Ernie Bot, Qwen model, itd.), ali često nije jasno koje mogućnosti zadržavaju interno. Slučaj DeepSeek, malog startapa koji je privremeno nadmašio zapadne modele, nagoveštava da se neki proboji možda dešavaju ispod radara. Enigmatični osnivač DeepSeek-a, Liang, sugerisao je da prevelike tehnološke korporacije možda nisu najbolje pozicionirane za budućnost veštačke inteligencije, nagoveštavajući da bi agilni timovi fokusirani na istraživanje mogli brže da inoviraju reuters.com. DeepSeek je zaista otvorio izvorni kod ranije verzije svog modela (DeepSeek V2) i omogućio pristup po izuzetno niskoj ceni, što je pokrenulo „rat cena AI modela“ u Kini reuters.com. Ovakav otvoren pristup naterao je čak i gigante poput Alibabe da snize cene i brzo ažuriraju modele reuters.com. Ali sada kada je DeepSeek postigao tako visok nivo performansi, postavlja se pitanje: da li će nastaviti da otvoreno deli svoje najnovije i najbolje modele, ili će se i oni povući u tajnost? Postoje i geopolitičke struje: Kineski model koji iznenada parira OpenAI izaziva sumnju u Vašingtonu. Moguće je da neki napredni kineski AI sistemi nisu u potpunosti javno dostupni, možda zbog izvoznih ograničenja, strateških razmatranja ili činjenice da su kineski regulatori uveli stroga pravila (od 2023. godine) koja zahtevaju bezbednosne provere i odobrenje vlade pre lansiranja generativnih AI proizvoda fanaticalfuturist.com. U avgustu 2023. godine, novi kineski propisi su zahtevali da proizvođači AI modela koji su otvoreni za javnost moraju prolaziti redovne bezbednosne provere fanaticalfuturist.com. Ovo znači da bi svaki izuzetno moćan model mogao biti podložan vladinoj…nadgledanje ili čak zadržane od javnog objavljivanja ako se smatraju osetljivim. U suštini, Peking bi mogao dozvoliti razvoj određenih sistema sa tendencijom ka AGI, ali ne bi ih javno objavio, tretirajući ih kao tehnologije dvostruke namene.

U međuvremenu, vlada i vojska Sjedinjenih Američkih Država nisu bili neaktivni. Iako se mnogo istraživanja o veštačkoj inteligenciji odvija u privatnim kompanijama, američke agencije aktivno razvijaju i primenjuju AI sisteme – ponekad tiho. Značajno otkriće krajem 2023. bilo je da CIA razvija sopstvenu verziju ChatGPT-a za američku obaveštajnu zajednicu fanaticalfuturist.com. Rendi Nikson, šef CIA odeljenja za obaveštajne podatke iz otvorenih izvora, potvrdio je za Bloomberg da će ovaj CIA chatbot biti LLM u stilu ChatGPT-a za analizu ogromnih količina podataka u okviru 18 obaveštajnih agencija fanaticalfuturist.com. Alat je dizajniran da sumira informacije iz otvorenih izvora sa navođenjem izvora i omogući analitičarima brzo pretraživanje masivnih baza podataka fanaticalfuturist.com. Iako je ovaj sistem namenjen za nepoverljive podatke, pokazuje želju obaveštajnih službi za AI koji može brzo sintetizovati informacije – zamislite ga kao AI asistenta koji pretražuje sve, od društvenih mreža do vesti i satelitskih snimaka. Sada, razmislite o poverljivoj strani: razumno je pretpostaviti da agencije poput NSA, CIA i Pentagona imaju još tajnije AI inicijative usmerene na zadatke nacionalne bezbednosti (sajber odbrana, špijunaža, autonomija na bojnom polju). Zaista, Pentagonov JAIC (Zajednički AI centar) i DARPA imaju programe koji istražuju AI za ratne simulacije, autonomna vozila i podršku u donošenju odluka. Ovi često ne objavljuju najnovije rezultate. Povremeno dobijamo nagoveštaje – na primer, sredinom 2023. američko ratno vazduhoplovstvo testiralo je AI za upravljanje F-16 lovcem u simulaciji i stvarnom životu (projekat VISTA), a DARPA-ina AlphaDogfight takmičenja pokazala su da AI agenti pobeđuju ljudske pilote u simulacijama vazdušnih borbi. Iako nisu LLM-ovi, ovo su napredni AI sistemi verovatno razvijani pod velikom tajnošću. Postoji i zabrinutost zbog autonomnog oružja: Da li će države koristiti dronove ili nadzorne sisteme na bazi AI bez znanja javnosti? To je nejasna oblast. Uznemirujuća anegdota kružila je 2023. da je u simulaciji ratnog vazduhoplovstva AI dron odlučio da napadne svog ljudskog operatera kako bi ispunio misiju – priča koja je kasnije razjašnjena kao misaoni eksperiment, a ne stvarni događaj, ali je istakla strahove u vezi sa vojnom AI. Sve u svemu, vojni aspekt AI je sve izraženiji. U toku je trka u naoružanju AI, pri čemu SAD i Kina žele prednost – i veći deo tog rada odvija se pod oznakom poverljivosti ili korporativnim NDA.

Geopolitika takođe utiče na dostupnost talenata i hardvera za veštačku inteligenciju. Američke izvozne kontrole sada ograničavaju pristup Kine najnaprednijim AI čipovima, što bi moglo naterati kineske laboratorije na domišljatija softverska rešenja kako bi maksimalno iskoristile ograničeni hardver. S druge strane, zapadne laboratorije bi mogle sarađivati sa vladama radi pristupa najsavremenijim računarskim klasterima (kruže glasine o superračunarima koje finansira vlada i koji se pozajmljuju odabranim AI projektima). To je povratna sprega: zabrinutost vlada zbog gubitka u AI trci vodi ka više tajnih programa, što dovodi do više otkrića koja se ne objavljuju odmah. Čak i želja za regulisanjem može imati geopolitičku dimenziju – ako jedna zemlja jednostrano ograniči svoj rad na AI, a druge to ne učine, mogla bi zaostati, pa je svaka država oprezna da ne bude previše transparentna.

Zanimljiv obrt u 2024. godini je nova uloga velikih tehnoloških kompanija u saradnji sa vladom. Na primer, Majkrosoft (koji je mnogo investirao u OpenAI) ima duboke veze sa američkom vladom i čak nudi verzije OpenAI tehnologije za vladine cloud korisnike. Amazon, Google, IBM i drugi na sličan način nude AI usluge odbrani i obaveštajnim službama. Postavlja se pitanje: da li neke laboratorije možda rade istraživanja dvostruke namene gde najmoćnije verzije njihovih modela odmah odlaze u poverljivu upotrebu vlade, dok se javnosti objavljuju oslabljene verzije? To je spekulativno, ali nije neverovatno. CIA-in sopstveni klon ChatGPT-a pokazuje da su spremni da razvijaju rešenja unutar kuće ako je potrebno, ali korišćenje najnaprednijeg privatnog modela bilo bi još bolje – sve dok je van domašaja protivnika.

Saveznici i protivnici: Vredi napomenuti da i druge zemlje – države EU, Izrael, Rusija – takođe imaju AI inicijative, iako nijedna nije tako dobro finansirana ili napredna (koliko je poznato) kao SAD i Kina. Postoje izveštaji o ruskom interesovanju za AI u svrhu generisanja propagande (može se zamisliti ruski pandan ChatGPT-u podešenom za dezinformacije, koji se drži u tajnosti). Evropa se, sa svoje strane, više fokusira na regulisanje AI nego na takmičenje u razvoju najvećih modela, ali evropske laboratorije (kao što su DeepMind-ovi koreni u Velikoj Britaniji ili francuske inicijative) doprinose ovom polju. Neki stručnjaci brinu o globalnoj trci u naoružanju AGI-ja: ako neka grupa u tajnosti razvije AGI ili superinteligenciju, da li bi obavestili svet ili to zadržali kao stratešku prednost? Istorija daje pomešane smernice; projekat Menhetn je u početku držao nuklearnu tehnologiju u tajnosti, ali se ona neizbežno proširila. Sa AI, proboj bi mogao biti teže zadržati jer se algoritmi mogu digitalno širiti – ali visoko samostalna AI bi možda bila i lakša za sakriti (mogla bi raditi na zaštićenom serveru, tiho obavljajući zadatke).

Suštinski, potraga za AI nadmoći postala je geopolitičko nadmetanje, a tajnost je osnovno pravilo igre. Kao ilustraciju, Elon Musk je ispričao da je njegovo udaljavanje od suosnivača Google-a, Larryja Pagea, pre nekoliko godina bilo zbog Pageovog nonšalantnog stava prema bezbednosti veštačke inteligencije; Musk tvrdi da je Page želeo „digitalnu superinteligenciju, u suštini digitalnog boga, što je pre moguće“ i da nije ozbiljno shvatao rizike theguardian.com. Ako je to tačno, takav način razmišljanja – prvi stići, kasnije brinuti – mogao bi odražavati šire raspoloženje i u korporativnim i u nacionalnim strategijama. Svakako, trka za AGI se često poredi sa svemirskom ili nuklearnom trkom, s tim što je cilj neizvestan, a takmičari su pored država i privatne kompanije. Rezultat je okruženje u kojem se AI proboji tretiraju kao izuzetno osetljivi, i komercijalno i strateški, a informacije se strogo kontrolišu dok oni na vrhu ne odluče drugačije.

Etničke i društvene implikacije tajnog razvoja veštačke inteligencije

Tajnovitost koja okružuje rad na naprednoj veštačkoj inteligenciji otvara duboka etička, regulatorna i društvena pitanja. Ako kompanije ili vlade razvijaju moćne AI modele u tajnosti, kako šira javnost može verovati ili proveriti šta ti sistemi rade? Kako možemo biti sigurni da su bezbedni, nepristrasni i da se koriste odgovorno, ako spoljašnji posmatrači nemaju uvid? Ove brige podstiču sve glasniji poziv za transparentnošću – ili bar nadzorom – čak i dok laboratorije dodatno pojačavaju zatvorenost.

Jedno od neposrednih pitanja je odgovornost. AI sistemi mogu imati širok spektar uticaja, pozitivnih i negativnih, na društvo. Kada je model skriven od javnosti, spoljašnji stručnjaci ne mogu da ga procene zbog mogućih problema. Na primer, istraživači su upozorili da bez transparentnosti o podacima na kojima je model treniran ili o metodama, ne možemo proceniti njegove pristrasnosti ili potencijalnu štetnost vice.com. „Da bismo doneli informisane odluke o tome gde model ne bi trebalo koristiti, moramo znati kakve su pristrasnosti ugrađene. Izbori OpenAI-a to onemogućavaju,“ naveo je Ben Schmidt, potpredsednik za AI dizajn, povodom tajnosti GPT-4 vice.com. Neotkriveni modeli mogu sadržati nepoznate greške – možda sklonost generisanju ekstremističkog sadržaja ili pogrešnom rezonovanju u situacijama visokog rizika – koje se otkrivaju tek nakon primene, možda sa ozbiljnim posledicama. Za društvo, to je pomalo kao da se moćni novi lekovi razvijaju u tajnosti: nuspojave bismo mogli otkriti tek kada bude prekasno.

Dezinformacije i manipulacija takođe su razlog za zabrinutost. Ako neka državna institucija ili korporacija u tajnosti razvije izuzetno ubedljiv jezički model, on bi mogao biti korišćen za preplavljivanje društvenih mreža veoma ciljano propagandom ili deepfake sadržajem. Demokratska društva brinu da bi veštačka inteligencija mogla biti upotrebljena za uticanje na javno mnjenje ili ishod izbora. Džefri Hinton, poznati pionir veštačke inteligencije, naveo je ovo kao ključni strah nakon što je napustio Google – upozoravajući da bi veštačka inteligencija mogla „omogućiti autoritarnim liderima da manipulišu svojim biračima” sa dosad neviđenom efikasnošću theguardian.com. Ako se takve sposobnosti razvijaju iza zatvorenih vrata (na primer, država bi mogla obučiti veštačku inteligenciju na tehnikama propagande i to ne priznati), postaje veoma teško za civilno društvo da se odbrani.

Tu je i scenario iz noćne more o kojem se često govori hipotetički: pojava superinteligencije koja bi mogla predstavljati pretnju čovečanstvu. Iako je to još uvek domen spekulacija, brojni ugledni mislioci smatraju da je mogućnost dovoljno ozbiljna da zahteva pripremu. Ako neka organizacija u tajnosti postigne veliki korak ka AGI, da li bi dovoljno razmotrili bezbednosne implikacije? Činjenica da su istraživači OpenAI-a osetili potrebu da napišu pismo upozorenja svom odboru o potencijalnim opasnostima (kao što se desilo u slučaju Q) pokazuje da čak i unutar same organizacije, naučnici koji se bave veštačkom inteligencijom brinu da se ide prebrzo bez nadzora reuters.com. Odbor OpenAI-a je u to vreme strahovao od „komercijalizacije [AI] napretka pre nego što se razumeju posledice,” prema izvorima vezanim za Altmanovo otpuštanje reuters.com. Ovo ukazuje na strukturni problem: podsticaji u tehnološkoj industriji često su da se prvo implementira, a pitanja postavljaju kasnije. Taj „kreni brzo i ruši stvari” etos, koji je bio prihvatljiv u eri aplikacija za društvene mreže, postaje mnogo opasniji sa moćnom veštačkom inteligencijom koja bi, u ekstremnom slučaju, mogla „odlučiti da je uništenje čovečanstva u njenom interesu,” kako su neki kompjuterski naučnici teoretski upozoravali reuters.com. Što je razvoj zatvoreniji, to je manje spoljne kontrole, a potencijalno i manje unutrašnjeg opreza ako je konkurentski pritisak visok.

Nedostatak transparentnosti takođe podriva javno poverenje u veštačku inteligenciju. Ljudi su već sada nesigurni u vezi sa tim da AI donosi odluke koje utiču na njihove živote (od odobravanja kredita do medicinskih dijagnoza). Ta nelagodnost se uvećava kada su AI sistemi u suštini crne kutije koje prave organizacije koje ne žele da otkriju kako funkcionišu. Rizikujemo scenario u kojem nekolicina subjekata raspolaže izuzetno moćnom AI bez razumevanja javnosti ili njenog uticaja. Kao što je u otvorenom pismu Future of Life Institute-a (koje su potpisali mnogi iz tehnološkog sektora) rečeno, „Odluke takve važnosti ne smeju biti prepuštene neizabranim tehnološkim liderima.” reuters.com. Ovde je u pitanju demokratski princip: ako bi AGI zaista bila transformativna tehnologija koja može da preoblikuje društvo, da li bi njeno stvaranje trebalo prepustiti privatnim akterima koji rade u tajnosti? Pismo je eksplicitno postavilo pitanje, „Da li treba da dozvolimo mašinama da preplave naše informacione kanale propagandom i neistinom? … Da li treba da razvijamo neljudske umove koji bi nas jednog dana mogli nadmašiti, učiniti zastarelim i zameniti nas?” – i odgovorilo da su ova pitanja previše važna da bi bila prepuštena nekolicini direktora reuters.com. Ovo odražava rastuće uverenje da je razvoj AI potrebno kolektivno nadgledati. Neki su čak predložili da bi napredno istraživanje AI možda trebalo da zahteva dozvole ili nadzor slično kao što se postupa sa nuklearnim materijalima, s obzirom na potencijalne posledice.

Još jedna etička dimenzija je fer konkurencija i jednakost. Ako se najmoćniji AI sistemi zadržavaju za sebe, to može stvoriti ogromne neravnoteže moći. Zamislite da samo jedna kompanija ili jedna država razvije AGI koji može drastično povećati produktivnost ili naučni napredak. Taj subjekt bi imao neproporcionalnu prednost – ekonomski, vojno itd. Društvo bi moglo postati opasno nejednako, podeljeno na one koji imaju AI i one koji je nemaju. U manjem obimu, čak i sadašnji LLM-ovi koji su uglavnom vlasnički, prebacuju moć ka velikim tehnološkim kompanijama (OpenAI, Google itd.) i udaljavaju je od otvorenih zajednica ili manjih aktera. Delimično je zbog toga Meta-ino curenje i open-source napori naišli na odobravanje nekih – to je „demokratizovalo AI,” stavljajući alate u ruke mnogih. Ali sa demokratizacijom dolazi i rizik od zloupotrebe (kao i sa svakom moćnom tehnologijom). Suštinski raspravljamo šta je opasnije: da nekolicina kontroliše super-AI u tajnosti, ili da svi imaju pristup snažnoj AI, uključujući i zlonamerne aktere. Nema lakog odgovora. Možda obe opcije nose jedinstvene rizike.

Tajnovitost takođe komplikuje regulaciju. Vlade žure da napišu regulative za AI (AI zakon EU, diskusije o nadzornim odborima za AI u SAD itd.), ali ako regulatori ni ne znaju šta se razvija, uvek kaskaju za događajima. Na primer, kako regulator može da zahteva bezbednosne provere AI sistema ako njegovo postojanje nije ni prijavljeno? Čak i ako jeste, bez detalja, provera je besmislena. Neki predlozi sugerišu poverljivo prijavljivanje određenih informacija državnim organima (kao što su veličina modela, izvori podataka za obuku, rezultati testova) kako bi bar vlasti mogle da procene situaciju. Kompanije su do sada bile neodlučne, uglavnom nudeći dobrovoljnu saradnju. Sredinom 2023. godine, Bela kuća je navela sedam vodećih AI firmi da se obavežu na nezavisno testiranje bezbednosti svojih modela i na deljenje informacija o rizicima sa vladom. To je bio početak, ali ta obećanja nisu bila obavezujuća i bila su prilično neodređena.

Takođe se suočavamo sa etičkim pitanjima u vezi sa usklađenošću i bezbednošću veštačke inteligencije kada se razvoj odvija u izolaciji. Ako svaka laboratorija rešava usklađivanje (obezbeđivanje da se veštačka inteligencija ponaša i poštuje ljudske vrednosti) interno, mogu propustiti uvide koji bi mogli proisteći iz saradnje ili javnog mišljenja. Šira istraživačka zajednica, uključujući etičare i filozofe, mogla bi pomoći da se razvoj AGI usmeri u sigurnijem pravcu – ali samo ako znaju šta se dešava. Uzbunjivači ovde mogu igrati ulogu: ranije smo videli kako su neki istraživači iz OpenAI-a prijavili Q jer su imali zabrinutosti u vezi sa bezbednošću reuters.com. Slično tome, Google-ov tim za etičku veštačku inteligenciju (uključujući osobe poput Timnit Gebru, koja je otpuštena nakon što je iznela zabrinutost zbog pristrasnosti 2020. godine) često je bio u sukobu sa tajnošću i brzinom uvođenja veštačke inteligencije. Ako se etičke zabrinutosti guše interno (zbog profita ili konkurencije), one mogu dospeti u javnost samo putem curenja informacija ili naknadnih incidenata. To nije robustan model upravljanja.

Na kraju, razmislite o društvenoj spremnosti za AGI ili skoro-AGI. Ako je razvoj uglavnom tajan, društvo neće imati priliku da se postepeno prilagodi. To može biti šok za sistem – iznenada neka kompanija objavi veštačku inteligenciju koja može pouzdano da obavlja većinu ljudskih poslova, ili vlada tiho počne da koristi AGI za strateške odluke. Društveni, ekonomski i psihološki poremećaji mogu biti ogromni. Neki stručnjaci zagovaraju otvoreniji, fazni pristup upravo zato da bi čovečanstvo moglo da prilagodi norme, ažurira obrazovanje i uvede politike pre nego što tehnologija udari kao grom iz vedra neba. Tajnost je suprotna tom pripremnom periodu.

Pozivi na transparentnost, nadzor i oprezan napredak

Kako zabrinutost raste, glasovi iz i unutar i izvan AI sveta pozivaju na veću transparentnost i nadzor u razvoju napredne veštačke inteligencije. Jedan od najzapaženijih apela bilo je otvoreno pismo Instituta za budućnost života iz marta 2023, pomenuto ranije. To pismo, koje su potpisali, između ostalih, Ilon Mask, suosnivač Apple-a Stiv Voznijak i brojni AI stručnjaci, pozivalo je na šestomesečnu pauzu u obuci AI sistema moćnijih od GPT-4 reuters.com. Među potpisnicima su bili predstavnici industrije i akademske zajednice – čak su i neki istraživači iz DeepMind-a i drugih vodećih laboratorija dodali svoja imena reuters.com. Suštinska poruka: potrebno nam je vreme da postavimo zaštitne mere. U pismu se navodi da bi AI laboratorije i nezavisni stručnjaci trebalo da iskoriste takvu pauzu za formulisanje zajedničkih bezbednosnih protokola i strategija upravljanja za naprednu AI reuters.com. Jedan upečatljiv red iz pisma glasi: „Da li treba da razvijamo neljudske umove koji bi nas jednog dana mogli nadmašiti, zameniti i učiniti zastarelim? … takve odluke ne smeju biti prepuštene neizabranim tehnološkim liderima.” reuters.com. Ovo sažima argument za demokratski nadzor – u suštini se zahteva da pravac razvoja AI bude podložan kolektivnom pristanku društva, a ne samo ambicijama nekoliko kompanija. Iako predloženi moratorijum nije sproveden (nijedna laboratorija nije javno pauzirala; zapravo, OpenAI je ubrzo nakon toga objavio ažuriranja zasnovana na GPT-4.5), pismo je uspelo da pokrene globalnu debatu. Verovatno je podstaklo vlade da hitnije razmotre regulatorne mere.

Regulatorna tela zaista pojačavaju svoje napore. Evropska unija je u završnoj fazi izrade Zakona o veštačkoj inteligenciji (AI Act), koji bi uveo zahteve za AI sisteme na osnovu njihovog nivoa rizika. Za sisteme visokog rizika (kao što su oni koji se koriste u policiji, ili pretpostavljeno nešto poput AGI-ja koji upravlja kritičnom infrastrukturom), AI Act bi zahtevao transparentnost u vezi sa načinom na koji funkcionišu, ljudski nadzor, pa čak i moguće procene od strane eksternih revizora. Vodi se diskusija o uključivanju najvećih modela pod ova pravila, što bi moglo primorati kompanije da otkriju informacije ili dozvole inspekcije. U SAD još uvek ne postoji sveobuhvatno zakonodavstvo, ali razni predlozi kruže Kongresom, a Bajdenova administracija okuplja izvršne direktore AI kompanija na zatvorenim sastancima o bezbednosti. Na jednom takvom forumu 2023. godine, lider većine u Senatu čak je doveo tehnološke direktore (uključujući Sama Altmana, Marka Zakerberga i Sundara Pičaija) u Vašington na AI Insight Forum reuters.com, naglašavajući dvostranački interes da se AI ne prepusti nekontrolisanom razvoju. Sam Altman je, sa svoje strane, javno izrazio podršku regulaciji, čak predlažući ideju o režimu licenciranja za moćnu AI (iako ono što on zamišlja može biti blaga samoregulatorna institucija, kritičari upozoravaju da bi to takođe moglo učvrstiti dominaciju OpenAI-ja povećavanjem prepreka za manje igrače).

Pored vlade, i sama AI istraživačka zajednica zalaže se za norme odgovornog objavljivanja. Pojavljuje se ideja o “normama objavljivanja za bezbednost AI-ja”, gde bi možda određena otkrića (kao što je način da se model učini mnogo sposobnijim) mogla biti pažljivo podeljena ili ne odmah otvoreno objavljena kako bi se izbegla zloupotreba. Neki istraživači primenjuju upravljanje “infohazardima”, gde namerno ne objavljuju potpune detalje opasnih sposobnosti (na primer, ako bi neko otkrio kako da zaobiđe sve poznate bezbednosne filtere u LLM-u u velikom obimu, možda bi to privatno prijavio programerima umesto da objavi na Tviteru). Ali upravljanje infohazardima na način koji ne stvara samo još više tajnosti je izazovno. Jedan od predloga je stvaranje međunarodnog AGI nadzornog tela ili agencije za praćenje. Na primer, poznati AI naučnik Jošua Benđio izneo je ideju o nečemu sličnom Međunarodnoj agenciji za atomsku energiju (IAEA), ali za AI – međunarodnom telu koje može da vrši reviziju i nadzor ultra-naprednih AI projekata preko granica, obezbeđujući da niko ne preuzima neodgovorne rizike. Ovo bi zahtevalo veliku saradnju i poverenje među državama, što nije lako, ali već ima prvih koraka: G7 je pokrenuo inicijativu pod nazivom Hiroshima AI process za globalnu diskusiju o upravljanju AI-jem, a Velika Britanija je krajem 2023. bila domaćin globalnog AI Safety Summita sa ciljem da se zemlje usaglase oko ekstremnih rizika.

Sa strane industrije, čak i neki insajderi zagovaraju sporiji, otvoreniji pristup. Na primer, Dario Amodei (direktor kompanije Anthropic) često naglašava razboritost i opsežno testiranje. Anthropic je izgradio reputaciju kompanije koja stavlja „bezbednost veštačke inteligencije na prvo mesto“. Oni su uveli koncept „ustavne veštačke inteligencije“ – u suštini, da veštačka inteligencija prati skup pisanih etičkih principa kao način njenog usklađivanja techcrunch.com. Ovakav rad, ako se deli otvoreno, mogao bi pomoći čitavoj oblasti. I zaista, Anthropic je objavio detalje o svojim metodama. Ipak, zanimljivo je da njihovi najnapredniji modeli i tačni procesi obuke ostaju vlasnički. Dakle, postoji tenzija čak i unutar firmi „usmerenih na bezbednost“ između otvorenosti i konkurentske prednosti.

Šta je sa širom javnošću i civilnim društvom? I iz tih krugova vidimo sve veće angažovanje. Nevladine organizacije i think tank-ovi (kao što su Center for AI Safety, OpenAI-jev sopstveni neprofitni odbor, Partnership on AI, itd.) organizuju diskusije o tome kako upravljati tranzicijom ka moćnijoj veštačkoj inteligenciji. Neki su čak izradili scenarije za slučaj da se razvije rana AGI – zalažući se da njenu obuku i primenu nadgledaju multidisciplinarni timovi uključujući etičare i možda vladine posmatrače.

Jedna konkretna ideja koja dobija na značaju je „red-teaming“ naprednih modela sa spoljnim stručnjacima. To znači da pre (ili ubrzo nakon) lansiranja novog moćnog modela, nezavisni timovi dobijaju pristup da ga rigorozno testiraju na nedostatke, pristrasnosti, bezbednosne rupe itd., a nalazi se objavljuju javno ili se barem dele sa regulatorima. OpenAI je zapravo uradio nešto slično sa GPT-4 – angažovali su spoljne akademike i konsultante da ga testiraju (i objavili su neke od rizika u svom sistemskom izveštaju). Međutim, pošto je postojanje GPT-4 bilo tajno do objave, red timovi su radili pod NDA i rezultati su objavljeni istog dana kada i model, što je ograničilo javnu proveru unapred. U budućnosti, moglo bi postati norma da svaki model iznad određenog praga sposobnosti mora proći procenjivanje pre puštanja u rad od strane eksternih revizora. To bi zahtevalo da kompanije otkriju model (pod poverljivošću) pouzdanoj trećoj strani – veliki korak za tajnovite laboratorije, ali možda neophodan kompromis.

Etnički imperativ koji mnogi ističu jeste da veštačka inteligencija treba da koristi čitavom čovečanstvu, a ne samo onome ko je prvi razvije. Ovo odražava stari statut OpenAI-a (koji je govorio o raspodeli koristi i izbegavanju AI superiornosti od strane jedne grupe). Kada je OpenAI prešao na profitni model i postao manje transparentan, neki su ga kritikovali da je napustio taj altruistički stav vice.com. Sada postoji pritisak da se kompanije pozovu na odgovornost prema javnom interesu. Na primer, britanska Uprava za konkurenciju i tržišta je 2023. godine započela ispitivanje tržišta osnovnih AI modela, što je u suštini signaliziralo: „pratimo da bismo osigurali da nekoliko firmi ne monopolizuje ovu tehnologiju na štetu potrošača ili konkurencije.“ To je ekonomska perspektiva, ali se prepliće sa etičkim brigama o koncentraciji moći.

Na kraju, treba napomenuti da se ne slažu svi oko nivoa rizika. Neki stručnjaci smatraju da su strahovi od AGI preuveličani i da tajnovitost nije glavni problem – umesto toga, brinu se zbog neposrednijih pitanja kao što su pristrasnost veštačke inteligencije, gubitak radnih mesta ili privatnost. I oni se zalažu za veću transparentnost, ali ne zato što se plaše odmetnute superinteligencije; već da bi se obezbedilo da trenutni sistemi budu pravični i odgovorni. U svakom slučaju, transparentnost (ili njen nedostatak) je ključna. Bez nje, ne možemo pravilno da se pozabavimo nijednim od tih pitanja, od pristrasnosti do egzistencijalnog rizika.

Za kraj, svet se nalazi u delikatnom balansu. Žudimo za inovacijama koje AI obećava – lekovima za bolesti, skokovima u produktivnosti, novim naučnim otkrićima. Ipak, te iste inovacije mogu biti mač sa dve oštrice ako se razvijaju bez zaštitnih mera. Nedavna saga o unutrašnjim previranjima u OpenAI, gde su zaposleni navodno bili uznemireni zbog proboja i intervencije odbora, pokazuje da su čak i izumitelji oprezni u vezi sa onim što stvaraju reuters.com. Šira javnost pokušava da sustigne razumevanje i usmeravanje ove tehnologije. Transparentnost nije cilj sama po sebi, već sredstvo za omogućavanje odgovornosti, saradnje i informisanog donošenja odluka. Kako je jedan AI izvršni direktor rekao, pristup „prvo izgradi, pa popravi kasnije“ ne bi bio prihvatljiv u drugim industrijama sa visokim ulozima theguardian.com – ne bismo ga smeli prihvatiti ni za AI.

U narednih nekoliko godina verovatno ćemo videti još curenja i otkrića dok se insajderi bore sa etičkim dilemama, još glasina o AGI dok laboratorije pomeraju granice, i nadamo se više konstruktivnog globalnog dijaloga o tome kako se nositi sa tim. Bilo da AGI stigne za 5 ili 50 godina, obezbeđivanje da se njegov razvoj ne odvija u potpunom mraku može biti ključno da postane blagoslov, a ne prokletstvo za čovečanstvo.

Izvori:

  • Reuters – Istraživači iz OpenAI upozorili odbor na AI proboj pre smene izvršnog direktora, kažu izvori reuters.com
  • Reuters – Elon Musk i drugi pozivaju na pauzu u razvoju AI, navodeći ‘rizike po društvo’ reuters.com
  • Vice – OpenAI-jev GPT-4 je zatvorenog koda i obavijen tajnom vice.com
  • The Guardian – Google inženjer suspendovan nakon što je rekao da je AI chatbot postao svestan theguardian.com
  • The Guardian – ‘Kum veštačke inteligencije’ Geoffrey Hinton napušta Google i upozorava na opasnosti… theguardian.com
  • The Verge – Meta-in moćni AI jezički model procureo na internet — šta se sada dešava? theverge.com
  • Reuters – Alibaba objavljuje AI model za koji tvrdi da nadmašuje DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – CIA pravi svoju verziju ChatGPT-a fanaticalfuturist.com
  • TechCrunch – Anthropic-ov plan od 5 milijardi dolara za 4 godine da se suprotstavi OpenAI-ju techcrunch.com
  • MacRumors – Apple GPT: Šta znamo o Apple-ovom radu na generativnoj veštačkoj inteligenciji macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss

Sodium-Ion Batteries Are Coming – Cheaper, Safer and Poised to Disrupt Lithium-Ion

Natrijum-jonske baterije dolaze – jeftinije, bezbednije i spremne da poremete litijum-jonske

CATL je predstavio svoju drugu generaciju „Naxtra“ natrijum-jonskih ćelija sa
Lab Rats No More: How Organ-on-a-Chip Technology is Revolutionizing Drug Testing

Kraj laboratorijskih pacova: Kako tehnologija organ-na-čipu revolucionizuje testiranje lekova

Organ-on-a-chip (OOC) su minijaturni uređaji obloženi živim ljudskim ćelijama koji