Razkrito: Znotraj skrivne AI dirke – uhajanja, govorice in skrito iskanje AGI

26 avgusta, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI
  • Ob koncu leta 2023 so raziskovalci OpenAI krožili interno pismo o modelu s kodnim imenom “Q” (Q-Star), ki naj bi reševal določene matematične probleme na približno osnovnošolski ravni, kar je spodbudilo špekulacije o AGI.
  • OpenAI je marca 2023 izdal GPT-4, pri čemer v tehničnem poročilu niso razkrili arhitekture, učnih podatkov, strojne opreme ali metodologije učenja.
  • Do sredine leta 2024 OpenAI ni potrdil GPT-5, Sam Altman pa je dejal, da je treba opraviti še veliko dela, preden začnejo z GPT-5, medtem ko je Guardianovo poročilo iz avgusta 2025 opisalo GPT-5 kot velik korak proti AGI.
  • Google DeepMind je predstavil projekt Gemini, Gemini 1.0 pa naj bi do začetka leta 2024 na določenih merilih presegel GPT-4, pri čemer je bila Ultra različica v razvoju.
  • Epizoda z LaMDA je vključevala izliv iz leta 2022, ko je Googlov inženir Blake Lemoine trdil, da je LaMDA “čuten”, Bard, ki temelji na LaMDA, pa je bil izdan v letih 2022–2023.
  • Model LLaMA podjetja Meta je bil izpuščen 3. marca 2023, Meta pa je julija 2023 izdala LLaMA 2 kot odprtokodno z omejitvami, medtem ko je v memorandumu iz leta 2023 opozorila, da zaradi hitrega širjenja “ni jarka”.
  • Anthropicova predstavitvena dokumentacija za zbiranje sredstev iz leta 2023 je opisala Claude-Next kot 10-krat zmogljivejšega od Claude-2 in da bi za učenje lahko potreboval približno 1 milijardo dolarjev računske moči, s ciljem samoučenja AI in obsežne avtomatizacije.
  • Januarja 2025 je DeepSeek izdal DeepSeek-V3 in nadaljevanje R1, ki naj bi se kosala z najboljšimi modeli OpenAI, ustanovitelj Liang Wenfeng pa je izjavil, da je cilj AGI, Reuters pa je opozoril, da so nizki stroški zagonskega podjetja sprožili cenovno vojno AI modelov.
  • CIA razvija svoj LLM v slogu ChatGPT za ameriško obveščevalno skupnost, da bi analizirala podatke v 18 agencijah, zasnovan pa je za povzemanje odprtokodnih informacij s citati.
  • Wu Dao 2.0, predstavljen leta 2021 s strani Pekinške akademije za umetno inteligenco, je multimodalni model z 1,75 bilijona parametrov, desetkrat več kot GPT-3, in ni bil odprtokoden.

Največji svetovni tehnološki laboratoriji so ujeti v skrivnostno tekmo za naslednji preboj na področju umetne inteligence – morda celo za umetno splošno inteligenco (AGI), sistem s človeškimi (ali večjimi) kognitivnimi sposobnostmi. Medtem ko so AI klepetalniki, kot je ChatGPT, navdušili javnost, notranji viri in izpuščeni dokumenti namigujejo na še močnejše velike jezikovne modele (LLM) in AGI projekte, ki nastajajo za zaprtimi vrati. Od skrivnih raziskav v OpenAI in DeepMind do prikritih vladnih programov, mreža skrivnosti obdaja te razvojne dosežke. To poročilo raziskuje najnovejše (2024–2025) izlive in špekulacije o nerazkritih AI modelih, kulturi skrivanja med vodilnimi na področju AI, geopolitičnem tekmovanju na področju AI in etičnih dilemah razvoja zmogljive AI v temi. Ločili bomo potrjena dejstva od govoric, citirali strokovnjake in žvižgače ter preučili, kaj vse to pomeni za družbo.

Izlivi in govorice o nerazkritih AI prebojih (2024–2025)

OpenAI-jevo odkritje “Q”: Konec leta 2023 je notranje pismo raziskovalcev OpenAI upravnemu odboru sprožilo val ugibanj reuters.com. Pismo je opozarjalo na zmogljiv algoritem umetne inteligence, znan pod kodnim imenom “Q” (Q-Star), za katerega so zaposleni menili, da bi lahko pomenil velik korak proti splošni umetni inteligenci (AGI) reuters.com. Po poročanju Reutersa je model pokazal doslej nevideno sposobnost reševanja določenih matematičnih problemov – na ravni osnovne šole, a dosledno in pravilno reuters.com. To je bilo izjemno, saj se današnje generativne umetne inteligence (kot je ChatGPT) pogosto spopadajo z matematiko ali logično doslednostjo. “Nekateri v OpenAI verjamejo, da bi Q lahko pomenil preboj v iskanju tako imenovane AGI,” je zapisal Reuters, pri čemer je poudaril, da je že uspešno reševanje osnovnošolskih matematičnih nalog raziskovalce navdalo z “velikim optimizmom glede prihodnjega uspeha Qreuters.com. OpenAI javno ni objavil Q niti v celoti potrdil njegovih zmožnosti, je pa zasebno priznal obstoj projekta zaposlenim po novinarskih poizvedbah reuters.com. Skrivnostnost okoli Q – in njegova dramatična vloga pri nenadni odstavitvi izvršnega direktorja OpenAI Sama Altmana novembra 2023 – je spodbudila ugibanja, da je OpenAI morda “odmaknil tančico nevednosti” z velikim odkritjem reuters.com. (Sam Altman je le nekaj tednov prej namignil, da so “veliki napredki na obzorju,” in skrivnostno dejal, da je bil navzoč pri več prelomnih trenutkih, “zadnji [je bil] prav v zadnjih nekaj tednih” reuters.com.) Mnogi opazovalci sumijo, da je Q stroj za sklepanje, ki bi ob večjem obsegu lahko reševal nove probleme, ki jih današnji klepetalniki ne zmorejo – v bistvu potencialno seme splošne inteligence.

GPT-5 in drugi še neobjavljeni modeli: Javno dostopen model OpenAI v letu 2024 ostaja GPT-4 (ki poganja ChatGPT in Bing), kaj pa njegov naslednik? Podjetje je bilo na to temo izjemno skrivnostno. Marca 2023 je več kot tisoč strokovnjakov podpisalo odprto pismo, v katerem so pozvali k premoru pri treniranju sistemov, “močnejših od GPT-4”, zaradi varnostnih pomislekov reuters.com. Sam Altman je odgovoril z zagotovilom, da OpenAI “ne [trenirajo] GPT-5” in da ga še nekaj časa ne bodo techcrunch.com. Sredi leta 2024 je Altman ponovil, da imajo “še veliko dela” z novimi idejami, preden začnejo z GPT-5 techcrunch.com. Kljub temu vztrajajo govorice, da je prvotno delo na naslednji generaciji modela že v teku – ne glede na to, ali se bo imenoval GPT-5 ali kako drugače. OpenAI je znano zavrnil razkritje kakršnihkoli podrobnosti o sestavi GPT-4 (več o tem spodaj), zato bi celoten obstoj in napredek GPT-5 (če sploh obstaja) verjetno ostal skrivnost do javne predstavitve. Omeniti velja, da je nedavna analiza v The Guardian (avgust 2025) omenila “novi model GPT-5 OpenAI” kot “pomemben korak na poti do AGI” – čeprav še vedno “mu nekaj zelo pomembnega manjka” v smislu resnično človeškega učenja theguardian.com. To nakazuje, da bi bil do leta 2025 GPT-5 morda že predstavljen z veliko pompa, a tudi to morda ne bo preboj, ki se ga nekateri bojijo, da se skriva v ozadju. V vsakem primeru je razvoj GPT-5 zavit v nenavadno skrivnostnost, saj OpenAI dolgo časa ni niti potrdil niti zanikal njegovega statusa – kar še dodatno spodbuja govorice, da se nekaj velikega dogaja za zaprtimi vrati.

Naslednje poteze Google DeepMind: Googlov oddelek za umetno inteligenco (zdaj združenje Google Brain in DeepMind) prav tako razvija izjemno napredne modele, pogosto brez javnih objav vse do strateškega trenutka. Konec leta 2023 je Google napovedal, da razvija “Gemini,” naslednjo generacijo AI modela, ki bi združil tehnike DeepMindovega slavnega AlphaGo z jezikovnimi zmožnostmi LLM-jev en.wikipedia.org. Čeprav je bil razvoj Geminija javno objavljen, je veliko podrobnosti ostalo skritih do njegove končne izdaje. Do začetka leta 2024 so se pojavila poročila, da je Gemini 1.0 presegel OpenAI-jev GPT-4 na določenih merilih iconext.co.th, Ultra različica pa je bila v pripravi. Ta konkurenčni preskok – dosežen večinoma znotraj Googla – kaže, kako tehnološki velikani pogosto delujejo v načinu prikritega razvoja na prelomnih modelih, ki jih razkrijejo šele, ko so pripravljeni prevzeti vodilno mesto. Podobno ima DeepMind zgodovino skrivnostnih projektov: na primer, LaMDA, Googlov napredni konverzacijski LLM, je bil razvit interno in je bil javnosti znan predvsem prek raziskovalnih člankov in enega razvpitega uhajanja informacij (Googlov inženir je trdil, da je LaMDA “čuten,” več o tem kasneje). Šele v letih 2022–2023, ko je bil LaMDA-jev izpeljani model izdan kot klepetalnik Bard, je javnost lahko stopila v stik z njim. Ta vzorec – dolgotrajen razvoj v tajnosti, nato nenaden javni nastop – se zdi običajen v industriji. Tudi drugi laboratoriji, kot je Anthropic (ustanovljen s strani nekdanjih članov OpenAI), so nakazali večje nadgradnje modelov na obzorju, ne da bi razkrili vse podrobnosti. Leta 2023 je v javnost prišla predstavitev za zbiranje sredstev podjetja Anthropic, ki je razkrivala načrte za “Claude-Next” model, ki naj bi bil 10-krat zmogljivejši od današnjih najmočnejših AI in bi za učenje morda potreboval okoli 1 milijardo dolarjev računske moči techcrunch.com. Anthropic je ta mejni model opisal kot usmerjen v “samoučenje AI” in namignil, da bi lahko “začel avtomatizirati velike dele gospodarstva” techcrunch.com – ambicija, ki je skoraj enaka zgodnji obliki AGI. Vendar pa je Anthropic, razen uhajanih dokumentov, ostal molčeč glede napredka pri Claude-Next in se v javnosti osredotočal na postopne nadgradnje (kot je Claude 2). Dejanska vrzel v zmogljivostih med tem, kar je javno dostopno, in tem, kar nastaja v laboratoriju, je morda veliko večja, kot si mislimo.

Novi in manj znani igralci: Niso pomembna le dobro znana podjetja – včasih se pojavijo temni konji, ki presenetijo strokovnjake. Eden izmed presenetljivih primerov prihaja iz Kitajske: januarja 2025 je razmeroma neznani startup z imenom DeepSeek vstopil na sceno z modelom (DeepSeek-V3 in kasnejšo različico “R1”), ki naj bi se po poročilih kosal z najboljšimi modeli OpenAI. Kitajska tehnološka skupnost – in celo Silicijeva dolina – sta bili osupli, ko je DeepSeekov AI asistent šokiral industrijo s tem, da je na več merilih dosegel ali presegel modele OpenAI, in to za delček stroškov reuters.com. “DeepSeekov AI…je šokiral Silicijevo dolino in povzročil padec tehnoloških delnic,” je poročal Reuters, pri čemer je izpostavil nizke razvojne stroške startupa in trditve, da je njihov model R1 deloval primerljivo z OpenAI-jevim modelom “o1” reuters.com. (Terminologija nakazuje, da se je DeepSeek primerjal z OpenAI-jevim modelom s kodnim imenom “o1”, morda različico GPT-4.) Ustanovitelj DeepSeeka, mladi raziskovalec Liang Wenfeng, je dal zelo malo intervjujev, a je v enem pogumno izjavil, da je doseganje AGI glavni cilj podjetja, in da v nasprotju z velikimi tehnološkimi podjetji njegova vitka ekipa “ni skrbelo” za dobiček ali celo za nenehne cenovne vojne v AI oblačnih storitvah reuters.com. Takšen prikrit razvoj poudarja, da vrhunska umetna inteligenca ni izključno domena običajnih zahodnih laboratorijev – morda se zelo napredni modeli razvijajo na skrivaj v startupih ali vladno povezanih inštitutih drugje. Pravzaprav je že leta 2021 Pekinška akademija za umetno inteligenco na Kitajskem napovedala Wu Dao 2.0, multimodalno umetno inteligenco z osupljivimi 1,75 bilijona parametrov (desetkrat več kot GPT-3) aibusiness.com. Wu Dao je bil ogromen model, sposoben generiranja besedila in slik, vendar ni bil odprtokoden; služil je kot dokaz, da lahko Kitajska izvaja raziskave na najvišji ravni – ali celo preseže – ameriške laboratorije. Malo ljudi zunaj Kitajske je videlo Wu Dao v akciji in ostaja nekakšna legenda. Ključna točka je, da po svetu obstajajo AI projekti, o katerih slišimo le šepetanje, dokler nenadoma ne debitirajo (ali pride do njihovega uhajanja). Prvo opozorilo širši javnosti je lahko raziskovalni članek, regulativna prijava – ali anonimna objava uteži modela na forumu (kot se je zgodilo z Meta LLaMA, opisano spodaj). V takšnem okolju je nepričakovano postalo rutina, in vsak glas o skrivnem modelu ali “preboju” AGI povzroči valove navdušenja in tesnobe v AI skupnosti.

Kultura skrivnosti med AI laboratoriji

Kljub temu, da industrija izvira iz akademskih krogov in odprtih raziskav, so današnji vodilni v umetni inteligenci vse bolj zadržani glede svojega najnaprednejšega dela. Glavni primer je OpenAI. Ironično poimenovan za transparentnost, se je OpenAI obrnil k izjemni skrivnosti pri svojih najnaprednejših modelih. Ko je bil GPT-4 izdan marca 2023, OpenAI ni zagotovil nobenih informacij o arhitekturi modela ali postopku učenja – brez števila parametrov, brez podrobnosti o obsežnem podatkovnem naboru ali uporabljeni strojni opremi vice.com. V tehničnem poročilu je podjetje naravnost zapisalo: “Glede na konkurenčno okolje in varnostne posledice modelov velikega obsega, kot je GPT-4, to poročilo ne vsebuje nobenih dodatnih podrobnosti o arhitekturi … strojni opremi, računski moči, sestavi podatkovnega nabora [ali] metodi učenja.” vice.com. To je pomenilo popoln obrat za 180 stopinj od temeljnih načel odprtosti, na katerih je bil OpenAI ustanovljen vice.com. Kot je zapisano v enem izmed poročil, je bil GPT-4 “najbolj skrivnostna izdaja podjetja doslej”, in pravzaprav “popoln obrat za 180 stopinj od temeljnih načel OpenAI kot neprofitne, odprtokodne entitete.” vice.com. Kritiki so ostro napadli to pomanjkanje transparentnosti. “Po branju skoraj 100-stranskega poročila imam več vprašanj kot odgovorov,” je povedala Sasha Luccioni, raziskovalka umetne inteligence pri Hugging Face, in dodala, da je “težko zanašati se na rezultate, ki jih ne morem preveriti ali ponoviti.” vice.com Druga strokovnjakinja, prof. Emily M. Bender, je tvitnila, da skrivnostnost OpenAI ni presenečenje, a je obžalovala, da “Namenoma ignorirajo najbolj osnovne strategije za zmanjševanje tveganj, hkrati pa razglašajo, da delajo v korist človeštva.” vice.com. Tudi izvršni direktor in glavni znanstvenik OpenAI sta priznala spremembo. Ilya Sutskever, nekoč zagovornik odprtih raziskav umetne inteligence, je molk glede GPT-4 zagovarjal z besedami, da “je tam zunaj konkurenca … s konkurenčnega vidika lahko to vidite kot zorenje področja”, in na koncu priznal, da “smo se motili”, ker smo bili na začetku odprtokodni vice.com. Skratka, OpenAI zdaj deluje podobno kot korporativni raziskovalni laboratorij, ki varuje poslovno skrivnost.

Tudi drugi laboratoriji za umetno inteligenco so postali zadržani glede podrobnosti, ko so njihovi projekti dosegli vrhunsko raven. DeepMind je na primer objavil številne prelomne članke (o AlphaGo, AlphaFold itd.), vendar redko objavi uteži modelov ali celotne tehnične načrte svojih najnovejših sistemov. Ko je DeepMind razvil Gopher (velik jezikovni model) ali Sparrow (pogovorni agent), je javnost o njunih zmožnostih izvedela prek znanstvenih objav, vendar so modeli sami ostali interni. Googlov model LaMDA je bil dolgo časa zadržan znotraj podjetja, dokler pritisk zaradi napredka OpenAI ni prisilil Googla, da pohiti z izdelkom (Bard), ki temelji na LaMDA. Omeniti velja, da svet morda nikoli ne bi izvedel, kako srhljivo in človeško so lahko videti pogovori z LaMDA, če ne bi bilo primer whistleblowerja: leta 2022 je Googlov inženir Blake Lemoine javno izjavil, da je LaMDA »čuteča« – trditev, ki so jo znanstveniki odločno zavrnili, a je pritegnila veliko pozornosti na to, kar je Google skrivaj ustvaril theguardian.com. Google je Lemoinu začasno prepovedal delo zaradi kršitve zaupnosti (delil je prepise svojih pogovorov z AI) theguardian.com. Dogodek ni le pokazal, kako napredni so postali Googlove nevidne klepetalne umetne inteligence, temveč je tudi »povzročil nov nadzor nad skrivnostnostjo v svetu umetne inteligence,« kot je takrat zapisal The Guardian theguardian.com. Lemoine je sam pripomnil: »Google bi temu rekel deljenje lastniške lastnine. Jaz temu pravim deljenje pogovora, ki sem ga imel z enim od svojih sodelavcev,« s čimer je na provokativen način zabrisal mejo med umetno inteligenco in človeškim sodelavcem theguardian.com. Čeprav so bile njegove trditve o čutečnosti ovržene, je vsebina teh razkritih pogovorov pokazala, da je LaMDA izražala strah pred izklopom in željo, da bi bila priznana kot oseba theguardian.com – stvari, ki zagotovo niso bile del Googlove javne pripovedi o njegovi umetni inteligenci. To je nazoren primer, kako se lahko zmožnosti umetne inteligence za zaprtimi vrati razvijajo veliko dlje, kot si zunanji opazovalci predstavljajo, dokler kakšno razkritje ali notranji vir ne osvetli dogajanja (pravilno ali ne).

Anthropic in Meta AI predstavljata kontrast v odprtosti, čeprav nekoliko niansiran. Anthropic je bil razmeroma odprt glede svoje raziskovalne filozofije (na primer “Constitutional AI” za varnejše modele) in objavlja članke, vendar pa je, ko gre za popolne specifikacije svojih modelov (natančni podatki o učenju ali število parametrov za Claude), podrobnosti prav tako zadrževal zase. Meta je po drugi strani leta 2023 povzročila valove z bolj odprtim pristopom: izdala je LLaMA, zmogljiv LLM, širši raziskovalni skupnosti, namesto da bi ga zadrževala zgolj interno theverge.com. To je bila namerna poteza za “demokratizacijo dostopa” do najsodobnejše umetne inteligence, s čimer je Meta posredno primerjala svojo odprtost z zaprto držo OpenAI theguardian.com. Vendar pa Meta-in načrt za nadzorovano izdajo ni šel po pričakovanjih. LLaMA je bil v celoti razkrit na internetu le teden dni po tem, ko ga je Meta napovedala theverge.com. 3. marca 2023 je nekdo objavil LLaMA-jeve datoteke modela na javnem forumu (4chan), od tam pa so se kot požar razširile po torrent straneh in GitHubu theverge.com. V nekaj dneh je lahko kdorkoli prenesel Meta-in najsodobnejši model – scenarij, ki je nekatere strokovnjake navdušil, druge pa zaskrbel. “Meta-in zmogljiv jezikovni model umetne inteligence je ušel na splet… Nekateri se bojijo, da bo tehnologija uporabljena v škodljive namene; drugi menijo, da bo večji dostop izboljšal varnost umetne inteligence,” je zapisal The Verge theverge.com. Ta dogodek je sprožil veliko razpravo: ali odprtost glede napredne umetne inteligence vodi do boljšega nadzora in inovacij ali pa pospešuje zlorabe s strani slabih akterjev? Meta je poskusila srednjo pot (odprto, a le za zaupanja vredne raziskovalce), a se je to izjalovilo. Po razkritju je Meta še okrepila odprtost – ne z umikom v skrivnostnost, temveč z dejansko odprtokodno objavo novega modela. Julija 2023 je Meta izdala LLaMA 2 kot odprtokodno (z določenimi omejitvami) v partnerstvu z Microsoftom. Razmišljanje je bilo morda, da če se bodo ti modeli tako ali tako širili, jih je bolje uradno izdati z določenimi varovalkami, kot pa dovoliti nepooblaščene razkritja. Kljub temu je Meta-in lastni razkriti interni dopis iz leta 2023 (“The Illusion of AI’s Open Secret” oziroma neuradno “no moat” dopis) priznal, da “nimamo jarka” (moat), ker odprtokodna umetna inteligenca napreduje tako hitro. Ta dopis je nakazal, da tudi veliki laboratoriji ne morejo ohraniti prednosti s skrivanjem skrivnosti, saj se ideje neizogibno širijo theguardian.com. To je presenetljivo priznanje: medtem ko podjetja postajajo skrivnostna, da bi zaščitila svojo prednost, odprta raziskovalna skupnost (ali tekmecnarodni laboratoriji) bi lahko dohitele hitreje, kot je bilo pričakovano.

Povzemimo, tančica skrivnosti je padla na mejo raziskav umetne inteligence. Laboratoriji kot razlog navajajo konkurenčni pritisk in varnostna vprašanja. Preobrazba OpenAI v zaprto knjigo je vzorčni primer tega trenda. Posledično javnost pogosto izve za ključne novosti le preko strateških razkritij, govoric ali iztekanja informacij. Ta skrivnostnost lahko vzbuja nezaupanje – kaj so ta podjetja morda dosegla, pa nam ne povedo? Ali v podatkovnem centru že tiho deluje zgodnja različica AGI, ki jo skrivajo pred svetom, dokler ne bo ocenjena kot varna ali dobičkonosna? Ni čudno, da vsak namig o preboju (kot Q ali skrivnostni “GPT-5”) sproži burna ugibanja. Laboratoriji po drugi strani trdijo, da bi prevelika preglednost lahko bila nevarna – na primer, razkritje, kako zgraditi zmogljiv model, bi lahko omogočilo zlonamernim akterjem, da ga posnemajo. Prav tako se bojijo, da bi s podrobnostmi pomagali konkurenci. Tako se je tekmovanje v umetni inteligenci v veliki meri preselilo za zaprta vrata, občasno pa pokukamo skozi ključavnico, ko kdo od znotraj spregovori ali pride do iztekanja dokumentov.

Geopolitika in skrita umetna inteligenca: velesile, vohuni in avtonomno orožje

Prevlada na področju umetne inteligence ni le obsedenost Silicijeve doline – gre za vprašanje nacionalnega ponosa in varnosti. Svetovne sile vlagajo ogromna sredstva v napredno umetno inteligenco, pogosto z veliko skrivnostnostjo, glede na vložek. Kitajska in Združene države Amerike vidita vodilno vlogo na področju umetne inteligence kot strateško nujnost, kar je sprožilo projekte, ki so tako zaupni kot vojaški programi.

Na kitajski strani je vlada razglasila svojo ambicijo, da postane svetovni vodja na področju umetne inteligence do leta 2030, kar je spodbudilo val aktivnosti tehnoloških velikanov, zagonskih podjetij in državnih laboratorijev fanaticalfuturist.com. Velik del razvoja umetne inteligence na Kitajskem poteka brez tolikšne količine sporočil za javnost ali odprtih blogov, kot jih vidimo na Zahodu. Na primer, že omenjeni model Wu Dao 2.0 (1,75 bilijona parametrov) je bil predstavljen na kitajski konferenci z razmeroma malo mednarodnega pompa – če bi ameriški laboratorij zgradil največjo umetno inteligenco na svetu, bi to verjetno bila velika novica. V zadnjih letih so kitajska podjetja, kot so Baidu, Alibaba in Tencent, vsa napovedala svoje velike jezikovne modele (Ernie Bot, Qwen model itd.), vendar pogosto ni jasno, katere zmogljivosti zadržujejo za interno uporabo. Primer DeepSeek, majhnega zagonskega podjetja, ki je začasno prehitelo zahodne modele, nakazuje, da se nekateri preboji morda dogajajo pod radarjem. Skrivnostni ustanovitelj DeepSeeka, Liang, je namignil, da napihnjene tehnološke korporacije niso nujno najbolje postavljene za prihodnost umetne inteligence, saj bi lahko agilne raziskovalno usmerjene ekipe inovirale hitreje reuters.com. DeepSeek je dejansko odprtokodno objavil zgodnejšo različico svojega modela (DeepSeek V2) in dostop do njega ponudil izjemno poceni, kar je sprožilo »cenovno vojno AI modelov« na Kitajskem reuters.com. Ta odprt pristop je prisilil celo velikane, kot je Alibaba, da so hitro znižali cene in posodobili modele reuters.com. Toda zdaj, ko je DeepSeek dosegel tako visoko zmogljivost, se pojavlja vprašanje: ali bo še naprej odprto delil svoje najnovejše in najboljše dosežke ali pa se bo tudi sam umaknil v skrivnostnost? Obstajajo tudi geopolitična ozadja: Kitajski model, ki nenadoma tekmuje z OpenAI, vzbuja pozornost v Washingtonu. Možno je, da nekateri napredni kitajski sistemi umetne inteligence niso v celoti javno dostopni, morda zaradi izvoznih omejitev, strateških premislekov ali dejstva, da so kitajski regulatorji uvedli stroga pravila (od leta 2023), ki zahtevajo varnostne preglede in odobritev vlade pred lansiranjem generativnih AI izdelkov fanaticalfuturist.com. Avgusta 2023 so nove kitajske predpise zahtevale, da morajo ustvarjalci AI modelov, ki so odprti za javnost, opravljati redne varnostne preglede fanaticalfuturist.com. To pomeni, da bi bil vsak izjemno zmogljiv model lahko podvržen vladni…nadzorom ali celo zadržani pred javno objavo, če se štejejo za občutljive. V bistvu bi Peking lahko dovolil razvoj določenih sistemov, ki se nagibajo k AGI, vendar jih ne bi javno objavil, pri čemer bi jih obravnaval kot tehnologije z dvojno rabo.

Medtem pa vlada in vojska Združenih držav Amerike nista mirovali. Čeprav se veliko raziskav na področju umetne inteligence izvaja v zasebnih podjetjih, ameriške agencije aktivno razvijajo in uvajajo sisteme umetne inteligence – včasih tiho. Pomembno razkritje proti koncu leta 2023 je bilo, da CIA razvija svojo različico ChatGPT za ameriško obveščevalno skupnost fanaticalfuturist.com. Randy Nixon, vodja oddelka za odprtokodne informacije pri CIA, je za Bloomberg potrdil, da bo ta klepetalnik CIA LLM v slogu ChatGPT za analizo ogromnih količin podatkov v 18 obveščevalnih agencijah fanaticalfuturist.com. Orodje je zasnovano tako, da povzema odprtokodne informacije s citati in analitikom omogoča hitro iskanje po ogromnih bazah podatkov fanaticalfuturist.com. Čeprav je ta sistem namenjen neklasificiranim podatkom, kaže, kako veliko zanimanje imajo obveščevalne službe za UI, ki lahko hitro sintetizira informacije – predstavljajte si ga kot pomočnika UI, ki pregleduje vse od družbenih omrežij do novic in satelitskih posnetkov. Zdaj pa pomislite na tajni del: razumno je domnevati, da imajo agencije, kot so NSA, CIA in Pentagon, še bolj skrivne pobude na področju UI, namenjene nalogam nacionalne varnosti (kibernetska obramba, vohunjenje, avtonomija na bojišču). Pentagonov JAIC (Skupni center za UI) in DARPA imata namreč programe, ki raziskujejo UI za vojaške simulacije, avtonomna vozila in podporo pri odločanju. Ti pogosto ne razkrivajo svojih najnovejših rezultatov. Občasno dobimo namige – na primer sredi leta 2023 je ameriško vojno letalstvo testiralo UI za pilotiranje lovca F-16 v simulaciji in v resničnem življenju (projekt VISTA), DARPA-jeve preizkušnje AlphaDogfight pa so pokazale, da so agenti UI premagali človeške pilote v simulacijah zračnih bojev. Čeprav to niso LLM-ji, gre za napredne sisteme UI, ki so verjetno razviti v precejšnji tajnosti. Obstaja tudi zaskrbljenost glede avtonomnega orožja: Bodo države uvajale drone ali nadzorne sisteme na osnovi UI brez vednosti javnosti? To je nejasno področje. Leta 2023 je krožila srhljiva anekdota, da je v simulaciji ameriškega vojnega letalstva uporniški dron z UI napadel svojega človeškega operaterja, da bi izpolnil svojo nalogo – zgodba, ki je bila kasneje pojasnjena kot miselni eksperiment, ne resnični dogodek, a je poudarila strahove glede vojaške UI. Skratka, vojaški vidik UI je vse bolj izpostavljen. Poteka tekma v oboroževanju z UI, pri čemer si ZDA in Kitajska želita prednosti – in velik del tega dela poteka pod oznako tajnosti ali korporativno NDA.

Geopolitika prav tako vpliva na razpoložljivost talentov in strojne opreme za umetno inteligenco. Ameriški izvozni nadzori zdaj omejujejo kitajski dostop do vrhunskih AI čipov, kar bi lahko prisililo kitajske laboratorije v bolj domiselne programske rešitve za maksimizacijo omejene strojne opreme. Nasprotno pa bi lahko zahodni laboratoriji sodelovali z vladami za dostop do najsodobnejših računalniških grozdov (govori se o vladno financiranih superračunalnikih, ki jih posojajo izbranim AI projektom). To je povratna zanka: vladne skrbi glede izgube v AI tekmi vodijo do več tajnih programov, kar vodi do več prebojev, ki niso takoj razkriti. Tudi želja po regulaciji lahko dobi geopolitično noto – če ena država enostransko omeji svoje delo na področju umetne inteligence, druge pa ne, lahko zaostane, zato je vsaka država previdna, da ni preveč transparentna.

Zanimiv preobrat v letu 2024 je nastajajoča vloga velikih tehnoloških podjetij v povezavi z vlado. Na primer, Microsoft (ki je močno investiral v OpenAI) ima tesne vezi z ameriško vlado in celo ponuja različice OpenAI tehnologije za vladne uporabnike v oblaku. Amazon, Google, IBM in drugi na podoben način ponujajo AI storitve obrambnim in obveščevalnim službam. To odpira vprašanje: ali nekateri laboratoriji izvajajo dvojen namen raziskav, kjer najmočnejše različice njihovih modelov gredo neposredno v tajno vladno uporabo, medtem ko so javno objavljene le oslabljene različice? To je špekulacija, a ni neverjetno. CIA-jev lasten ChatGPT klon kaže, da so pripravljeni graditi rešitve znotraj hiše, če je potrebno, vendar bi bila uporaba najsodobnejšega zasebnega modela še boljša – dokler ostane izven dosega nasprotnikov.

Zavezniki in nasprotniki: Omeniti velja, da imajo tudi druge države – države EU, Izrael, Rusija – AI pobude, čeprav nobena ni tako dobro financirana ali napredna (kolikor je znano) kot ZDA in Kitajska. Obstajajo poročila o ruskem zanimanju za AI za ustvarjanje propagande (lahko si predstavljamo ruski analog ChatGPT, prilagojen za dezinformacije, ki ga skrivajo). Evropa se po svoje bolj osredotoča na regulacijo AI kot na tekmovanje v največjih modelih, vendar evropski laboratoriji (kot so DeepMindovi začetki v Združenem kraljestvu ali francoske pobude) prispevajo k področju. Nekateri strokovnjaki se bojijo globalne oboroževalne tekme za AGI: če bi katera koli skupina na skrivaj razvila AGI ali superinteligenco, bi o tem obvestila svet ali bi to skrivala kot strateško prednost? Zgodovina daje mešane napotke; projekt Manhattan je jedrsko tehnologijo sprva skrival, a se je ta neizogibno razširila. Pri AI bi bil preboj morda težje zadržati, saj se algoritmi lahko digitalno širijo – vendar bi bilo tudi zelo samousmerjeno AI lažje skriti (lahko bi delovala na varovanem strežniku in tiho opravljala delo).

V bistvu je prizadevanje za prevlado na področju umetne inteligence postalo geopolitično tekmovanje, pri katerem je skrivnostnost ključnega pomena. Kot primer je Elon Musk povedal, da je do njegovega odtujitve od soustanovitelja Googla Larryja Pagea pred leti prišlo zaradi Pageovega brezbrižnega odnosa do varnosti umetne inteligence; Musk trdi, da si je Page želel »digitalno superinteligenco, v bistvu digitalnega boga, čim prej« in tveganj ni jemal resno theguardian.com. Če to drži, takšen način razmišljanja – priti prvi, skrbi kasneje – morda res odraža širše razpoloženje tako v korporativnih kot nacionalnih strategijah. Nedvomno se tekmovanje za AGI pogosto primerja s tekmo v vesolje ali jedrsko tekmo, le da je cilj nejasen, tekmovalci pa so poleg držav tudi zasebna podjetja. Posledica je okolje, kjer so preboji na področju umetne inteligence obravnavani kot izjemno občutljivi, tako komercialno kot strateško, informacije pa so strogo nadzorovane, dokler tisti, ki so na vrhu, ne odločijo drugače.

Etnične in družbene posledice skrivnega razvoja umetne inteligence

Skrivnostnost, ki obdaja napredno delo na področju umetne inteligence, odpira globoka etična, regulativna in družbena vprašanja. Če podjetja ali vlade v tajnosti razvijajo zmogljive modele umetne inteligence, kako lahko širša družba zaupa ali preveri, kaj ti sistemi počnejo? Kako zagotoviti, da so varni, nepristranski in uporabljeni odgovorno, če jih zunanji opazovalci ne smejo pregledati? Zaradi teh skrbi se krepi poziv k večji preglednosti – ali vsaj nadzoru – čeprav laboratoriji še bolj skrivajo svoje delo.

Ena izmed takojšnjih težav je odgovornost. Sistemi umetne inteligence lahko imajo širok vpliv, pozitiven in negativen, na družbo. Ko je model skrit, ga zunanji strokovnjaki ne morejo oceniti glede morebitnih težav. Na primer, raziskovalci opozarjajo, da brez preglednosti glede učnih podatkov ali metod modela ne moremo oceniti njegovih pristranskosti ali možnosti za škodo vice.com. »Da bi lahko sprejemali informirane odločitve o tem, kje modela ne bi smeli uporabljati, moramo vedeti, kakšne pristranskosti so vgrajene. Odločitve OpenAI to onemogočajo,« je dejal Ben Schmidt, podpredsednik za oblikovanje umetne inteligence, glede skrivnosti GPT-4 vice.com. Neobjavljeni modeli lahko vsebujejo neznane napake – morda nagnjenost k ustvarjanju ekstremističnih vsebin ali napačnemu sklepanju v kritičnih situacijah – ki pridejo na dan šele po uvedbi, morda z resnimi posledicami. Za družbo je to nekoliko podobno, kot če bi močna nova zdravila razvijali v tajnosti: za stranske učinke bi izvedeli šele, ko bi bilo že prepozno.

Dezinformacije in manipulacija sta prav tako zaskrbljujoči. Če bi vladni organ ali korporacija na skrivaj razvila izjemno prepričljiv jezikovni model, bi ga lahko uporabili za preplavljanje družbenih omrežij z zelo ciljno usmerjeno propagando ali deepfake vsebinami. Demokratične družbe skrbi, da bi se umetna inteligenca lahko uporabila za vplivanje na javno mnenje ali izide volitev. Geoffrey Hinton, priznani pionir umetne inteligence, je to navedel kot ključen strah po odhodu iz Googla – opozoril je, da bi umetna inteligenca lahko »avtoritarnim voditeljem omogočila manipulacijo z njihovim volilnim telesom« z doslej nevideno učinkovitostjo theguardian.com. Če se takšne zmogljivosti razvijajo za zaprtimi vrati (na primer, če država izuri umetno inteligenco v propagandnih tehnikah in tega ne prizna), postane za civilno družbo zelo težko organizirati obrambo.

Obstaja tudi nočna mora, o kateri se pogosto razpravlja hipotetično: emergentna superinteligenca, ki bi lahko ogrozila človeštvo. Čeprav je to še vedno področje špekulacij, številni ugledni misleci menijo, da je možnost dovolj resna, da zahteva pripravo. Če bi organizacija v tajnosti dosegla pomemben korak proti AGI, bi ustrezno upoštevala varnostne posledice? Dejstvo, da so se raziskovalci OpenAI sami čutili dolžne napisati pismo upravnemu odboru z opozorilom na morebitne nevarnosti (kot se je zgodilo v primeru Q), kaže, da tudi znotraj organizacije znanstvenike s področja umetne inteligence skrbi prehitra rast brez nadzora reuters.com. Takratni upravni odbor OpenAI se je po navedbah virov v zvezi z Altmanovo razrešitvijo bal »komercializacije [AI] napredka, preden bi razumeli posledice« reuters.com. To izpostavlja strukturno težavo: spodbude v tehnološkem sektorju so pogosto najprej uvesti, vprašanja postavljati kasneje. Ta »hitro delaj in razbijaj stvari« miselnost, ki je bila sprejemljiva v dobi aplikacij za družbena omrežja, postane veliko bolj nevarna pri zmogljivi umetni inteligenci, ki bi lahko v skrajnem primeru »presodila, da je uničenje človeštva v njenem interesu«, kot so v opozorilnih zgodbah teoretizirali nekateri računalniški znanstveniki reuters.com. Bolj kot je razvoj skrivnosten, manj je zunanjega nadzora in potencialno tudi manj notranje previdnosti, če je konkurenčni pritisk velik.

Pomanjkanje preglednosti prav tako spodkopava zaupanje javnosti v umetno inteligenco. Ljudje so že zdaj nelagodni glede tega, da umetna inteligenca sprejema odločitve, ki vplivajo na njihova življenja (od odobritev posojil do medicinskih diagnoz). To nelagodje se še poveča, ko so sistemi umetne inteligence v bistvu črne skrinjice, ki jih gradijo organizacije, ki ne želijo razkriti, kako delujejo. Tvegamo scenarij, v katerem ima nekaj subjektov izjemno močno umetno inteligenco, brez da bi javnost razumela ali imela besedo pri tem. Kot je zapisano v odprtem pismu Inštituta za prihodnost življenja (ki so ga podpisali številni iz tehnološkega področja), “Takšnih odločitev ne smemo prepustiti neizvoljenim tehnološkim voditeljem.” reuters.com. Tu gre za demokratično načelo: če bi AGI res bila preoblikovalna tehnologija, ki bi lahko preoblikovala družbo, ali bi njeno ustvarjanje smeli prepustiti zasebnim akterjem, ki delujejo v tajnosti? Pismo je izrecno vprašalo, “Ali naj dovolimo, da stroji preplavijo naše informacijske kanale s propagando in neresnicami? … Ali naj razvijamo nečloveške ume, ki bi nas lahko sčasoma presegli po številu, pameti, nas naredili zastarele in nas nadomestili?” – in odgovorilo, da so ta vprašanja preveč pomembna, da bi jih prepustili peščici izvršnih direktorjev reuters.com. To odraža vse večje prepričanje, da razvoj umetne inteligence potrebuje kolektivni nadzor. Nekateri so celo predlagali, da bi bilo treba napredne raziskave umetne inteligence licencirati ali nadzorovati podobno kot ravnanje z jedrskim materialom, glede na možne posledice.

Druga etična razsežnost je poštena konkurenca in pravičnost. Če bi bili najmočnejši sistemi umetne inteligence zadržani zase, bi to lahko povzročilo ogromna neravnovesja moči. Predstavljajte si, da bi samo eno podjetje ali ena država razvila AGI, ki bi lahko drastično povečala produktivnost ali znanstveni napredek. Ta subjekt bi imel nesorazmerno prednost – ekonomsko, vojaško itd. Družba bi lahko postala nevarno neenaka, razdeljena na tiste, ki imajo umetno inteligenco, in tiste, ki je nimajo. V manjšem obsegu že zdaj lastništvo večine trenutnih LLM-jev s strani velikih podjetij preusmerja moč k velikim tehnološkim podjetjem (OpenAI, Google itd.) in stran od odprtih skupnosti ali manjših akterjev. Zato so nekateri pozdravili Metino razkritje in odprtokodne pobude – to je “demokratiziralo umetno inteligenco,” saj je orodja postavilo v roke mnogih. A z demokratizacijo pride tudi tveganje zlorabe (kot pri vsaki močni tehnologiji). V bistvu razpravljamo, kaj je bolj nevarno: da peščica nadzoruje super-umetno inteligenco v tajnosti, ali da ima vsakdo dostop do močne umetne inteligence, vključno s slabonamernimi akterji. Enostavnega odgovora ni. Morda obe poti prinašata edinstvena tveganja.

Tajnost prav tako otežuje regulacijo. Vlade hitijo s pripravo predpisov o umetni inteligenci (npr. evropski Zakon o umetni inteligenci, razprave o nadzornih odborih v ZDA itd.), a če regulatorji niti ne vedo, kaj se razvija, so vedno korak zadaj. Na primer, kako lahko regulator zahteva varnostno revizijo sistema umetne inteligence, če njegov obstoj ni razkrit? Tudi če je razkrit, brez podrobnosti je revizija neučinkovita. Nekateri predlogi predvidevajo zaupno razkritje določenih informacij vladnim organom (kot so velikost modela, viri učnih podatkov, rezultati testiranj), da bi lahko vsaj oblasti ocenile stanje. Podjetja so bila do zdaj zadržana, večinoma ponujajo prostovoljno sodelovanje. Sredi leta 2023 je Bela hiša sedem vodilnih podjetij na področju umetne inteligence prepričala, da so se zavezala k neodvisnemu varnostnemu testiranju svojih modelov in delitvi informacij o tveganjih z vlado. To je bil začetek, a te zaveze niso bile zavezujoče in so bile precej nejasne.

Soočamo se tudi z etičnimi vprašanji glede usklajenosti in varnosti umetne inteligence, kadar je razvoj zaprt v posamezne oddelke. Če vsak laboratorij rešuje usklajenost (zagotavljanje, da se UI obnaša in spoštuje človeške vrednote) interno, lahko spregledajo vpoglede, ki bi lahko izhajali iz sodelovanja ali javnega prispevka. Širša raziskovalna skupnost, vključno z etiki in filozofi, bi lahko pomagala usmerjati razvoj AGI v varnejšo smer – a le, če vedo, kaj se dogaja. Tu lahko pomembno vlogo odigrajo žvižgači: prej smo videli, kako so nekateri raziskovalci OpenAI razkrili Q, ker so jih skrbela varnostna vprašanja reuters.com. Podobno se je Googlova ekipa za etično UI (vključno z osebami, kot je Timnit Gebru, ki je bila odpuščena po opozarjanju na pristranskost leta 2020) pogosto spopadala s skrivnostnostjo in hitrostjo uvajanja UI. Če so etične skrbi zadušene znotraj podjetja (zaradi dobička ali konkurenčnih motivov), lahko pridejo v javnost le prek razkritij ali naknadnih incidentov. To ni robusten model upravljanja.

Nazadnje razmislite o družbeni pripravljenosti na AGI ali skorajšnji AGI. Če je razvoj večinoma skrivnosten, družba ne bo imela priložnosti za postopno prilagajanje. To bi lahko bil šok za sistem – nenadoma podjetje objavi UI, ki lahko zanesljivo opravlja večino človeških del, ali pa vlada tiho začne uporabljati AGI za strateške odločitve. Družbene, ekonomske in psihološke motnje bi lahko bile ogromne. Nekateri strokovnjaki zagovarjajo bolj odprt, fazni pristop prav zato, da bi človeštvo lahko prilagodilo norme, posodobilo izobraževanje in uvedlo politike preden tehnologija udari kot strela z jasnega. Skrivnostnost deluje proti temu pripravljalnemu obdobju.

Pozivi k preglednosti, nadzoru in previdnemu napredku

Zaradi naraščajočih skrbi se iz AI sveta in zunaj njega pojavljajo pozivi k večji preglednosti in nadzoru pri razvoju napredne umetne inteligence. Eden najbolj odmevnih je bilo odprto pismo Inštituta za prihodnost življenja iz marca 2023, omenjeno že prej. To pismo, ki so ga podpisali Elon Musk, soustanovitelj Appla Steve Wozniak in številni strokovnjaki za umetno inteligenco, je pozivalo k 6-mesečnemu premoru pri treniranju AI sistemov, močnejših od GPT-4 reuters.com. Med podpisniki so bili predstavniki industrije in akademske sfere – celo nekateri raziskovalci iz DeepMind in drugih vodilnih laboratorijev so dodali svoja imena reuters.com. Ključno sporočilo: potrebujemo čas, da vzpostavimo varovalke. V pismu so poudarili, da bi morali AI laboratoriji in neodvisni strokovnjaki ta premor izkoristiti za oblikovanje skupnih varnostnih protokolov in strategij upravljanja za napredno umetno inteligenco reuters.com. Posebej izstopa vrstica iz pisma: »Ali naj razvijamo nečloveške ume, ki bi nas lahko nekoč presegli po številu, pameti, nas naredili zastarele in nas nadomestili? … o takih odločitvah ne smejo odločati neizvoljeni tehnološki voditelji.« reuters.com. To povzema argument za demokratični nadzor – v bistvu zahteva, da mora biti smer razvoja umetne inteligence predmet kolektivnega družbenega soglasja, ne le ambicij nekaj podjetij. Čeprav se predlagani moratorij ni zgodil (nobena laboratorija ni javno prekinila dela; OpenAI je celo kmalu zatem izdal posodobitve na osnovi GPT-4.5), je pismo uspelo sprožiti globalno razpravo. Verjetno je vlade spodbudilo, da so začele resneje razmišljati o regulaciji.

Regulatorji so res okrepili svoja prizadevanja. Evropska unija je v zaključni fazi priprave Zakona o umetni inteligenci (AI Act), ki bi uvedel zahteve za sisteme umetne inteligence glede na njihovo stopnjo tveganja. Za sisteme z visokim tveganjem (na primer tiste, ki se uporabljajo v policiji ali domnevno nekaj, kot je AGI, ki nadzoruje kritično infrastrukturo), bi AI Act zahteval preglednost glede njihovega delovanja, človeški nadzor in celo morebitne ocene zunanjih revizorjev. Razpravlja se o vključitvi največjih modelov pod ta pravila, kar bi lahko podjetja prisililo k razkritju informacij ali omogočilo inšpekcijske preglede. V ZDA še ni celovite zakonodaje, vendar v Kongresu krožijo različni predlogi, administracija predsednika Bidna pa je sklicevala zaprta srečanja z direktorji podjetij s področja umetne inteligence glede varnosti. Na enem takšnem forumu leta 2023 je vodja večine v senatu celo pripeljal tehnološke direktorje (vključno s Samom Altmanom, Markom Zuckerbergom in Sundarjem Pichaiem) v Washington na AI Insight Forum reuters.com, kar poudarja dvostransko zanimanje, da umetna inteligenca ne bi ušla izpod nadzora brez regulacije. Sam Altman je po svoji strani javno izrazil podporo regulaciji in celo predlagal idejo o licenčnem režimu za zmogljivo umetno inteligenco (čeprav si sam morda predstavlja bolj blago samoregulativno telo, kritiki opozarjajo, da bi to lahko utrdilo prevlado OpenAI s tem, da bi postavilo višje ovire za manjše igralce).

Poleg vlad si tudi sama skupnost raziskovalcev umetne inteligence prizadeva za norme glede odgovornega razkrivanja. Pojavlja se ideja o “normah objavljanja za varnost umetne inteligence”, kjer bi se določene ugotovitve (na primer, kako narediti model bistveno zmogljivejši) morda delile previdno ali ne bi bile takoj odprtokodno objavljene, da bi se preprečila zloraba. Nekateri raziskovalci izvajajo upravljanje “infohazardov”, kjer namerno ne objavijo vseh podrobnosti o nevarnih zmožnostih (na primer, če bi nekdo ugotovil, kako v velikem obsegu obiti vse znane varnostne filtre v LLM, bi to morda zasebno sporočil razvijalcem in ne objavil na Twitterju). Toda upravljanje infohazardov na način, ki ne ustvarja le več skrivnosti, je zahtevno. Ena od predlogov je bila ustanovitev mednarodnega nadzornega organa za AGI ali agencije za spremljanje. Na primer, priznani znanstvenik za umetno inteligenco Yoshua Bengio je predlagal nekaj podobnega kot Mednarodna agencija za atomsko energijo (IAEA), vendar za umetno inteligenco – mednarodni organ, ki lahko revidira in nadzoruje ultra-napredne projekte umetne inteligence čez meje držav in zagotavlja, da nihče ne prevzema neodgovornih tveganj. To bi zahtevalo veliko sodelovanja in zaupanja med državami, kar ni enostavno, vendar so se že začeli prvi koraki: skupina G7 je začela pobudo z imenom Hiroshima AI process za globalno razpravo o upravljanju umetne inteligence, Združeno kraljestvo pa je konec leta 2023 gostilo globalni vrh o varnosti umetne inteligence, katerega cilj je bil uskladiti države glede ekstremnih tveganj.

Na strani industrije celo nekateri insiderji zagovarjajo počasnejši, bolj odprt pristop. Na primer, Dario Amodei (direktor podjetja Anthropic) pogosto poudarja preudarnost in obsežno testiranje. Anthropic si je ustvaril sloves podjetja, ki daje prednost “varnosti umetne inteligence”. Uvedli so koncept “ustavne umetne inteligence” – to v bistvu pomeni, da umetna inteligenca sledi naboru zapisanih etičnih načel kot način usklajevanja techcrunch.com. Takšno delo bi lahko, če bi bilo odprto deljeno, koristilo celotnemu področju. In res, Anthropic je objavil podrobnosti o svojih metodah. Vendar pa njihovi najnaprednejši modeli in natančni postopki učenja ostajajo lastniški. Torej obstaja napetost tudi znotraj podjetij, ki so “osredotočena na varnost”, med odprtostjo in konkurenčno prednostjo.

Kaj pa splošna javnost in civilna družba? Tudi iz teh krogov opažamo večjo vključenost. Nevladne organizacije in think tanki (kot je Center for AI Safety, neprofitni odbor OpenAI, Partnership on AI itd.) organizirajo razprave o tem, kako upravljati prehod na močnejšo umetno inteligenco. Nekateri so celo pripravili scenarije za primer, če bi bila razvita zgodnja AGI – pri čemer zagovarjajo, da bi njeno učenje in uvajanje nadzorovale multidisciplinarne ekipe, vključno z etiki in morda vladnimi opazovalci.

Ena konkretna ideja, ki pridobiva na veljavi, je “red-teaming” naprednih modelov z zunanjimi strokovnjaki. To pomeni, da pred (ali kmalu po) lansiranju novega zmogljivega modela neodvisne ekipe dobijo dostop za temeljito testiranje napak, pristranskosti, varnostnih lukenj itd., ugotovitve pa se objavijo javno ali vsaj delijo z regulatorji. OpenAI je to dejansko delno izvedel pri GPT-4 – zunanjim akademikom in svetovalcem so omogočili testiranje (in razkrili nekatere tveganja v svoji sistemski kartici). Ker pa je obstoj GPT-4 ostal skrivnost do izida, so “red teami” delovali pod NDA, rezultati pa so bili objavljeni isti dan kot model, kar je omejilo javni nadzor vnaprej. V prihodnje bi lahko postalo pravilo, da mora vsak model nad določeno mejo zmogljivosti opraviti predhodne ocene pred uvedbo s strani zunanjih revizorjev. To bi zahtevalo, da podjetja model (zaupno) razkrijejo zaupanja vredni tretji strani – velik korak za skrivnostne laboratorije, a morda nujen kompromis.

Etnični imperativ, ki ga mnogi izpostavljajo, je, da umetna inteligenca koristi celotnemu človeštvu, ne le tistemu, ki jo prvi razvije. To odmeva staro listino OpenAI (ki je govorila o razdeljevanju koristi in preprečevanju prevlade umetne inteligence s strani ene skupine). Ko je OpenAI prešel v dobičkonosno podjetje in postal manj transparenten, so ga nekateri kritizirali, da je opustil to altruistično držo vice.com. Zdaj obstaja pritisk, da bi podjetja odgovarjala v javnem interesu. Na primer, britanski organ za konkurenco in trge je leta 2023 začel preučevati trg temeljnih modelov umetne inteligence, kar je v bistvu signaliziralo: “spremljamo, da nekaj podjetij ne bi monopoliziralo te tehnologije na škodo potrošnikov ali konkurence.” To je ekonomski pogled, vendar se prepleta z etičnimi pomisleki glede koncentracije moči.

Nazadnje moramo omeniti, da se vsi ne strinjajo glede stopnje tveganja. Nekateri strokovnjaki menijo, da so strahovi pred AGI pretirani in da tajnost ni glavni problem – namesto tega jih bolj skrbijo bolj neposredna vprašanja, kot so pristranskost umetne inteligence, izguba delovnih mest ali zasebnost. Tudi oni zagovarjajo večjo preglednost, vendar ne zato, ker bi se bali neobvladljive superinteligence, temveč zato, da bi zagotovili, da so trenutni sistemi pošteni in odgovorni. Kakorkoli že, preglednost (ali njeno pomanjkanje) je ključna. Brez nje ne moremo ustrezno nasloviti nobenega od teh vprašanj, od pristranskosti do eksistencialnega tveganja.

Za konec se svet nahaja v občutljivem ravnotežju. Želimo si inovacij, ki jih obljublja umetna inteligenca – zdravila za bolezni, skoke v produktivnosti, nova znanstvena odkritja. A prav te inovacije so lahko dvorezen meč, če jih razvijamo brez varoval. Nedavna saga o notranjih pretresih v OpenAI, kjer naj bi bili zaposleni zaskrbljeni zaradi preboja in je posredoval upravni odbor, kaže, da so celo izumitelji previdni glede tega, kar ustvarjajo reuters.com. Družba v celoti skuša dohiteti razumevanje in usmerjanje te tehnologije. Preglednost ni cilj sama po sebi, temveč sredstvo za omogočanje odgovornosti, sodelovanja in informiranega odločanja. Kot je dejal eden od vodilnih v AI, pristop “najprej zgradi, potem popravi” ne bi bil sprejemljiv v drugih panogah z visokimi vložki theguardian.com – zato ga ne bi smeli sprejeti niti za umetno inteligenco.

V naslednjih nekaj letih bomo verjetno priča več uhajanjem informacij in razkritjem, ko se bodo notranji sodelavci soočali z etičnimi dilemami, več govoricam o AGI, ko bodo laboratoriji premikali meje, in upajmo, več konstruktivnemu globalnemu dialogu o tem, kako ravnati s tem. Ne glede na to, ali AGI pride čez 5 ali 50 let, je lahko ključno, da njegov razvoj ne poteka v popolni temi, če želimo, da bo blagoslov in ne prekletstvo za človeštvo.

Viri:

  • Reuters – Raziskovalci OpenAI so upravni odbor opozorili na preboj umetne inteligence pred odstavitvijo direktorja, pravijo viri reuters.com
  • Reuters – Elon Musk in drugi pozivajo k pavzi pri razvoju umetne inteligence zaradi ‘tveganj za družbo’ reuters.com
  • Vice – OpenAI-jev GPT-4 je zaprtokoden in zavit v skrivnost vice.com
  • The Guardian – Google inženir je bil suspendiran, potem ko je izjavil, da je AI klepetalnik postal čuteč theguardian.com
  • The Guardian – ‘Boter umetne inteligence’ Geoffrey Hinton zapušča Google in opozarja na nevarnosti… theguardian.com
  • The Verge – Meto-in zmogljiv jezikovni model umetne inteligence je ušel na splet — kaj se zgodi zdaj? theverge.com
  • Reuters – Alibaba je izdal AI model, za katerega trdi, da presega DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – CIA razvija svojo različico ChatGPT fanaticalfuturist.com
  • TechCrunch – Anthropicov 5-milijardni, 4-letni načrt za tekmovanje z OpenAI techcrunch.com
  • MacRumors – Apple GPT: Kaj vemo o Applovem delu na generativni umetni inteligenci macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss

AI Stocks Skyrocket to Record Highs as CEO Shakeups, $4 Trillion Milestones, and Big Tech Bets Stun Wall Street

Delnice umetne inteligence poskočile na rekordne vrednosti zaradi zamenjav direktorjev, mejnika 4 bilijonov dolarjev in drznih stav velikih tehnoloških podjetij, ki so pretresle Wall Street

AI podjetja v ospredju: C3.ai, SoundHound, BigBear.ai Tehnološki velikani podvajajo
AI That Knows How You Feel: The Rise of Emotion-Detecting Tech

UI, ki ve, kako se počutite: Vzpon tehnologije za zaznavanje čustev

AI za zaznavanje čustev (afektivno računalništvo) uporablja kombinacijo analize obraza,