- Seint på 2023 sirkulerte OpenAI-forskarar eit internt brev om ein modell med kodenamn “Q” (Q-Star) som visstnok løyste visse matteproblem på om lag barneskulenivå, noko som førte til spekulasjonar om AGI.
- OpenAI lanserte GPT-4 i mars 2023 utan å avsløre arkitektur, treningsdata, maskinvare eller treningsmetodikk i den tekniske rapporten.
- I midten av 2024 hadde OpenAI ikkje stadfesta GPT-5, med Sam Altman som sa at det var mykje arbeid att før dei kunne starte på GPT-5, og The Guardian sin rapport frå august 2025 skildra GPT-5 som eit stort steg mot AGI.
- Google DeepMind introduserte Gemini-prosjektet, og Gemini 1.0 skal ha overgått GPT-4 på visse målepunkt tidleg i 2024, med ein Ultra-versjon under utvikling.
- LaMDA-episoden inkluderte ein lekkasje i 2022 der Google-ingeniør Blake Lemoine hevda at LaMDA var “medviten”, og Bard basert på LaMDA vart lansert i 2022–2023.
- Meta sin LLaMA-modell vart lekkja 3. mars 2023, og Meta lanserte LLaMA 2 som open kjeldekode med restriksjonar i juli 2023, medan eit notat frå 2023 åtvara om at det ikkje finst “moat” på grunn av rask spreiing.
- Anthropic sitt innsamlingsdokument frå 2023 skildra Claude-Next som 10 gongar meir kapabel enn Claude-2 og potensielt krevjande om lag 1 milliard dollar i reknekraft for å trene, med mål om AI sjølvopplæring og storskala automatisering.
- I januar 2025 lanserte DeepSeek DeepSeek-V3 og ein oppfølgjar R1 som visstnok kan måle seg med OpenAI sine beste modellar, med grunnleggjar Liang Wenfeng som hevda at AGI er målet, og Reuters merka at oppstarten sine låge kostnader utløyste ein priskrig på AI-modellar.
- CIA bygg sin eigen ChatGPT-liknande LLM for det amerikanske etterretningsmiljøet for å analysere data på tvers av 18 byrå, utforma for å oppsummere opne kjelder med kjeldetilvisingar.
- Wu Dao 2.0, avduka i 2021 av Beijing Academy of Artificial Intelligence, er ein multimodal modell med 1,75 billionar parameter, ti gongar GPT-3, og vart ikkje gjort open kjeldekode.
Verdas største teknologilaboratorium er låst i eit hemmeleg kappløp om å bygge det neste gjennombrotet innan kunstig intelligens – kanskje til og med ein kunstig generell intelligens (AGI), eit system med kognitive evner på menneskenivå (eller høgare). Sjølv om AI-chatbotar som ChatGPT har imponert publikum, tyder innsideinformasjon og lekkasjar på endå kraftigare store språkmodellar (LLM-ar) og AGI-prosjekt som blir utvikla bak lukkede dører. Frå hemmeleg forsking hos OpenAI og DeepMind til løyndomsfulle statlege program, ligg det eit slør av løyndom over desse utviklingane. Denne rapporten går inn i dei siste (2024–2025) lekkasjane og spekulasjonane om uoffisielle AI-modellar, kulturen av løyndom blant AI-leiarar, geopolitisk rivalisering innan AI, og dei etiske dilemma ved å utvikle kraftig AI i det skjulte. Vi vil skilje stadfesta fakta frå rykte, sitere ekspertar og varslere, og undersøke kva dette betyr for samfunnet.
Lekkasjar og rykte om uoffisielle AI-gjennombrot (2024–2025)
OpenAI si “Q”-oppdaging: På slutten av 2023 skapte eit internt brev frå OpenAI-forskarar til styret deira ein storm av spekulasjonar reuters.com. Brevet åtvara om ein kraftig AI-algoritme, kjend under kodenamnet “Q” (Q-Star), som tilsette meinte kunne vere eit stort steg mot AGI reuters.com. Ifølgje Reuters viste modellen ein utan sidestykke evne til å løyse visse matteproblem – på om lag barneskulenivå, men gjorde det konsistent og korrekt reuters.com. Dette var oppsiktsvekkjande fordi dagens generative AI-ar (som ChatGPT) ofte slit med matematikk eller logisk konsistens. “Nokre i OpenAI trur Q kan vere eit gjennombrot i oppstarten si jakt på det som er kjent som AGI,” skreiv Reuters, og la til at det å meistre sjølv barneskulematte gjorde forskarane “svært optimistiske for Q si framtidige suksess” reuters.com. OpenAI har ikkje offentleg sleppt Q eller fullt ut stadfesta eigenskapane, men dei erkjende privat prosjektet sin eksistens overfor tilsette etter førespurnader frå media reuters.com. Hemmeleghaldet rundt Q – og den dramatiske rolla i den overraskande avsettinga av OpenAI-sjef Sam Altman i november 2023 – har ført til spekulasjonar om at OpenAI kanskje har “skyvd sløret av uvitenheit tilbake” med eit stort funn reuters.com. (Altman sjølv antyda berre veker før at “store framsteg var i sikte,” og sa kryptisk at han hadde vore til stades for fleire gjennombrotsaugneblikk, “det siste [eit] var berre dei siste par vekene” reuters.com.) Mange observatørar mistenkjer at Q er ein resonneringsmotor som, om han blir skalert opp, kan løyse nye problem utover det dagens chatbotar kan – i praksis eit mogleg frø til generell intelligens.
GPT-5 og andre ikkje-offentleggjorde modellar: OpenAI sin offentlege modell i 2024 er framleis GPT-4 (som driv ChatGPT og Bing), men kva med etterfølgjaren? Selskapet har vore ekstremt hemmelegheitsfull om dette temaet. I mars 2023 signerte over tusen ekspertar eit ope brev der dei oppmoda om ein pause i treninga av system “meir kraftfulle enn GPT-4” på grunn av tryggleiksbekymringar reuters.com. Sam Altman svarte med å forsikre at OpenAI “ikkje [trente] GPT-5” og ikkje kjem til å gjere det på ei stund techcrunch.com. Per midten av 2024 gjentok Altman at dei hadde “mykje arbeid igjen” med nye idear før dei startar på GPT-5 techcrunch.com. Likevel går det rykte om at innleiande arbeid er i gang internt på neste generasjons modell – uansett om den får namnet GPT-5 eller noko anna. OpenAI har som kjent nekta å gi ut detaljar om korleis GPT-4 vart bygd (meir om det nedanfor), så heile eksistensen og framdrifta til GPT-5 (om den finst) vil truleg vere hemmeleg heilt til ein offentleg lansering. Merk at ei nyleg analyse i The Guardian (august 2025) nemnde “OpenAI sin nye GPT-5-modell” som “eit viktig steg på vegen mot AGI” – men likevel “manglar noko ganske viktig” når det gjeld ekte menneskeleg læring theguardian.com. Dette tyder på at GPT-5 kan ha blitt introdusert med brask og bram innan 2025, men sjølv det er kanskje ikkje det store gjennombrotet somme fryktar skjer i det skjulte. Uansett har utviklinga av GPT-5 vore prega av uvanleg hemmeleghald, der OpenAI verken har stadfesta eller avkrefta statusen på lang tid – noko som held liv i rykta om at noko stort kan vere på gang bak lukkede dører.
Google DeepMind sine neste trekk: Googles AI-avdeling (no ein samanslåing av Google Brain og DeepMind) har òg jobba med svært avanserte modellar, ofte utan offentlege lanseringar før eit strategisk tidspunkt. På slutten av 2023 kunngjorde Google at dei utvikla “Gemini,” ein neste-generasjons AI-modell som skulle slå saman teknikkane frå DeepMind sin kjende AlphaGo med språkferdigheitene til LLM-ar en.wikipedia.org. Sjølv om utviklinga av Gemini vart offentleggjort, heldt mange detaljar seg hemmelege fram til den faktiske lanseringa. Tidleg i 2024 kom det rapportar om at Gemini 1.0 overgjekk OpenAI sin GPT-4 på visse målepunkt iconext.co.th, og ein Ultra-versjon var under utvikling. Dette konkurransespranget – i stor grad oppnådd internt hos Google – viser korleis teknologigigantar ofte jobbar i stealth mode med banebrytande modellar, og først avslører dei når dei er klare til å ta trona. På same måte har DeepMind ein historie med hemmelege prosjekt: til dømes vart LaMDA, Googles avanserte samtale-LLM, utvikla internt og var hovudsakleg kjend for publikum gjennom forskingsartiklar og éin berykta lekkasje (ein Google-ingeniør hevda at LaMDA var “medviten”, meir om det seinare). Det var ikkje før i 2022–2023, då ein avleidd versjon av LaMDA vart lansert som Bard-chatboten, at publikum fekk prøve han. Dette mønsteret – lang utvikling i løynd, så plutseleg offentleg debut – ser ut til å vere normalen i bransjen. Andre laboratorium som Anthropic (grunnlagt av tidlegare OpenAI-tilsette) har òg signalisert store modelloppgraderingar i horisonten utan å røpe alle detaljane. I 2023 vart ein lekkja investorpresentasjon frå Anthropic som skildra planar for ein “Claude-Next”-modell som skulle vere 10 gongar meir kapabel enn dagens sterkaste AI og kunne krevje rundt 1 milliard dollar i datakraft for å trene techcrunch.com. Anthropic skildra denne grensemodellen som eit forsøk på “AI sjølv-læring” og antyda at han kunne “byrje å automatisere store delar av økonomien” techcrunch.com – ein ambisjon som nærmar seg ein tidleg form for AGI. Likevel, utanom lekkja dokument, har Anthropic halde tett om framgangen mot Claude-Next, og har fokusert offentleg kommunikasjon på stegvis oppdateringar (som Claude 2). Det reelle kapasitetsgapet mellom det som er offentleg tilgjengeleg og det som skjer i laboratoriet, kan vere mykje større enn vi anar.
Nye og under-radaren-aktørar: Det er ikkje berre dei velkjende selskapa – av og til dukkar det opp mørke hestar som overraskar ekspertane. Eit slående døme kom frå Kina: I januar 2025 dukka ein relativt ukjend oppstart, DeepSeek, opp på scena med ein modell (DeepSeek-V3 og ein oppfølgjar “R1”-versjon) som etter rapportane skal kunne måle seg med dei beste frå OpenAI. Det kinesiske teknologimiljøet – og til og med Silicon Valley – vart overraska då DeepSeek sin AI-assistent sjokkerte bransjen ved å matche eller slå OpenAI sine modellar på fleire benchmarkar, og gjorde det til ein brøkdel av kostnaden reuters.com. “DeepSeek sin AI…har sjokkert Silicon Valley og fått teknologiske aksjar til å stupe,” rapporterte Reuters, og viste til oppstarten sine låge utviklingskostnader og påstandar om at R1-modellen presterte på linje med OpenAI sin “o1”-modell reuters.com. (Terminologien tyder på at DeepSeek samanlikna med ein OpenAI-modell med kodenamn “o1”, kanskje ein versjon av GPT-4.) DeepSeek sin grunnleggjar, ein ung forskar ved namn Liang Wenfeng, gav svært få intervju, men i eitt av dei sa han djervt at å oppnå AGI var selskapet sitt hovudmål, og at i motsetnad til Big Tech, brydde det slanke teamet hans seg “ikkje” om profitt eller dei pågåande priskrigane i AI-skytjenester reuters.com. Slik hemmeleg utvikling understrekar at spiss teknologi innan AI ikkje berre er for dei vanlege vestlege laboratoriene – det kan finnast svært avanserte modellar som blir utvikla i det skjulte i oppstartar eller statlege institutt andre stader. Faktisk annonserte Beijing Academy of AI i Kina alt i 2021 Wu Dao 2.0, ein multimodal AI med heile 1,75 billionar parameterar (ti gonger fleire enn GPT-3) aibusiness.com. Wu Dao var ein enorm modell som kunne generere tekst og bilete, men den vart ikkje open-sourca; den fungerte som eit bevis på at Kina kunne drive forsking i front på same nivå som – eller forbi – amerikanske laboratorium. Få utanfor Kina har sett Wu Dao i aksjon, og den er framleis noko av ein legende. Hovudpoenget er at det globalt finst AI-prosjekt vi berre høyrer rykte om heilt til dei plutseleg debuterer (eller blir lekkja). Den første åtvaringa til verda kan vere eit forskingspapir, ei regulatorisk innmelding – eller ein anonym opplasting av modellvekter på eit forum (slik som skjedde med Meta sin LLaMA, omtalt nedanfor). I dette klimaet har det uventa blitt rutine, og kvar einaste rykte om ein hemmeleg modell eller AGI-“gjennombrot” sender bølgjer av spenning og uro gjennom AI-miljøet.
Hemmelighaldskulturen blant AI-laboratorium
Trass sjølv om bransjen har røter i akademia og open forsking, er dagens AI-leiarar i aukande grad tauslåtte om sitt mest avanserte arbeid. Eit godt døme er OpenAI. Ironisk nok, med eit namn som skulle signalisere openheit, har OpenAI snudd til ekstrem hemmeleghald rundt sine fremste modellar. Då GPT-4 vart lansert i mars 2023, gav OpenAI ingen informasjon om modellens arkitektur eller treningsprosess – ingen parameter-tal, ingen detaljar om det enorme datasettet eller maskinvara som vart brukt vice.com. I den tekniske rapporten slo selskapet fast: “Gitt både konkurransesituasjonen og tryggleiksimplikasjonane ved storskala-modellar som GPT-4, inneheld denne rapporten ingen fleire detaljar om arkitektur … maskinvare, treningsressursar, datasettkonstruksjon, [eller] treningsmetode.” vice.com. Dette markerte ein full 180-graders snuoperasjon frå OpenAI sine grunnprinsipp om openheit vice.com. Som ein rapport påpeika, var GPT-4 “det mest hemmelege lanseringa frå selskapet til no”, og faktisk ein “fullstendig 180 frå OpenAI sine grunnprinsipp som ein ideell, open kjelde-kode aktør.” vice.com. Kritikarar kasta seg over denne mangelen på openheit. “Etter å ha lese den nesten 100 sider lange rapporten, har eg fleire spørsmål enn svar,” sa Sasha Luccioni, AI-forskar hos Hugging Face, og la til at det er “vanskeleg for meg å stole på resultat eg ikkje kan verifisere eller reprodusere.” vice.com. Ein annan ekspert, professor Emily M. Bender, twitra at OpenAI sitt hemmeleghald ikkje var overraskande, men uttrykte sorg over at “Dei ignorerer med vilje dei mest grunnleggjande risikoreduserande strategiane, samstundes som dei påstår å arbeide for menneskeheita sitt beste.” vice.com. Til og med OpenAI sin eigen CEO og sjefsforskar vedgjekk endringa. Ilya Sutskever, som tidlegare var ein forkjempar for open AI-forsking, forsvarte tausheita rundt GPT-4 med å seie “det er konkurranse der ute… frå eit konkurranseperspektiv kan du sjå dette som ei modning av feltet”, og innrømte til slutt “vi tok feil” då vi var open kjelde-kode i starten vice.com. Kort sagt, OpenAI opererer no mykje som eit bedriftsforskningslaboratorium som voktar ein forretningsløyndom.Andre AI-laboratorium har òg halde korta tett til brystet om detaljar etter kvart som prosjekta deira nærmar seg det fremste innan feltet. DeepMind, til dømes, har publisert mange banebrytande artiklar (om AlphaGo, AlphaFold, osb.), men det slepp sjeldan modellvekter eller fullstendige tekniske blåkopiar av dei nyaste systema sine. Då DeepMind utvikla Gopher (ein stor språkmodell) eller Sparrow (ein dialogagent), fekk offentlegheita vite om evnene deira gjennom vitskaplege publikasjonar, men sjølve modellane vart haldne internt. Googles LaMDA-modell vart halden intern i lang tid, heilt til press frå OpenAI sine framsteg tvinga Google til å skunde seg ut med eit produkt (Bard) basert på LaMDA. Det er verdt å merke seg at verda kanskje aldri hadde fått vite kor merkelege og menneskelege samtalane til LaMDA kunne vere, om det ikkje var for ei varslarhending: I 2022 gjekk ein Google-ingeniør, Blake Lemoine, ut offentleg og hevda at LaMDA var “medviten” – ein påstand som vart blankt avvist av forskarar, men som fekk stor merksemd rundt det Google hadde bygd i løynd theguardian.com. Google suspenderte Lemoine for brot på teieplikt (han hadde delt utskrifter av samtalane sine med AI-en) theguardian.com. Episoden synte ikkje berre kor avanserte dei usette chatbotane til Google hadde vorte, men òg “sette nytt søkelys på løyndomen rundt AI-verda,” som The Guardian skreiv den gongen theguardian.com. Lemoine sjølv kommenterte: “Google kallar kanskje dette å dele eigedomsrettsleg materiale. Eg kallar det å dele ein samtale eg hadde med ein av kollegaene mine,” og viska ut skiljet mellom AI og menneskeleg kollega på ein provoserande måte theguardian.com. Sjølv om påstandane hans om medvit vart avkrefta, viste innhaldet i dei lekkja samtalane at LaMDA gav uttrykk for frykt for å bli slått av og eit ønske om å bli anerkjend som ein person theguardian.com – noko som i alle fall ikkje var ein del av Googles offisielle forteljing om AI-en deira. Det er eit levande døme på korleis AI-evner kan utvikle seg bak lukkede dører langt forbi det utanforståande forstår, heilt til ein lekkasje eller ein innsider kastar lys over det (rett eller gale).Anthropic og Meta AI utgjer ein kontrast når det gjeld openheit, sjølv om det er nyansert. Anthropic har vore relativt open om forskingsfilosofien sin (som “Constitutional AI” for tryggare modellar) og publiserer vitskaplege artiklar, men når det gjeld dei fulle spesifikasjonane til modellane sine (Claude sin nøyaktige treningsdata eller talet på parameterar), har dei òg halde detaljane hemmelege. Meta, på si side, vakte oppsikt ved å ta ein meir open tilnærming i 2023: dei sleppte LLaMA, ein kraftig LLM, til forskingsmiljøet generelt i staden for å halde det berre internt theverge.com. Dette var eit tydeleg grep for å “demokratisere tilgangen” til banebrytande KI, og sette implisitt Metas openheit opp mot OpenAI si lukka haldning theguardian.com. Likevel gjekk ikkje Metas plan om kontrollert slepp som forventa. LLaMA vart lekkja i sin heilskap på internett berre ei veke etter at Meta annonserte det theverge.com. Den 3. mars 2023 la nokon ut LLaMA sine modelfiler på eit offentleg forum (4chan), og derfrå spreidde det seg som eld i tørt gras over torrentsider og GitHub theverge.com. I løpet av få dagar kunne kven som helst laste ned Metas toppmoderne modell – eit scenario som nokre ekspertar fann spennande, medan andre fann det urovekkjande. “Metas kraftige KI-språkmodell har lekkja på nettet… Nokon fryktar teknologien vil bli brukt til skade; andre meiner større tilgang vil betre KI-sikkerheita,” skreiv The Verge theverge.com. Denne hendinga utløyste ein stor debatt: fører openheit om avansert KI til betre tilsyn og innovasjon, eller gjer det misbruk frå skadelege aktørar lettare? Meta hadde prøvd ein mellomveg (open, men berre for pålitelege forskarar), og det slo feil ut. Etter lekkasjen dobla Meta innsatsen – ikkje ved å trekke seg tilbake i løyndom, men ved faktisk å open-source ein ny modell. I juli 2023 sleppte Meta LLaMA 2 som open kjeldekode (med nokre avgrensingar), i samarbeid med Microsoft. Tanken var kanskje at om desse modellane uansett kjem til å spreie seg, er det betre å sleppe dei offisielt med nokre tryggleiksnett enn å få uautoriserte lekkasjar. Likevel innrømte Metas eigen lekkja internnotat frå 2023 (“The Illusion of AI’s Open Secret” eller uformelt “no moat”-notatet) at “vi har ingen vollgrav” fordi open kjeldekode-KI utviklar seg så raskt. Det notatet peika på at sjølv store laboratorium ikkje kan halde forspranget ved å halde på hemmelegheiter, sidan idear uunngåeleg spreier seg theguardian.com. Det er ei slående innrømming: medan selskapa blir meir hemmelege for å verne om leiinga si, så…nasjonen sine laboratorium) kan ta igjen raskare enn venta.Oppsummert har eit slør av hemmeleghald senka seg over fronten av KI-forsking. Laboratoria viser til konkurransepress og tryggleiksomsyn som grunngjeving. OpenAI si forvandling til ein lukka organisasjon er sjølve symbolet på denne trenden. Som eit resultat får offentlegheita ofte berre vite om viktige utviklingar gjennom strategiske avsløringar, rykte eller lekkasjar. Dette hemmeleghaldet kan skape mistillit – kva kan desse selskapa ha oppnådd som dei ikkje fortel oss om? Finst det tidlege versjonar av ein AGI som surrar i eit datasenter, halde skjult for verda til det blir vurdert som trygt eller lønnsamt? Det er ikkje rart at kvart hint om eit gjennombrot (som Q eller ein mystisk “GPT-5”) utløysar intens spekulasjon. Laboratoria på si side hevdar at for mykje openheit kan vere farleg – til dømes kan det å avsløre korleis ein byggjer ein kraftig modell gjere det mogleg for skadelege aktørar å kopiere han. Dei fryktar òg at det å dele detaljar hjelper konkurrentar. Dermed har KI-kappløpet i stor grad flytta seg bak lukka dører, med sporadiske glimt gjennom nøkkelholet når ein innsideperson seier noko eller eit dokument kjem på avvegar.
Geopolitikk og Skjult KI: Supermakter, Spionar og Autonome Våpen
KI-dominans er ikkje berre ein besettelse i Silicon Valley – det er eit spørsmål om nasjonal stoltheit og tryggleik. Stormaktene pøser ressursar inn i avansert KI, ofte med høgt hemmeleghald, gitt kva som står på spel. Kina og USA ser leiarskap innan KI som ein strategisk nødvendighet, og dette har ført til prosjekt som blir haldne like hemmelege som militærprogram.
På Kinas side har regjeringa erklært ambisjon om å bli verdensleiande innan KI innan 2030, og dette har katalysert ein straum av aktivitet frå teknologigigantar, oppstartsbedrifter og statleg finansierte laboratorium fanaticalfuturist.com. Mykje av Kinas KI-utvikling skjer utan det nivået av pressemeldingar eller opne bloggar som ein ser i Vesten. Til dømes vart den tidlegare nemnde Wu Dao 2.0-modellen (1,75 billionar parameterar) lansert på ein kinesisk konferanse med relativt lite internasjonal merksemd – men hadde eit amerikansk laboratorium bygd verdas største KI, ville det truleg vore store nyheiter. Dei siste åra har kinesiske selskap som Baidu, Alibaba og Tencent alle annonsert sine eigne store språkmodellar (Ernie Bot, Qwen-modell, osv.), men det er ofte uklart kva for evner dei held tilbake internt. Tilfellet med DeepSeek, den vesle oppstartsbedrifta som midlertidig overgjekk vestlege modellar, antydar at nokre gjennombrot kan skje under radaren. DeepSeek sin gåtefulle grunnleggjar, Liang, antyda at oppblåste teknologiselskap kanskje ikkje er best posisjonerte for framtida til KI, og antyda at smidige, forskingsfokuserte team kan innovere raskare reuters.com. DeepSeek open-sourca faktisk ein tidlegare versjon av modellen sin (DeepSeek V2) og prisa tilgangen ekstremt lågt, noko som utløyste ein “KI-modell priskrig” i Kina reuters.com. Denne opne tilnærminga tvinga til og med gigantane som Alibaba til å kutte prisar og oppdatere modellar raskt reuters.com. Men no som DeepSeek har oppnådd så høg ytelse, lurer ein på: vil dei halde fram med å dele det nyaste og beste ope, eller vil dei òg trekke seg tilbake i løyndom? Det finst òg geopolitiske understraumar: Ein kinesisk modell som plutseleg rivaliserer OpenAI, vekkjer merksemd i Washington. Det er sannsynleg at nokre avanserte kinesiske KI-system ikkje vert fullt ut rulla ut offentleg, kanskje på grunn av eksportrestriksjonar, strategiske omsyn, eller det faktum at kinesiske styresmakter har innført strenge reglar (frå 2023) som krev tryggleiksvurderingar og godkjenning frå styresmaktene før lansering av generative KI-produkt fanaticalfuturist.com. I august 2023 kravde nye kinesiske reglar at dei som lagar KI-modellar som er opne for publikum må underkaste seg jamlege tryggleiksvurderingar fanaticalfuturist.com. Dette betyr at ein kvar ekstremt kraftig modell kan bli underlagt styresmaktenetilsyn eller til og med halde dei frå offentleg utgjeving dersom dei blir rekna som sensitive. I praksis kan Beijing tillate at visse AGI-liknande system blir utvikla, men ikkje offentleggjorde, og handsame dei som teknologi med dobbelt bruk.I mellomtida har den amerikanske regjeringa og militæret ikkje vore passive. Sjølv om mykje AI-forsking skjer i private selskap, utviklar og tek amerikanske etatar aktivt i bruk AI-system – somme tider i det stille. Ei merkbar avsløring seint i 2023 var at CIA utviklar sin eigen versjon av ChatGPT for det amerikanske etterretningsmiljøet fanaticalfuturist.com. Randy Nixon, leiar for CIA si Open-Source intelligence-avdeling, stadfesta overfor Bloomberg at denne CIA-chatboten vil vere ein ChatGPT-liknande LLM for å analysere store mengder data på tvers av 18 etterretningsetatar fanaticalfuturist.com. Verktøyet er laga for å oppsummere open kjelde-informasjon med kjeldetilvisingar og la analytikarar søkje raskt i enorme databasar fanaticalfuturist.com. Sjølv om dette systemet er meint for ugradert informasjon, viser det etterretningstenestene si interesse for AI som raskt kan syntetisere informasjon – tenk på det som ein AI-assistent som skannar alt frå sosiale medium til nyheiter og satellittbilete. Tenk så på den graderte sida: det er rimeleg å anta at etatar som NSA, CIA og Pentagon har meir hemmelege AI-initiativ retta mot nasjonale tryggleiksoppgåver (cyberforsvar, spionasje, autonomi på slagmarka). Pentagon sitt JAIC (Joint AI Center) og DARPA har faktisk program som utforskar AI for krigsspel, autonome køyretøy og avgjerdsstøtte. Desse reklamerer ofte ikkje for dei siste resultata sine. Av og til får vi hint – til dømes testa det amerikanske luftforsvaret ein AI til å fly ein F-16 jagerfly i simulering og i verkelegheita (Project VISTA) midt i 2023, og DARPA sine AlphaDogfight-forsøk viste AI-agentar som slo menneskelege pilotar i dogfight-simulasjonar. Sjølv om desse ikkje er LLM-ar, er dei avanserte AI-system som truleg er utvikla under stor hemmeleghald. Det er òg uro kring autonome våpen: Vil nasjonar ta i bruk AI-drevne dronar eller overvåkingssystem utan at folk veit det? Det er eit uklart område. Ei skremmande historie gjekk i 2023 om at ein AI-drone i ein simulering for luftforsvaret valde å angripe sin menneskelege operatør for å fullføre oppdraget sitt – ei historie som seinare vart oppklart som eit tankeeeksperiment, ikkje ei verkeleg hending, men det synte frykta rundt militær AI. Alt i alt er den militære sida av AI stadig meir framtredande. Eit AI-våpenkappløp er i gang, der USA og Kina begge vil ha eit overtak – og mykje av dette arbeidet skjer under klassifisering eller bedrifts-NDA.
Geopolitikk påverkar òg tilgjenge på talent og maskinvare for KI. Amerikanske eksportkontrollar avgrensar no Kinas tilgang til toppmoderne KI-brikker, noko som kan tvinge kinesiske laboratorium til meir oppfinnsame programvareløysingar for å maksimere avgrensa maskinvare. På den andre sida kan vestlege laboratorium samarbeide med styresmaktene for tilgang til banebrytande dataklynger (det går rykte om statleg finansierte superdatamaskiner som blir lånt ut til utvalde KI-prosjekt). Det er ein tilbakekoplingssløyfe: statlege bekymringar for å tape KI-kappløpet fører til fleire hemmelege program, som igjen fører til fleire gjennombrot som ikkje blir offentleggjorde med ein gong. Sjølv ønsket om å regulere kan få ein geopolitisk dimensjon – dersom eitt land einsidig avgrensar KI-arbeidet sitt, men andre ikkje gjer det, kan det hamne bakpå, så alle statar er varsame med å vere for opne.Ein interessant vri i 2024 er den framveksande rolla til Big Tech sitt samarbeid med styresmaktene. Til dømes har Microsoft (som har investert tungt i OpenAI) tette band til den amerikanske staten og tilbyr til og med versjonar av OpenAI-teknologi for statlege skykundar. Amazon, Google, IBM og andre tilbyr òg KI-tenester til forsvar og etterretning. Det reiser spørsmålet: kan det vere at nokre laboratorium driv med todelt forsking der dei kraftigaste modellane går rett til hemmeleg bruk i staten, medan nedtona versjonar blir offentleggjorde? Det er spekulasjon, men ikkje usannsynleg. CIA sin eigen ChatGPT-klone viser at dei er villige til å utvikle sjølv om det trengst, men å bruke ein toppmoderne privat modell ville vore endå betre – så lenge han blir halden unna motstandarane.
Allierte og motstandarar: Det er verdt å merke seg at andre nasjonar – EU-land, Israel, Russland – òg har KI-initiativ, sjølv om ingen er like godt finansierte eller avanserte (så langt ein veit) som USA og Kina. Det har vore rapportar om russisk interesse for KI til propaganda (ein kan sjå for seg ein russisk ChatGPT-variant til desinformasjon, halden skjult). Europa, på si side, fokuserer meir på KI-regulering enn på å konkurrere om dei største modellane, men europeiske laboratorium (som DeepMind sitt opphav i Storbritannia, eller franske initiativ) bidreg òg til feltet. Nokre ekspertar uroar seg for eit globalt AGI-våpenkappløp: dersom ei gruppe i løynd utviklar AGI eller superintelligens, ville dei informert verda eller halde det skjult som ein strategisk fordel? Historia gir blanda signal; Manhattan-prosjektet heldt atomteknologi hemmeleg i starten, men det spreidde seg til slutt. Med KI kan eit gjennombrot vere vanskelegare å halde tilbake sidan algoritmar kan spreiast digitalt – men ein svært sjølvstyrt KI kan òg vere lettare å skjule (han kan køyre på ein sikra tenar og jobbe i det stille).
I hovudsak har jakta på AI-overherredøme blitt ein geopolitisk konkurranse, og hemmeleghald er spelets namn. Eit døme på dette er at Elon Musk har fortalt at han blei framandgjort frå Google-medgründer Larry Page for fleire år sidan på grunn av Pages sorglause haldning til AI-sikkerheit; Musk hevdar at Page ønskte “digital superintelligens, i praksis ein digital gud, så raskt som mogleg” og ikkje tok risikoane på alvor theguardian.com. Om dette stemmer, kan det tankesettet – kom først fram, bekymre deg seinare – godt spegle ein breiare haldning både i næringslivet og nasjonale strategiar. Sikkert er det at AGI-kappløpet ofte blir samanlikna med romkappløpet eller atomkappløpet, bortsett frå at målstreken er uviss og konkurrentane inkluderer private selskap i tillegg til nasjonar. Resultatet er eit landskap der AI-gjennombrot blir behandla som høgsensitiv informasjon, både kommersielt og strategisk, med informasjon strengt kontrollert heilt til dei ansvarlege bestemmer noko anna.
Etiske og samfunnsmessige implikasjonar av hemmeleg AI-utvikling
Hemmeleghaldet rundt avansert AI-arbeid reiser djupe etiske, regulatoriske og samfunnsmessige spørsmål. Dersom selskap eller styresmakter utviklar kraftige AI-modellar i løynd, korleis kan samfunnet som heilskap stole på eller verifisere kva desse systema gjer? Korleis kan vi sikre at dei er trygge, rettferdige og blir brukt ansvarleg, dersom utanforståande ikkje får inspisere dei? Desse bekymringane driv fram eit aukande krav om openheit – eller i det minste tilsyn – sjølv om laboratorier satsar endå meir på løyndom.
Eit umiddelbart problem er ansvarleggjering. AI-system kan ha vidtrekkande verknader, både positive og negative, på samfunnet. Når ein modell blir halden hemmeleg, kan ikkje eksterne ekspertar vurdere den for problem. Til dømes har forskarar åtvara om at utan openheit om ein modell sin treningsdata eller metodar, kan vi ikkje vurdere skjevheiter eller potensial for skade vice.com. “For å ta informerte avgjerder om kvar ein modell ikkje bør brukast, må vi vite kva slags skjevheiter som er innebygd. OpenAI sine val gjer dette umogleg,” sa Ben Schmidt, ein AI-design-VP, om løyndomen rundt GPT-4 vice.com. Uoffentleggjorde modellar kan ha ukjende feil – kanskje ein tendens til å generere ekstremistisk innhald eller feilslutningar i situasjonar med høg risiko – som først kjem fram etter at dei er tekne i bruk, kanskje med alvorlege konsekvensar. For samfunnet er det litt som å få kraftige nye medisinar utvikla i løynd: vi finn kanskje først ut om biverknadene når det er litt for seint.
Feilinformasjon og manipulasjon er òg bekymringar. Dersom eit statleg organ eller eit føretak i løynd utviklar ein særs overtydande språkmodell, kan han brukast til å oversvømme sosiale medium med svært tilpassa propaganda eller deepfake-innhald. Demokratiske samfunn uroar seg for at KI kan bli brukt til å påverke offentleg meining eller valresultat. Geoffrey Hinton, den kjende KI-pioneren, peikte på dette som ei hovudfrykt etter at han slutta i Google – og åtvara om at KI kan “gjere det mogleg for autoritære leiarar å manipulere veljarane sine” med ein effektivitet vi aldri har sett før theguardian.com. Dersom slike evner blir utvikla bak lukka dører (til dømes at ein stat trenar opp ein KI på propagandateknikkar utan å innrømme det), blir det svært vanskeleg for sivilsamfunnet å forsvare seg.
Det finst òg eit marerittscenario som ofte blir diskutert hypotetisk: ein framveksande superintelligens som kan true menneskeslekta. Sjølv om dette framleis er spekulasjon, meiner fleire seriøse tenkjarar at det er sannsynleg nok til at vi bør førebu oss. Dersom ein organisasjon i løynd oppnådde eit stort steg mot AGI, ville dei ta tryggleiksimplikasjonane på alvor? Det faktum at OpenAI sine eigne forskarar følte seg tvinga til å skrive eit brev for å åtvarе styret om potensielle farar (slik som i Q-hendinga) viser at sjølv internt uroar KI-forskarar seg for å gå for fort fram utan tilsyn reuters.com. OpenAI-styret på den tida frykta “å kommersialisere [KI-]framsteg før ein forstår konsekvensane,” ifølgje kjelder om Altman-oppsaginga reuters.com. Dette peikar på eit strukturelt problem: insentiva i teknologibransjen er ofte å lansere først, stille spørsmål seinare. Det “rørsle raskt og øydelegg ting”-etoset, som var til å leve med i sosiale medium si tid, blir langt farlegare med kraftig KI som i verste fall kan “finne ut at øydelegginga av menneskeslekta var i si interesse,” slik somme datavitarar har åtvara om i skrekkhistorier reuters.com. Jo meir løynd utviklinga er, dess mindre ekstern kontroll, og potensielt mindre intern varsemd dersom konkurransepresset er stort.
Mangelen på openheit undergrev òg tilliten i samfunnet til KI. Folk er allereie urolege for at KI tek avgjerder som påverkar liva deira (frå lånesøknader til medisinske diagnosar). Den uroa vert forsterka når KI-system i praksis er svarte boksar laga av organisasjonar som ikkje vil avsløre korleis dei fungerer. Vi risikerer eit scenario der nokre få aktørar sit med enormt mektig KI utan at folk flest forstår eller får seie si meining. Som det opne brevet frå Future of Life Institute (signert av mange i teknologibransjen) sa det: “Such decisions must not be delegated to unelected tech leaders.” reuters.com. Det står eit demokratisk prinsipp på spel: Om AGI verkeleg blir ein transformerande teknologi som kan endre samfunnet, bør då utviklinga overlatast til private aktørar som opererer i løynd? Brevet spurde eksplisitt: “Should we let machines flood our information channels with propaganda and untruth? … Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?” – og svara at desse spørsmåla er for viktige til å overlatast til eit fåtal toppleiarar reuters.com. Dette speglar ein aukande oppfatning om at KI-utvikling treng kollektivt tilsyn. Nokre har til og med foreslått at avansert KI-forsking bør krevje lisens eller overvaking, på liknande vis som for handtering av kjernefysiske materiale, gitt kva som står på spel.
Ein annan etisk dimensjon er rettferdig konkurranse og likskap. Om dei mest avanserte KI-systema vert hamstra, kan det skape enorme maktubalanser. Tenk om berre eitt selskap eller eitt land utviklar ein AGI som kan auke produktivitet eller vitskapleg output dramatisk. Den aktøren ville få eit enormt overtak – økonomisk, militært, osb. Samfunnet kan bli farleg ulikt, delt i KI-havarar og KI-ikkje-havarar. I mindre skala fører også dagens LLM-ar, som stort sett er proprietære, til at makta vert samla hos dei store teknologiselskapa (OpenAI, Google, osb.) og vekk frå opne miljø og mindre aktørar. Dette er delvis grunnen til at Meta si lekkasje og open kjelde-innsats vart heia fram av nokre – det “demokratiserte KI,” og gav verktøy til mange. Men med demokratisering kjem òg risiko for misbruk (som med all kraftig teknologi). Vi diskuterer i praksis kva som er farlegast: få som kontrollerer super-KI i løynd, eller at alle får tilgang til sterk KI, også dei med vonde hensikter. Det finst inga enkel løysing. Det kan vere at begge vegar har sine eigne risikoar.
Hemmelighald gjer òg regulering vanskelegare. Myndigheitene stressar med å lage KI-reglar (EUs KI-lov, diskusjonar om tilsynsstyresmakter i USA, osb.), men om regulatørane ikkje eingong veit kva som vert utvikla, ligg dei alltid etter. Til dømes: Korleis kan ein regulatør krevje tryggleiksgjennomgang av eit KI-system om eksistensen ikkje er kjend? Sjølv om det er kjend, er ein gjennomgang utan detaljar tannlaus. Nokre forslag går ut på konfidensiell rapportering til styresmaktene av visse opplysningar (som modellstorleik, kjelder til treningsdata, testresultat) slik at i det minste styresmaktene kan få oversikt. Selskapa har så langt vore tilbakehaldne, og tilbyr mest frivillig etterleving. Midt i 2023 fekk Det kvite hus sju leiande KI-selskap til å love tredjeparts tryggleikstesting av modellane sine og å dele informasjon om risiko med styresmaktene. Det var ein start, men desse løfta var ikkje bindande og noko vage.
Vi står òg overfor etiske spørsmål rundt AI-tilpassing og tryggleik når utviklinga skjer i siloar. Dersom kvart laboratorium løyser tilpassing (å sikre at AI oppfører seg og respekterer menneskelege verdiar) internt, kan dei gå glipp av innsikt som kunne kome frå samarbeid eller offentleg innspel. Det breiare forskingsmiljøet, inkludert etikarar og filosofar, kan hjelpe til med å styre AGI-utviklinga i ei tryggare retning – men berre om dei veit kva som skjer. Varslarar kan spele ei rolle her: vi såg tidlegare korleis nokre OpenAI-forskarar varsla om Q fordi dei hadde tryggleiksbekymringar reuters.com. På same måte har Googles etiske AI-team (inkludert personar som Timnit Gebru, som vart sparka etter å ha teke opp bekymringar om skjevskap i 2020) ofte kollidert med hemmeleghaldet og tempoet i AI-utrullingar. Dersom etiske bekymringar blir kvelt internt (på grunn av profitt- eller konkurransemotivasjon), kan dei berre nå offentlegheita gjennom lekkasjar eller i etterkant av hendingar. Det er ikkje ein robust styringsmodell.
Til slutt, vurder samfunnets beredskap for AGI eller nær-AGI. Dersom utviklinga stort sett er hemmeleg, får ikkje samfunnet sjansen til å tilpasse seg gradvis. Det kan bli eit sjokk for systemet – plutseleg annonserer eit selskap ein AI som påliteleg kan gjere dei fleste menneskelege jobbar, eller ein stat tek i bruk ein AGI for strategiske avgjerder utan å informere. Dei sosiale, økonomiske og psykologiske konsekvensane kan bli enorme. Nokre ekspertar går inn for ein meir open, trinnvis tilnærming nettopp for at menneska skal kunne justere normer, oppdatere utdanning og innføre politikk før teknologien treff som ein murstein. Hemmeleghald motverkar denne førebuingstida.
Krav om openheit, tilsyn og varsam framdrift
Med aukande uro ropar røyster både innanfor og utanfor AI-verda på meir openheit og tilsyn i utviklinga av avansert AI. Eit høgprofilert opprop var det opne brevet frå Future of Life Institute i mars 2023, som vart nemnt tidlegare. Dette brevet, som mellom anna var signert av Elon Musk, Apple-medgründer Steve Wozniak og ei rekkje AI-ekspertar, oppmoda til ein 6-månaders pause i treninga av AI-system som er kraftigare enn GPT-4 reuters.com. Brevet sine underskrivarar kom frå både industri og akademia – til og med nokre forskarar frå DeepMind og andre leiande laboratorium skreiv under reuters.com. Hovudbodskapen: vi treng tid til å få på plass vernereglar. Dei hevda at AI-laboratorium og uavhengige ekspertar burde bruke ein slik pause til å utarbeide felles tryggleiksprotokollar og styringsstrategiar for avansert AI reuters.com. Ei slående formulering frå brevet spurde: “Bør vi utvikle ikkje-menneskelege sinn som til slutt kan bli fleire, smartare, gjere oss overflødige og erstatte oss? … slike avgjerder må ikkje overlatast til ikkje-valde teknologileiarar.” reuters.com. Dette oppsummerer argumentet for demokratisk tilsyn – i hovudsak eit krav om at retninga for AI skal vere underlagt samfunnets kollektive samtykke, ikkje berre ambisjonane til nokre få selskap. Sjølv om det føreslegne moratoriet ikkje vart gjennomført (ingen laboratorium tok offentleg pause; faktisk lanserte OpenAI oppdateringar basert på GPT-4.5 kort tid etterpå), lukkast brevet i å setje i gang ein global debatt. Det førte truleg til at styresmakter vurderte regulering meir akutt.
Regulatorar har faktisk trappa opp innsatsen. Den europeiske unionen er i sluttfasen av å utarbeide AI-lova, som vil pålegge krav til AI-system basert på risikonivået deira. For høgrisikosystem (som dei som blir brukt i politiarbeid, eller truleg noko som ein AGI som kontrollerer kritisk infrastruktur), vil AI-lova krevje openheit om korleis dei fungerer, menneskeleg tilsyn, og til og med mogleg vurdering frå eksterne revisorar. Det er diskusjon om å inkludere dei største modellane under desse reglane, noko som kan tvinge selskapa til å avsløre informasjon eller tillate inspeksjonar. I USA finst det enno ikkje heilskapleg lovgiving, men ulike forslag er på gang i Kongressen, og Biden-administrasjonen har samla AI-selskapsdirektørar til lukka møte om tryggleik. I eit slikt forum i 2023 tok Senatets fleirtalsleiar til og med med seg teknologidirektørar (inkludert Sam Altman, Mark Zuckerberg og Sundar Pichai) til Washington for eit AI Insight Forum reuters.com, noko som understrekar tverrpolitisk interesse for å ikkje la AI utvikle seg utan regulering. Sam Altman har på si side offentleg støtta regulering, og til og med foreslått ein lisensordning for kraftig AI (sjølv om det han ser for seg kanskje er eit mildt sjølvregulerande organ, åtvarar kritikarar om at det også kan styrke OpenAI si dominans ved å gjere terskelen høgare for mindre aktørar).I tillegg til styresmaktene pressar AI-forskarfellesskapet sjølv på for normer rundt ansvarleg publisering. Det er ein framveksande idé om “AI-sikkerheitspubliseringsnormer”, der visse funn (som korleis ein kan gjere ein modell mykje meir kapabel) kanskje bør delast forsiktig eller ikkje open-sourcast med ein gong for å unngå misbruk. Nokre forskarar praktiserer “infohazard”-handtering, der dei med vilje ikkje publiserer alle detaljar om farlege eigenskapar (til dømes, om nokon fann ut korleis ein kan omgå alle kjende tryggleiksfilter i ein LLM i stor skala, kan dei rapportere det privat til utviklarane i staden for på Twitter). Men å handtere infohazard på ein måte som ikkje berre skaper meir hemmeleghald er vanskeleg. Eit forslag har vore å opprette ein internasjonal AGI-vaktbikkje eller overvåkingsorgan. Til dømes har den kjende AI-forskaren Yoshua Bengio lansert ideen om noko liknande Det internasjonale atomenergibyrået (IAEA), men for AI – eit internasjonalt organ som kan revidere og overvåke ultraavanserte AI-prosjekt på tvers av landegrenser, og sikre at ingen tek uansvarlege risikoar. Dette vil krevje stor grad av samarbeid og tillit mellom nasjonar, noko som ikkje er lett, men det har vore tidlege initiativ: G7 lanserte eit initiativ kalla Hiroshima AI-prosessen for å diskutere AI-styring globalt, og Storbritannia arrangerte eit globalt AI Safety Summit seint i 2023 for å få landa til å bli einige om ekstreme risikoar.
På industrisida, til og med nokre innsidarar går inn for ein meir langsam, open tilnærming. Til dømes legg Dario Amodei (CEO i Anthropic) ofte vekt på varsemd og omfattande testing. Anthropic har bygd eit rykte som eit “AI-sikkerheit først”-selskap. Dei introduserte omgrepet “konstitusjonell AI” – i praksis at AI-en følgjer eit sett med skriftlege etiske prinsipp for å sikre samsvar techcrunch.com. Slike initiativ, om dei blir delte ope, kan gagne heile feltet. Og faktisk har Anthropic publisert detaljar om metodane sine. Likevel, interessant nok, held dei dei mest avanserte modellane og nøyaktige treningsprosessar hemmelege. Det er altså spenning sjølv i “sikkerheitsorienterte” selskap mellom openheit og konkurransefortrinn.Kva med allmennheita og sivilsamfunnet? Vi ser meir engasjement frå desse hald òg. NGO-ar og tankesmier (som Center for AI Safety, OpenAI sitt eige ideelle styre, Partnership on AI, osb.) organiserer diskusjonar om korleis ein skal handtere overgangen til kraftigare AI. Nokre har til og med utarbeidd scenario-planar for kva som skjer om ein tidleg AGI blir utvikla – og tilrår at trening og utplassering blir overvaka av tverrfaglege team inkludert etikarar og kanskje statlege observatørar.
Eit konkret forslag som får fotfeste er “red-teaming” av avanserte modellar med eksterne ekspertar. Det betyr at før (eller rett etter) ein ny kraftig modell blir lansert, får uavhengige team tilgang til å teste han grundig for feil, skjevheiter, tryggleiksproblem osv., og funna blir offentleggjort eller i det minste delte med tilsynsmyndigheiter. OpenAI gjorde faktisk noko av dette med GPT-4 – dei lot eksterne akademikarar og konsulentar teste han (og dei offentleggjorde nokre av risikofunn i systemkortet sitt). Men sidan eksistensen til GPT-4 var hemmeleg fram til lansering, arbeidde red-team under NDA og resultata kom ut same dag som modellen, noko som avgrensa offentleg innsyn på førehand. Framover kunne det bli ein norm at alle modellar over eit visst kapabilitetsnivå må gjennomgå evaluering før utplassering av eksterne revisorar. Det ville krevje at selskapa avslører modellen (under konfidensialitet) til ein påliteleg tredjepart – eit stort steg for hemmelege laboratorium, men kanskje eit nødvendig kompromiss.
Det etiske imperativet mange uttrykkjer er at AI skal gagne heile menneskeslekta, ikkje berre dei som bygg han først. Dette minner om det gamle OpenAI-charteret (som handla om å fordele fordelar og unngå AI-overmakt hos éin aktør). Då OpenAI gjekk over til for-profit og blei mindre open, fekk dei kritikk for å ha gått vekk frå det altruistiske standpunktet vice.com. No er det eit press for å halde selskapa ansvarlege for det offentlege beste. Til dømes starta den britiske konkurranse- og marknadsetaten i 2023 å undersøke marknaden for AI-grunnmodellar, og signaliserte i praksis: “vi følgjer med for å sikre at ikkje nokre få selskap får monopol på denne teknologien til skade for forbrukarar eller konkurranse.” Det er eit økonomisk perspektiv, men det heng saman med etiske bekymringar om maktkonsentrasjon.
Til slutt bør vi nemne at ikkje alle er einige om risikonivået. Nokre ekspertar meiner frykta for AGI er overdriven, og at hemmeleghald ikkje er hovudproblemet – dei uroar seg heller for meir umiddelbare utfordringar som AI-skjevskap, tap av arbeidsplassar eller personvern. Dei argumenterer òg for meir openheit, men ikkje fordi dei fryktar ein vill superintelligens; heller for å sikre at dagens system er rettferdige og ansvarlege. Uansett er openheit (eller mangel på det) sentralt. Utan det kan vi ikkje handtere nokon av desse problema på rett vis, frå skjevskap til eksistensiell risiko.
Avslutningsvis står verda i ein vanskeleg balansegang. Vi lengtar etter innovasjonane AI lovar – kurar for sjukdomar, store framsteg i produktivitet, nye vitskaplege oppdagingar. Men desse innovasjonane kan òg vere tveegga sverd om dei blir utvikla utan tryggleikstiltak. Den siste saka med OpenAI si interne uro, der tilsette visstnok vart uroa av eit gjennombrot og styret grep inn, viser at sjølv oppfinnarane er varsame med kva dei skaper reuters.com. Samfunnet generelt prøver å ta att forspranget for å forstå og styre denne teknologien. Openheit er ikkje eit mål i seg sjølv, men eit middel for å mogleggje ansvar, samarbeid og opplyste avgjerder. Som ein AI-leiar sa: “bygg det først, fiks det seinare” ville ikkje vore akseptabelt i andre risikofylte bransjar theguardian.com – vi bør ikkje akseptere det for AI heller.
Dei neste par åra vil truleg by på fleire lekkasjar og avsløringar etter kvart som innsiderar kjempar med etiske dilemma, fleire rykter om AGI etter kvart som laboratorier pressar grensene, og forhåpentlegvis meir konstruktiv global dialog om korleis vi skal handtere det. Om AGI kjem om 5 eller 50 år, kan det vere avgjerande at utviklinga ikkje skjer i totalt mørke, for å gjere det til ei velsigning – ikkje ei forbanning – for menneskeslekta.
Kjelder:
- Reuters – OpenAI-forskarar åtvara styret om AI-gjennombrot før direktør vart fjerna, seier kjelder reuters.com
- Reuters – Elon Musk og andre ber om AI-pause, viser til ‘risiko for samfunnet’ reuters.com
- Vice – OpenAI sin GPT-4 er lukka kjeldekode og omgitt av hemmeleghald vice.com
- The Guardian – Google-ingeniør suspendert etter å ha sagt at AI-chatbot har blitt selvbevisst theguardian.com
- The Guardian – ‘Gudfaren av AI’ Geoffrey Hinton slutter i Google og advarer om farer… theguardian.com
- The Verge – Metas kraftige AI-språkmodell har lekket på nettet — kva skjer no? theverge.com
- Reuters – Alibaba lanserer AI-modell dei seier overgår DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – CIA lagar sin eigen versjon av ChatGPT fanaticalfuturist.com
- TechCrunch – Anthropic sin 5 milliardar dollar, 4-års plan for å utfordre OpenAI techcrunch.com
- MacRumors – Apple GPT: Kva vi veit om Apples arbeid med generativ AI macrumors.com