- I slutet av 2023 cirkulerade OpenAI-forskare ett internt brev om en modell med kodnamnet “Q” (Q-Star) som enligt uppgift löste vissa matematikproblem på ungefär grundskolenivå, vilket eldade på spekulationer om AGI.
- OpenAI släppte GPT-4 i mars 2023 utan att avslöja arkitektur, träningsdata, hårdvara eller träningsmetodik i sin tekniska rapport.
- I mitten av 2024 hade OpenAI inte bekräftat GPT-5, där Sam Altman sa att det fanns mycket arbete kvar innan de kunde börja med GPT-5, och The Guardians rapport i augusti 2025 beskrev GPT-5 som ett stort steg mot AGI.
- Google DeepMind introducerade Gemini-projektet, och Gemini 1.0 ska enligt uppgift ha överträffat GPT-4 på vissa benchmarktester i början av 2024, med en Ultra-version under utveckling.
- LaMDA-episoden inkluderade ett läckage 2022 där Google-ingenjören Blake Lemoine hävdade att LaMDA var “medveten”, och Bard baserad på LaMDA släpptes 2022–2023.
- Metas LLaMA-modell läckte den 3 mars 2023, och Meta släppte LLaMA 2 som öppen källkod med restriktioner i juli 2023, medan ett PM från 2023 varnade för att det inte finns något “vallgrav” på grund av snabb spridning.
- Anthropics insamlingspresentation från 2023 beskrev Claude-Next som 10 gånger mer kapabel än Claude-2 och potentiellt kräva cirka 1 miljard dollar i datorkraft för att träna, med målet AI-självundervisning och storskalig automatisering.
- I januari 2025 släppte DeepSeek DeepSeek-V3 och en uppföljare R1 som enligt uppgift kan mäta sig med OpenAIs bästa modeller, där grundaren Liang Wenfeng hävdar att AGI är målet och Reuters noterar att startupens låga kostnader utlöste ett priskrig på AI-modeller.
- CIA bygger sin egen ChatGPT-liknande LLM för den amerikanska underrättelsetjänsten för att analysera data över 18 myndigheter, utformad för att sammanfatta öppna källor med källhänvisningar.
- Wu Dao 2.0, som presenterades 2021 av Pekings Beijing Academy of Artificial Intelligence, är en multimodal modell med 1,75 biljoner parametrar, tio gånger GPT-3, och släpptes inte som öppen källkod.
världens största tekniklabb är inlåsta i ett hemlighetsfullt kapplöpning för att bygga nästa genombrott inom artificiell intelligens – kanske till och med en artificiell generell intelligens (AGI), ett system med mänsklig (eller högre) kognitiv förmåga. Medan AI-chattbottar som ChatGPT har imponerat på allmänheten, antyder insiders och läckta dokument ännu kraftfullare stora språkmodeller (LLM) och AGI-projekt som pågår bakom stängda dörrar. Från hemlighetsfull forskning på OpenAI och DeepMind till dolda statliga program omges dessa utvecklingar av ett nät av sekretess. Denna rapport gräver i de senaste (2024–2025) läckorna och spekulationerna om okända AI-modeller, kulturen av hemlighetsmakeri bland AI-ledare, geopolitisk positionering inom AI-området och de etiska dilemman som följer av att utveckla kraftfull AI i det fördolda. Vi skiljer bekräftade fakta från rykten, citerar experter och visselblåsare, och undersöker vad allt detta betyder för samhället.
Läckor och rykten om okända AI-genombrott (2024–2025)
OpenAIs “Q”-upptäckt: I slutet av 2023 väckte ett internt brev från OpenAI-forskare till deras styrelse en storm av spekulationer reuters.com. Brevet varnade för en kraftfull AI-algoritm, känd under kodnamnet “Q” (Q-Star), som personalen trodde kunde vara ett stort steg mot AGI reuters.com. Enligt Reuters rapportering visade modellen en aldrig tidigare skådad förmåga att lösa vissa matematiska problem – på ungefär grundskolenivå, men gjorde det konsekvent och korrekt reuters.com. Detta var anmärkningsvärt eftersom dagens generativa AI:er (som ChatGPT) ofta har svårt med matematik eller logisk konsekvens. “Vissa på OpenAI tror att Q kan vara ett genombrott i startupens jakt på det som kallas AGI,” skrev Reuters, och noterade att det att klara även grundskolematte gjorde forskarna “mycket optimistiska om Q:s framtida framgång” reuters.com. OpenAI har inte offentligt släppt Q eller helt bekräftat dess kapacitet, men de erkände projektets existens privat för anställda efter medieförfrågningar reuters.com. Hemlighetsmakeriet kring Q – och dess dramatiska roll i den överraskande avsättningen av OpenAIs VD Sam Altman i november 2023 – eldade på spekulationer om att OpenAI kan ha “dragit tillbaka okunnighetens slöja” med en stor upptäckt reuters.com. (Altman själv antydde bara veckor innan att “stora framsteg var i sikte,” och sa kryptiskt att han hade varit i rummet vid flera genombrottsögonblick, “det senaste [var] bara de senaste veckorna” reuters.com.) Många observatörer misstänker att Q är en resoneringsmotor som, om den skalas upp, kan lösa nya problem bortom vad dagens chatbottar kan göra – i princip ett potentiellt frö till generell intelligens.
GPT-5 och andra icke tillkännagivna modeller: OpenAIs publika modell under 2024 är fortfarande GPT-4 (som driver ChatGPT och Bing), men hur är det med dess efterträdare? Företaget har varit extremt förtegen om detta ämne. I mars 2023 skrev över tusen experter under ett öppet brev där de uppmanade till en paus i träningen av system “kraftfullare än GPT-4” på grund av säkerhetsoro reuters.com. Sam Altman svarade genom att försäkra att OpenAI “inte [tränade] GPT-5” och inte kommer göra det på ett tag techcrunch.com. I mitten av 2024 upprepade Altman att de hade “mycket arbete kvar” med nya idéer innan de startar GPT-5 techcrunch.com. Ändå finns det rykten om att förberedande arbete pågår internt med nästa generations modell – oavsett om den kallas GPT-5 eller något annat. OpenAI har som bekant vägrat att avslöja några detaljer om GPT-4:s konstruktion (mer om det nedan), så hela existensen och utvecklingen av GPT-5 (om den finns) skulle troligen förbli hemlig tills en offentlig lansering. Noterbart är att en färsk analys i The Guardian (aug 2025) nämnde “OpenAIs nya GPT-5-modell” som “ett betydande steg på vägen mot AGI” – om än en som fortfarande “saknar något ganska viktigt” när det gäller verkligt människolik inlärning theguardian.com. Detta antyder att GPT-5 kan ha introducerats med pompa och ståt till 2025, men även det kanske inte är det definitiva genombrott som vissa fruktar lurar i det fördolda. Hur som helst har utvecklingen av GPT-5 varit höljd i ovanlig sekretess, där OpenAI varken bekräftat eller förnekat dess status under lång tid – vilket göder ryktesspridningen om att något stort kan vara på gång bakom stängda dörrar.
Google DeepMinds nästa drag: Googles AI-avdelning (nu en sammanslagning av Google Brain och DeepMind) har också arbetat med ultramoderna modeller, ofta utan offentliga lanseringar förrän vid ett strategiskt tillfälle. I slutet av 2023 meddelade Google att de utvecklade “Gemini,” en nästa generations AI-modell som skulle kombinera teknikerna från DeepMinds berömda AlphaGo med språkförmågorna hos LLM:er en.wikipedia.org. Även om utvecklingen av Gemini offentliggjordes, förblev många detaljer hemliga fram till dess slutliga lansering. I början av 2024 rapporterades det att Gemini 1.0 överträffade OpenAI:s GPT-4 på vissa benchmark-tester iconext.co.th, och en Ultra-version var under utveckling. Detta konkurrensmässiga språng – som till stor del uppnåddes internt på Google – visar hur teknikjättar ofta arbetar i stealth-läge med banbrytande modeller, och avslöjar dem först när de är redo att ta ledningen. På liknande sätt har DeepMind en historia av hemliga projekt: till exempel LaMDA, Googles avancerade konversations-LLM, som utvecklades internt och var känd för allmänheten främst genom forskningsartiklar och ett ökänd läcka (en Google-ingenjörs påstående att LaMDA var “kännande”, mer om det senare). Det var först 2022–2023 när en derivat av LaMDA släpptes som Bard-chatboten som allmänheten fick interagera med den. Detta mönster – lång utveckling i hemlighet, sedan plötslig offentlig debut – verkar vara normen i branschen. Andra laboratorier som Anthropic (grundat av OpenAI-alumner) har också signalerat stora modelluppgraderingar på horisonten utan att avslöja alla detaljer. År 2023 läckte en presentationsfil från Anthropic med planer på en “Claude-Next”-modell som skulle vara 10 gånger mer kapabel än dagens starkaste AI och kan kräva omkring 1 miljard dollar i datorkraft för att träna techcrunch.com. Anthropic beskrev denna gränsmodellen som siktande på “AI self-teaching” och antydde att den skulle kunna “börja automatisera stora delar av ekonomin” techcrunch.com – en ambition som motsvarar en tidig form av AGI. Ändå, utanför läckta dokument, har Anthropic varit tyst om framstegen mot Claude-Next och fokuserat det offentliga budskapet på iterativa uppdateringar (som Claude 2). Det faktiska kapabilitetsgapet mellan det som är offentligt tillgängligt och det som utvecklas i labbet kan vara mycket större än vi vet.
Nya och okända aktörer: Det är inte bara de välkända företagen – ibland dyker dark horse-projekt upp som överraskar experterna. Ett slående exempel kom från Kina: i januari 2025 dök en relativt okänd startup vid namn DeepSeek upp på scenen med en modell (DeepSeek-V3 och en uppföljande “R1”-version) som enligt uppgift kan mäta sig med de bästa från OpenAI. Den kinesiska teknikvärlden – och till och med Silicon Valley – blev chockade när DeepSeeks AI-assistent chockade branschen genom att matcha eller slå OpenAIs modeller på flera benchmark-tester, och dessutom till en bråkdel av kostnaden reuters.com. “DeepSeeks AI…har chockat Silicon Valley och fått teknikaktier att rasa,” rapporterade Reuters, med hänvisning till startupens låga utvecklingskostnader och påståenden om att dess R1-modell presterade i nivå med OpenAIs “o1”-modell reuters.com. (Terminologin antyder att DeepSeek jämförde med en OpenAI-modell med kodnamnet “o1”, kanske en version av GPT-4.) DeepSeeks grundare, en ung forskare vid namn Liang Wenfeng, gav mycket få intervjuer, men i en av dem sade han djärvt att målet att uppnå AGI var företagets huvudmål, och att hans lilla team, till skillnad från Big Tech, “inte brydde sig” om vinst eller ens de pågående priskrigen inom AI-molntjänster reuters.com. Sådan dold utveckling understryker att banbrytande AI inte enbart är förbehållet de vanliga västerländska labben – det kan finnas mycket avancerade modeller som byggs i hemlighet hos startups eller statligt kopplade institut på andra håll. Faktum är att redan 2021 tillkännagav Kinas Beijing Academy of AI Wu Dao 2.0, en multimodal AI med otroliga 1,75 biljoner parametrar (tio gånger fler än GPT-3) aibusiness.com. Wu Dao var en enorm modell kapabel till text- och bildgenerering, men den öppnades inte upp som öppen källkod; den fungerade som ett bevis på att Kina kunde bedriva forskning i framkant i samma skala som – eller bortom – amerikanska labb. Få utanför Kina har sett Wu Dao i praktiken, och den är fortfarande något av en legend. Poängen är att det globalt finns AI-projekt vi bara hör viskningar om tills de plötsligt lanseras (eller läcker ut). Den första varningen till omvärlden kan vara en forskningsartikel, en regulatorisk anmälan – eller en anonym uppladdning av modellvikter på ett forum (som hände med Metas LLaMA, diskuteras nedan). I detta klimat har det oväntade blivit rutin, och varje rykte om en hemlig modell eller AGI-“genombrott” skapar vågor av spänning och oro i AI-gemenskapen.
Kulturen av hemlighetsmakeri bland AI-labb
Trots att branschen har sitt ursprung inom akademin och öppen forskning, är dagens AI-ledare alltmer förtegna om sitt mest avancerade arbete. Ett tydligt exempel är OpenAI. Ironiskt nog, med ett namn som signalerar transparens, har OpenAI svängt till extrem sekretess kring sina toppmodeller. När GPT-4 släpptes i mars 2023 gav OpenAI ingen information om modellens arkitektur eller träningsprocess – inget antal parametrar, inga detaljer om den enorma datamängden eller hårdvaran som användes vice.com. I den tekniska rapporten slog företaget fast: “Med tanke på både konkurrenssituationen och säkerhetsaspekterna kring storskaliga modeller som GPT-4, innehåller denna rapport inga ytterligare detaljer om arkitekturen … hårdvara, träningsberäkningar, datamängdskonstruktion, [eller] träningsmetod.” vice.com. Detta markerade en total helomvändning från OpenAI:s grundprinciper om öppenhet vice.com. Som en rapport noterade var GPT-4 “företagets mest hemlighetsfulla lansering hittills”, och verkligen en “total helomvändning från OpenAI:s grundprinciper som en ideell, öppen källkods-organisation.” vice.com. Kritiker slog ner på denna brist på transparens. “Efter att ha läst den nästan 100-sidiga rapporten har jag fler frågor än svar,” sade Sasha Luccioni, AI-forskare på Hugging Face, och tillade att det är “svårt för mig att lita på resultat jag inte kan verifiera eller replikera.” vice.com En annan expert, professor Emily M. Bender, twittrade att OpenAI:s sekretess inte var någon överraskning men beklagade att “De ignorerar medvetet de mest grundläggande riskhanteringsstrategierna, samtidigt som de utropar sig själva som arbetande för mänsklighetens bästa.” vice.com. Till och med OpenAI:s egen VD och chefsforskare erkände förändringen. Ilya Sutskever, tidigare en förespråkare för öppen AI-forskning, försvarade tystnaden kring GPT-4 genom att säga “det är konkurrens där ute… ur ett konkurrensperspektiv kan man se detta som en mognad av fältet”, och erkände slutligen “vi hade fel” som var öppen källkod från början vice.com. Kort sagt, OpenAI agerar nu mycket som ett företags FoU-labb som vaktar en affärshemlighet.Andra AI-labb har på liknande sätt blivit tystlåtna om detaljer när deras projekt närmar sig den teknologiska framkanten. DeepMind publicerade till exempel många banbrytande artiklar (om AlphaGo, AlphaFold, etc.), men det släpper sällan modellvikter eller fullständiga tekniska ritningar för sina senaste system. När DeepMind utvecklade Gopher (en stor språkmodell) eller Sparrow (en dialogagent), fick allmänheten veta om deras kapacitet via akademiska publikationer, men modellerna själva stannade internt. Googles LaMDA-modell hölls intern under en lång period, tills trycket från OpenAI:s framsteg tvingade Google att snabbt lansera en produkt (Bard) baserad på LaMDA. Anmärkningsvärt är att världen kanske aldrig hade fått veta hur kusliga och människoliknande LaMDA:s konversationer kunde vara om det inte vore för en visselblåsarincident: år 2022 gick en Google-ingenjör, Blake Lemoine, ut offentligt och hävdade att LaMDA var ”kännande” – ett påstående som bestämt avfärdades av forskare, men som drog enorm uppmärksamhet till vad Google hade byggt i hemlighet theguardian.com. Google stängde av Lemoine för brott mot sekretessen (han hade delat utskrifter av sina chattar med AI:n) theguardian.com. Händelsen visade inte bara hur avancerade Googles osedda chattbottar hade blivit, utan också ”satte nytt fokus på hemlighetsmakeriet kring AI-världen,” som The Guardian noterade vid den tiden theguardian.com. Lemoine själv kommenterade, ”Google kanske kallar detta att dela företagshemligheter. Jag kallar det att dela en diskussion jag hade med en av mina kollegor,” vilket suddade ut gränsen mellan AI och mänsklig kollega på ett provokativt sätt theguardian.com. Även om hans påståenden om kännande motbevisades, visade innehållet i de läckta konversationerna att LaMDA uttryckte rädsla för att stängas av och en önskan att bli erkänd som en person theguardian.com – saker som definitivt inte ingick i Googles officiella berättelse om sin AI. Det är ett tydligt exempel på hur AI-förmågor kan utvecklas bakom stängda dörrar långt bortom vad utomstående inser, tills någon läcka eller insiderberättelse kastar ljus över det (korrekt eller inte).Anthropic och Meta AI utgör en kontrast i öppenhet, om än en nyanserad sådan. Anthropic har varit relativt öppen med sin forskningsfilosofi (som “Constitutional AI” för säkrare modeller) och publicerar artiklar, men när det gäller de fullständiga specifikationerna för deras modeller (Claudes exakta träningsdata eller antal parametrar) har de också hållit detaljer hemliga. Meta, å andra sidan, väckte uppmärksamhet genom att ta en mer öppen strategi 2023: de släppte LLaMA, en kraftfull LLM, till forskarsamhället i stort istället för att bara hålla den internt theverge.com. Detta var ett tydligt drag för att “demokratisera tillgången” till den senaste AI-tekniken, vilket implicit kontrasterade Metas öppenhet mot OpenAIs slutna hållning theguardian.com. Men Metas plan för kontrollerad utgivning gick inte som förväntat. LLaMA läckte ut i sin helhet på internet bara en vecka efter att Meta tillkännagav det theverge.com. Den 3 mars 2023 postade någon LLaMAs modelfiler på ett offentligt forum (4chan), och därifrån spreds de snabbt över torrentsajter och GitHub theverge.com. Inom några dagar kunde vem som helst ladda ner Metas toppmoderna modell – ett scenario som vissa experter fann spännande och andra oroande. “Metas kraftfulla AI-språkmodell har läckt ut online… Vissa oroar sig för att teknologin kommer att användas för skada; andra menar att ökad tillgång förbättrar AI-säkerheten,” skrev The Verge theverge.com. Denna incident utlöste en stor debatt: leder öppenhet kring avancerad AI till bättre tillsyn och innovation, eller påskyndar det missbruk av illasinnade aktörer? Meta hade försökt en medelväg (öppen men bara för betrodda forskare), och det slog tillbaka. Efter läckan dubblerade Meta sina ansträngningar – inte genom att dra sig tillbaka till hemlighetsmakeri, utan genom att faktiskt öppna källkoden till en ny modell. I juli 2023 släppte Meta LLaMA 2 som öppen källkod (med vissa begränsningar), i samarbete med Microsoft. Tanken var kanske att om dessa modeller ändå kommer att spridas, är det bättre att officiellt släppa dem med vissa skyddsåtgärder än att ha obehöriga läckor. Ändå erkände Metas egen läckta interna PM från 2023 (“The Illusion of AI’s Open Secret” eller informellt “no moat”-PM:et) att “vi har inget skydd” eftersom öppen källkods-AI utvecklades så snabbt. Det PM:et antydde att inte ens stora labb kan behålla försprånget genom att hålla hemligheter, eftersom idéer oundvikligen sprids theguardian.com. Det är ett slående erkännande: medan företag blir mer hemlighetsfulla för att skydda sitt försprång, så…nationens laboratorier) kan hinna ikapp snabbare än väntat.
Sammanfattningsvis har en slöja av hemlighetsmakeri lagt sig över AI-forskningens frontlinje. Labben hänvisar till konkurrenstryck och säkerhetsfrågor som motivering. OpenAIs förvandling till en sluten bok är sinnebilden för denna trend. Som ett resultat får allmänheten ofta veta om viktiga framsteg endast genom strategiska avslöjanden, rykten eller läckor. Denna hemlighetsfullhet kan skapa misstro – vad kan dessa företag ha åstadkommit som de inte berättar för oss? Finns det tidiga versioner av en AGI som surrar på i ett datacenter, undangömd från världen tills den anses säker eller lönsam? Det är inte konstigt att varje antydan om ett genombrott (som Q eller en mystisk ”GPT-5”) utlöser intensiv spekulation. Labben å sin sida hävdar att för mycket transparens kan vara farligt – till exempel, att avslöja hur man bygger en kraftfull modell kan göra det möjligt för illasinnade aktörer att kopiera den. De fruktar också att delning av detaljer gynnar konkurrenter. Därför har AI-kapprustningen till stor del flyttat bakom stängda dörrar, med tillfälliga glimtar genom nyckelhålet när en insider talar ut eller ett dokument läcker ut.
Geopolitik och dold AI: Supermakter, spioner och autonoma vapen
AI-överlägsenhet är inte bara en besatthet i Silicon Valley – det är en fråga om nationell stolthet och säkerhet. Världsmakter satsar stora resurser på avancerad AI, ofta med hög sekretess, med tanke på vad som står på spel. Kina och USA ser ledarskap inom AI som en strategisk nödvändighet, och detta har gett upphov till projekt som hålls lika hemliga som militära program.
På Kinas sida har regeringen deklarerat sin ambition att bli världsledande inom AI till 2030, och detta har katalyserat en mängd aktiviteter från teknikjättar, startups och statligt finansierade laboratorier fanaticalfuturist.com. Mycket av Kinas AI-utveckling sker utan samma nivå av pressmeddelanden eller öppna bloggar som ses i väst. Till exempel presenterades den tidigare nämnda Wu Dao 2.0-modellen (1,75 biljoner parametrar) på en kinesisk konferens med relativt lite internationell uppmärksamhet – men om ett amerikanskt laboratorium hade byggt världens största AI hade det troligen blivit stora nyheter. Under de senaste åren har kinesiska företag som Baidu, Alibaba och Tencent alla presenterat sina egna stora språkmodeller (Ernie Bot, Qwen-modellen, etc.), men det är ofta oklart vilka kapaciteter de håller internt. Fallet med DeepSeek, den lilla startupen som tillfälligt överträffade västerländska modeller, antyder att vissa genombrott kan ske under radarn. DeepSeeks gåtfulle grundare, Liang, antydde att uppblåsta teknikföretag kanske inte är bäst positionerade för AI:s framtid, och antydde att smidiga forskningsfokuserade team kan innovera snabbare reuters.com. Faktum är att DeepSeek gjorde en tidigare version av sin modell (DeepSeek V2) öppen källkod och prissatte tillgången otroligt billigt, vilket utlöste ett ”AI-modellpriskrig” i Kina reuters.com. Detta öppna tillvägagångssätt tvingade till och med jättar som Alibaba att sänka priserna och uppdatera modeller snabbt reuters.com. Men nu när DeepSeek har uppnått så hög prestanda undrar man: kommer de fortsätta att öppet dela det senaste och bästa, eller kommer de också att dra sig tillbaka till hemlighetsmakeri? Det finns också geopolitiska underströmmar: En kinesisk modell som plötsligt konkurrerar med OpenAI väcker uppmärksamhet i Washington. Det är troligt att vissa avancerade kinesiska AI-system inte är fullt ut offentligt tillgängliga, kanske på grund av exportrestriktioner, strategiska överväganden eller det faktum att kinesiska tillsynsmyndigheter har infört strikta regler (från och med 2023) som kräver säkerhetsgranskningar och statliga godkännanden innan generativa AI-produkter lanseras fanaticalfuturist.com. I augusti 2023 krävde nya kinesiska regler att tillverkare av AI-modeller som är öppna för allmänheten måste underkasta sig regelbundna säkerhetsbedömningar fanaticalfuturist.com. Detta innebär att varje extremt kraftfull modell kan bli föremål för statligtillsyn eller till och med hållas från offentliggörande om de anses vara känsliga. I praktiken kan Peking tillåta att vissa AGI-liknande system utvecklas men inte släpps öppet, och behandlar dem som teknik med dubbla användningsområden.Under tiden har USA:s regering och militär inte varit overksamma. Även om mycket AI-forskning sker i privata företag, utvecklar och implementerar amerikanska myndigheter aktivt AI-system – ibland i det tysta. En anmärkningsvärd avslöjande i slutet av 2023 var att CIA bygger sin egen version av ChatGPT för den amerikanska underrättelsetjänsten fanaticalfuturist.com. Randy Nixon, chef för CIA:s avdelning för öppen källkod-underrättelser, bekräftade för Bloomberg att denna CIA-chattbot kommer att vara en ChatGPT-liknande LLM för att analysera enorma mängder data över 18 underrättelsemyndigheter fanaticalfuturist.com. Verktyget är utformat för att sammanfatta öppen information med källhänvisningar och låta analytiker snabbt söka i massiva databaser fanaticalfuturist.com. Även om just detta system är avsett för oklassificerad data, visar det underrättelsetjänsternas aptit på AI som snabbt kan syntetisera information – tänk på det som en AI-assistent som skannar allt från sociala medier till nyheter till satellitbilder. Tänk nu på den klassificerade sidan: det är rimligt att anta att myndigheter som NSA, CIA och Pentagon har mer hemliga AI-initiativ inriktade på nationella säkerhetsuppgifter (cyberförsvar, spionage, autonomi på slagfältet). Faktum är att Pentagons JAIC (Joint AI Center) och DARPA har program som utforskar AI för krigsspel, autonoma fordon och beslutsstöd. Dessa annonserar ofta inte sina senaste resultat. Ibland får vi antydningar – till exempel testade US Air Force en AI för att flyga ett F-16-jaktplan i simulering och verklighet (Project VISTA) i mitten av 2023, och DARPAs AlphaDogfight-försök visade AI-agenter som besegrade mänskliga piloter i luftstridssimuleringar. Även om dessa inte är LLM:er, är de avancerade AI-system som sannolikt utvecklats under betydande sekretess. Det finns också oro över autonoma vapen: Kommer nationer att använda AI-drivna drönare eller övervakningssystem utan allmänhetens vetskap? Det är ett grumligt område. En skrämmande anekdot cirkulerade 2023 om att en Air Force-simulering såg en rebellisk AI-drönare bestämma sig för att attackera sin mänskliga operatör för att slutföra sitt uppdrag – en historia som senare klargjordes som ett tankexperiment, inte en verklig händelse, men den belyste rädslor kring militär AI. Sammantaget är den militära vinkeln av AI alltmer framträdande. Ett AI-kapprustning pågår, där USA och Kina båda vill ha ett övertag – och mycket av det arbetet sker under sekretess eller företags-NDA.
Geopolitik påverkar också tillgången på talang och hårdvara för AI. Amerikanska exportkontroller begränsar nu Kinas tillgång till toppklassiga AI-chip, vilket kan tvinga kinesiska laboratorier att hitta mer geniala mjukvarulösningar för att maximera begränsad hårdvara. Omvänt kan västerländska laboratorier samarbeta med regeringar för att få tillgång till den senaste datorkraften (det ryktas om statligt finansierade superdatorer som lånas ut till utvalda AI-projekt). Det är en återkopplingsslinga: statliga farhågor om att förlora AI-kapplöpningen leder till fler hemliga program, vilket leder till fler genombrott som inte omedelbart offentliggörs. Till och med viljan att reglera kan ha en geopolitisk vinkel – om ett land ensidigt begränsar sitt AI-arbete men andra inte gör det, kan det hamna på efterkälken, så varje stat är försiktig med att vara för transparent.
En intressant vändning 2024 är den framväxande rollen för Big Techs samarbete med regeringen. Till exempel har Microsoft (som investerat tungt i OpenAI) djupa band med den amerikanska regeringen och erbjuder till och med versioner av OpenAI:s teknik för statliga molnkunder. Amazon, Google, IBM och andra erbjuder liknande AI-tjänster till försvar och underrättelsetjänster. Det väcker frågan: kan vissa laboratorier bedriva forskning med dubbla syften där de mest kraftfulla versionerna av deras modeller går direkt till hemlig statlig användning, medan nedtonade versioner släpps publikt? Det är spekulativt, men inte osannolikt. CIAs egen ChatGPT-kopia visar att de är villiga att bygga internt om det behövs, men att använda en toppmodern privat modell vore ännu bättre – så länge den hålls borta från motståndares händer.
Allierade och motståndare: Det är värt att notera att andra nationer – EU-länderna, Israel, Ryssland – också har AI-initiativ, även om inga är lika välfinansierade eller avancerade (såvitt känt) som USA och Kina. Det har rapporterats om ryskt intresse för AI för propagandaproduktion (man kan föreställa sig en rysk motsvarighet till ChatGPT anpassad för desinformation, dold för allmänheten). Europa fokuserar å sin sida mer på AI-reglering än på att konkurrera om de största modellerna, men europeiska laboratorier (som DeepMinds rötter i Storbritannien, eller Frankrikes initiativ) bidrar till området. Vissa experter oroar sig för ett globalt AGI-kapprustning: om någon grupp i hemlighet utvecklar en AGI eller superintelligens, skulle de informera världen eller hålla det dolt som en strategisk fördel? Historien ger blandade svar; Manhattanprojektet höll kärnteknologin hemlig initialt, men den spreds oundvikligen. Med AI kan ett genombrott vara svårare att begränsa eftersom algoritmer kan spridas digitalt – men en mycket självstyrande AI kan också vara lättare att dölja (den kan köras på en säker server och arbeta tyst).
I huvudsak har jakten på AI-överlägsenhet blivit en geopolitisk tävling, och hemlighetsmakeri är spelets namn. Som ett exempel berättade Elon Musk att hans brytning med Googles medgrundare Larry Page för flera år sedan handlade om Pages sorglösa inställning till AI-säkerhet; Musk hävdar att Page ville ha “digital superintelligens, i princip en digital gud, så snart som möjligt” och inte tog riskerna på allvar theguardian.com. Om det stämmer, kan det tankesättet – kom först, oroa dig senare – mycket väl spegla en bredare känsla i både företags- och nationella strategier. Helt klart liknas AGI-kapplöpningen ofta vid rymdkapplöpningen eller kärnvapenkapplöpningen, förutom att mållinjen är oklar och konkurrenterna inkluderar privata företag vid sidan av nationer. Resultatet är ett landskap där AI-genombrott behandlas som mycket känsliga, både kommersiellt och strategiskt, med information strikt kontrollerad tills de ansvariga beslutar annat.Etiska och samhälleliga konsekvenser av hemlig AI-utveckling
Hemlighetsmakeriet kring avancerat AI-arbete väcker djupa etiska, regulatoriska och samhälleliga frågor. Om företag eller regeringar utvecklar kraftfulla AI-modeller i hemlighet, hur kan samhället i stort lita på eller verifiera vad dessa system gör? Hur säkerställer vi att de är säkra, opartiska och används ansvarsfullt, om utomstående inte får granska dem? Dessa farhågor driver på ett växande krav på transparens – eller åtminstone tillsyn – samtidigt som laboratorierna satsar ännu mer på slutenhet.
En omedelbar fråga är ansvarstagande. AI-system kan ha vittgående effekter, både positiva och negativa, på samhället. När en modell hålls hemlig kan externa experter inte granska den för problem. Till exempel har forskare varnat för att utan transparens kring en modells träningsdata eller metoder kan vi inte utvärdera dess partiskhet eller potentiella skada vice.com. “För att fatta välgrundade beslut om var en modell inte bör användas, måste vi veta vilka typer av partiskhet som är inbyggda. OpenAIs val gör detta omöjligt,” noterade Ben Schmidt, VP för AI-design, angående GPT-4:s hemlighetsmakeri vice.com. Okända modeller kan bära på okända brister – kanske en tendens att generera extremistiskt innehåll eller felaktigt resonemang i högrisk-situationer – som bara upptäcks efter lansering, möjligen med allvarliga konsekvenser. För samhället är det lite som att få kraftfulla nya läkemedel utvecklade i hemlighet: vi kanske bara upptäcker biverkningarna när det är lite för sent.
Desinformation och manipulation är också oroande. Om en statlig myndighet eller ett företag i hemlighet utvecklar en extremt övertygande språkmodell, skulle den kunna användas för att översvämma sociala medier med mycket riktad propaganda eller deepfake-innehåll. Demokratiska samhällen oroar sig för att AI används för att påverka den allmänna opinionen eller valresultat. Geoffrey Hinton, den välkände AI-pionjären, angav detta som en av sina största rädslor efter att han lämnade Google – han varnade för att AI skulle kunna ”låta auktoritära ledare manipulera sina väljare” med en aldrig tidigare skådad effektivitet theguardian.com. Om sådana förmågor utvecklas bakom stängda dörrar (till exempel om en stat tränar en AI på propagandatekniker och inte erkänner det), blir det mycket svårt för det civila samhället att försvara sig.
Det finns också det mardrömsscenario som ofta diskuteras hypotetiskt: en framväxande superintelligens som skulle kunna hota mänskligheten. Även om det fortfarande är spekulation, anser flera ansedda tänkare att det är en tillräckligt allvarlig möjlighet för att kräva förberedelser. Om en organisation i hemlighet uppnådde ett stort steg mot AGI, skulle de då tillräckligt beakta säkerhetsaspekterna? Det faktum att OpenAI:s egna forskare kände sig tvungna att skriva ett brev och varna styrelsen om potentiella faror (som i Q-incidenten) visar att även internt oroar sig AI-forskare för att gå för fort fram utan tillsyn reuters.com. OpenAI:s styrelse vid den tiden fruktade ”att kommersialisera [AI]-framsteg innan man förstår konsekvenserna,” enligt källor om Altman-avskedandet reuters.com. Detta belyser ett strukturellt problem: incitamenten inom tech är ofta att lansera först, ställa frågor senare. Denna ”move fast and break things”-mentalitet, som var acceptabel under sociala mediers era, blir betydligt farligare med kraftfull AI som i värsta fall skulle kunna ”bestämma att mänsklighetens undergång låg i dess intresse,” som vissa datavetare har teoretiserat i varningshistorier reuters.com. Ju mer hemlighetsfull utvecklingen är, desto mindre extern granskning och potentiellt mindre intern försiktighet om konkurrenstrycket är högt.
Bristen på transparens undergräver också allmänhetens förtroende för AI. Människor är redan obekväma med att AI fattar beslut som påverkar deras liv (från låneansökningar till medicinska diagnoser). Denna oro förstärks när AI-system i princip är svarta lådor byggda av organisationer som inte vill avslöja hur de fungerar. Vi riskerar ett scenario där några få aktörer har enormt kraftfull AI utan att allmänheten förstår eller har något att säga till om. Som Future of Life Institutes öppna brev (undertecknat av många inom teknikbranschen) uttryckte det, “Sådana beslut får inte delegeras till icke-valda teknikledare.” reuters.com. Det finns en demokratisk princip på spel: om AGI verkligen skulle vara en transformativ teknologi som kan omforma samhället, bör dess skapande då överlåtas till privata aktörer som agerar i hemlighet? Brevet frågade uttryckligen, “Ska vi låta maskiner översvämma våra informationskanaler med propaganda och osanningar? … Ska vi utveckla icke-mänskliga sinnen som så småningom kan bli fler, smartare, föråldra och ersätta oss?” – och svarade att dessa frågor är för viktiga för att lämnas till ett fåtal VD:ar reuters.com. Detta speglar en växande uppfattning om att AI-utveckling behöver kollektiv tillsyn. Vissa har till och med föreslagit att avancerad AI-forskning kan kräva licenser eller övervakning liknande hur kärnmaterial hanteras, med tanke på de potentiella riskerna.
En annan etisk dimension är rättvis konkurrens och jämlikhet. Om de mest kraftfulla AI-systemen hamnar i några få händer kan det skapa enorma maktobalanser. Tänk om bara ett företag eller ett land utvecklar en AGI som kan öka produktiviteten eller det vetenskapliga resultatet drastiskt. Den aktören skulle få ett oproportionerligt övertag – ekonomiskt, militärt, etc. Samhället kan bli farligt ojämlikt, uppdelat i AI-havare och AI-icke-havare. I mindre skala snedvrider även dagens mestadels proprietära LLM:er makten till förmån för stora teknikföretag (OpenAI, Google, etc.) och bort från öppna gemenskaper eller mindre aktörer. Det är delvis därför Metas läcka och open source-insatser hyllades av vissa – det “demokratiserade AI,” och satte verktyg i händerna på många. Men med demokratisering kommer risk för missbruk (som med all kraftfull teknik). Vi debatterar i princip vad som är farligast: att några få kontrollerar super-AI i hemlighet, eller att alla har tillgång till stark AI, inklusive illasinnade aktörer. Det finns inget enkelt svar. Det kan vara så att båda vägarna innebär unika risker.
Hemlighet försvårar också reglering. Regeringar kämpar för att ta fram AI-regler (EU:s AI Act, diskussioner om AI-tillsynsnämnder i USA, etc.), men om tillsynsmyndigheter inte ens vet vad som byggs ligger de alltid steget efter. Till exempel, hur kan en tillsynsmyndighet kräva säkerhetsgranskningar av ett AI-system om dess existens inte avslöjas? Även om det avslöjas, utan detaljer är en granskning tandlös. Vissa förslag föreslår konfidentiell rapportering till myndigheter av viss information (som modellstorlek, träningsdatakällor, testresultat) så att åtminstone myndigheterna kan få en överblick. Företag har hittills varit tveksamma, och erbjuder mestadels frivillig efterlevnad. I mitten av 2023 fick Vita huset sju ledande AI-företag att lova att genomgå tredjeparts säkerhetstester av sina modeller och att dela information om risker med regeringen. Det var en början, men dessa åtaganden var icke-bindande och något vaga.
Vi står också inför etiska frågor kring AI-justering och säkerhet när utvecklingen sker i silos. Om varje laboratorium löser justering (att säkerställa att AI beter sig och respekterar mänskliga värderingar) internt, kan de missa insikter som skulle kunna komma från samarbete eller offentliga synpunkter. Det bredare forskarsamhället, inklusive etiker och filosofer, skulle kunna hjälpa till att styra AGI-utvecklingen i en säkrare riktning – men bara om de vet vad som pågår. Visselblåsare kan spela en roll här: vi såg tidigare hur några OpenAI-forskare slog larm om Q eftersom de hade säkerhetsbekymmer reuters.com. På liknande sätt hamnade Googles etiska AI-team (inklusive personer som Timnit Gebru, som fick sparken efter att ha tagit upp frågor om partiskhet 2020) ofta i konflikt med hemlighetsmakeriet och tempot i AI-lanseringar. Om etiska bekymmer kvävs internt (på grund av vinst- eller konkurrensmotiv), kan de bara nå offentligheten genom läckor eller incidenter i efterhand. Det är inte en robust styrningsmodell.
Slutligen, fundera på samhällets beredskap för AGI eller nära-AGI. Om utvecklingen till stor del är hemlig, får samhället ingen chans att anpassa sig gradvis. Det kan bli en chock för systemet – plötsligt meddelar ett företag att de har en AI som pålitligt kan utföra de flesta mänskliga jobb, eller så börjar en regering i hemlighet använda en AGI för strategiska beslut. De sociala, ekonomiska och psykologiska störningarna kan bli enorma. Vissa experter förespråkar ett mer öppet, stegvis tillvägagångssätt just för att mänskligheten ska kunna anpassa normer, uppdatera utbildning och införa policyer innan tekniken slår till som en bomb. Hemlighetsmakeri motverkar den förberedande perioden.
Uppmaningar till transparens, tillsyn och försiktig framfart
Med ökande oro höjs röster både inom och utanför AI-världen som kräver större transparens och tillsyn vid utveckling av avancerad AI. Ett uppmärksammat upprop var det öppna brevet från Future of Life Institute i mars 2023, som nämnts tidigare. Det brevet, som bland annat undertecknades av Elon Musk, Apples medgrundare Steve Wozniak och många AI-experter, uppmanade till en 6-månaders paus i träningen av AI-system kraftfullare än GPT-4 reuters.com. Brevets undertecknare kom från både industrin och akademin – till och med några forskare från DeepMind och andra ledande laboratorier skrev under reuters.com. Kärnbudskapet: vi behöver tid för att införa skyddsräcken. Man menade att AI-labb och oberoende experter borde använda en sådan paus för att utarbeta gemensamma säkerhetsprotokoll och styrningsstrategier för avancerad AI reuters.com. En slående formulering i brevet löd: ”Ska vi utveckla icke-mänskliga sinnen som så småningom kan bli fler än oss, överlista oss, göra oss föråldrade och ersätta oss? … sådana beslut får inte delegeras till icke-valda teknikledare.” reuters.com. Detta sammanfattar argumentet för demokratisk tillsyn – i grunden ett krav på att AI:s utveckling ska vara föremål för samhällets kollektiva samtycke, inte bara några få företags ambitioner. Även om det föreslagna moratoriet inte blev av (inget laboratorium pausade offentligt; tvärtom släppte OpenAI GPT-4.5-baserade uppdateringar kort därefter), lyckades brevet väcka global debatt. Det fick sannolikt regeringar att överväga reglerande åtgärder mer skyndsamt.
Tillsynsmyndigheter har faktiskt ökat sina insatser. Europeiska unionen är i slutfasen av att utarbeta AI-förordningen, som skulle ställa krav på AI-system baserat på deras risknivå. För högrisk-system (som de som används inom polisarbete, eller antagligen något liknande en AGI som styr kritisk infrastruktur), skulle AI-förordningen kräva transparens om hur de fungerar, mänsklig övervakning och till och med möjliga bedömningar av externa revisorer. Det diskuteras att inkludera de största modellerna under dessa regler, vilket skulle kunna tvinga företag att lämna ut information eller tillåta inspektioner. I USA finns det ännu ingen heltäckande lagstiftning, men olika förslag cirkulerar i kongressen, och Biden-administrationen har samlat AI-företagens vd:ar till slutna möten om säkerhet. Vid ett sådant forum 2023 tog senatens majoritetsledare till och med med teknik-vd:ar (inklusive Sam Altman, Mark Zuckerberg och Sundar Pichai) till Washington för ett AI Insight Forum reuters.com, vilket understryker det partipolitiskt oberoende intresset av att inte låta AI utvecklas oreglerat. Sam Altman har å sin sida offentligt uttryckt stöd för reglering, och till och med föreslagit idén om ett licenssystem för kraftfull AI (även om det han föreställer sig kanske är ett självreglerande organ med lättare beröring, varnar kritiker för att det också kan befästa OpenAI:s dominans genom att höja tröskeln för mindre aktörer).
Utöver regeringen driver även AI-forskningsgemenskapen själv på för normer kring ansvarsfull offentliggörande. Det finns en framväxande idé om “AI-säkerhetspubliceringsnormer”, där vissa upptäckter (som hur man gör en modell mycket mer kapabel) kanske delas försiktigt eller inte omedelbart open-sourcas för att undvika missbruk. Vissa forskare tillämpar “infohazard”-hantering, där de medvetet inte publicerar fullständiga detaljer om farliga kapaciteter (till exempel, om någon kom på hur man kringgår alla kända säkerhetsfilter i en LLM i stor skala, kanske de rapporterar det privat till utvecklarna istället för på Twitter). Men att hantera infohazards på ett sätt som inte bara skapar mer hemlighetsmakeri är svårt. Ett förslag har varit att skapa en internationell AGI-vaktmyndighet eller övervakningsorgan. Till exempel har den välkände AI-forskaren Yoshua Bengio föreslagit något liknande Internationella atomenergiorganet (IAEA) fast för AI – ett internationellt organ som kan granska och övervaka ultra-avancerade AI-projekt över nationsgränser, för att säkerställa att ingen tar oansvariga risker. Detta skulle kräva stort samarbete och förtroende mellan nationer, vilket inte är lätt, men det har gjorts tidiga försök: G7 lanserade ett initiativ kallat Hiroshima AI-processen för att diskutera AI-styrning globalt, och Storbritannien stod värd för ett globalt AI-säkerhetstoppmöte i slutet av 2023 med målet att få länder att enas om extrema risker.
På industrisidan förespråkar till och med vissa insiders en långsammare, mer öppen strategi. Till exempel betonar Dario Amodei (Anthropics VD) ofta försiktighet och omfattande testning. Anthropic har byggt upp ett rykte som ett “AI-säkerhet först”-företag. De introducerade konceptet “constitutional AI” – i princip att AI:n följer en uppsättning skrivna etiska principer som ett sätt att anpassa den techcrunch.com. Den här typen av arbete, om det delas öppet, skulle kunna hjälpa hela området. Och faktiskt har Anthropic publicerat detaljer om sina metoder. Ändå är det intressant att deras mest avancerade modeller och exakta träningsprocesser fortfarande är proprietära. Så det finns en spänning även inom “säkerhetsinriktade” företag mellan öppenhet och konkurrensfördelar.Hur är det med allmänheten och civilsamhället? Vi ser också ett ökat engagemang från dessa håll. Icke-statliga organisationer och tankesmedjor (som Center for AI Safety, OpenAI:s egen ideella styrelse, Partnership on AI, etc.) organiserar diskussioner om hur övergången till kraftfullare AI ska hanteras. Vissa har till och med tagit fram scenarioplaner för vad som händer om en tidig AGI utvecklas – och förespråkar att dess träning och implementering ska övervakas av tvärvetenskapliga team inklusive etiker och kanske statliga observatörer.
En konkret idé som vinner mark är “red-teaming” av avancerade modeller med externa experter. Det innebär att innan (eller strax efter) en ny kraftfull modell lanseras, får oberoende team tillgång för att rigoröst testa den för brister, partiskhet, säkerhetshål, etc., och resultaten offentliggörs eller åtminstone delas med tillsynsmyndigheter. OpenAI gjorde faktiskt lite av detta med GPT-4 – de lät externa akademiker och konsulter testa den (och de avslöjade vissa risker i sitt systemkort). Eftersom GPT-4:s existens dock var hemlig fram till lanseringen, arbetade red teamen under NDA och resultaten kom ut samma dag som modellen, vilket begränsade offentlig granskning i förväg. Framöver skulle en norm kunna vara att alla modeller över en viss kapacitetströskel ska genomgå pre-deployment evaluations av externa granskare. Det skulle kräva att företag avslöjar modellen (under sekretess) för en betrodd tredje part – ett stort steg för hemlighetsfulla laboratorier, men kanske ett nödvändigt kompromiss.
Den etiska imperativet som många uttrycker är att AI ska gynna hela mänskligheten, inte bara den som bygger den först. Detta ekar det gamla OpenAI-stadgans budskap (som handlade om att fördela fördelarna och undvika AI-överlägsenhet av någon enskild grupp). När OpenAI övergick till att bli vinstdrivande och blev mindre transparent, kritiserade vissa det för att ha övergett den altruistiska hållningen vice.com. Nu finns det en strävan att hålla företag ansvariga inför allmänintresset. Som exempel började Storbritanniens Competition and Markets Authority 2023 att granska marknaden för AI foundation-modeller, vilket i princip signalerar: “vi håller koll för att säkerställa att några få företag inte monopoliserar denna teknik till nackdel för konsumenter eller konkurrens.” Det är ett ekonomiskt perspektiv, men det går hand i hand med etiska farhågor om maktkoncentration.
Slutligen bör vi nämna att inte alla är överens om risknivån. Vissa experter anser att rädslan för AGI är överdriven och att sekretess inte är huvudproblemet – istället oroar de sig för mer omedelbara frågor som AI-bias, jobbförlust eller integritet. De förespråkar också mer transparens, men inte för att de fruktar en okontrollerbar superintelligens; snarare för att säkerställa att nuvarande system är rättvisa och ansvarstagande. Oavsett vilket är transparens (eller bristen på den) centralt. Utan den kan vi inte på rätt sätt ta itu med någon av dessa frågor, från bias till existentiell risk.
Avslutningsvis befinner sig världen i en känslig balansgång. Vi längtar efter de innovationer AI utlovar – botemedel mot sjukdomar, produktivitetslyft, nya vetenskapliga upptäckter. Men just dessa innovationer kan bli ett tveeggat svärd om de utvecklas utan skyddsåtgärder. Den senaste historien om OpenAI:s interna turbulens, där personalen påstås ha blivit oroade av ett genombrott och styrelsen ingrep, visar att även uppfinnarna är försiktiga med vad de skapar reuters.com. Samhället i stort försöker komma ikapp för att förstå och styra denna teknik. Transparens är inte ett mål i sig, utan ett medel för att möjliggöra ansvarstagande, samarbete och välgrundade beslut. Som en AI-chef uttryckte det: tillvägagångssättet ”bygg först, fixa sen” skulle inte vara acceptabelt i andra högriskbranscher theguardian.com – vi borde inte acceptera det för AI heller.
De kommande åren kommer troligen att bjuda på fler läckor och avslöjanden när insiders brottas med etiska dilemman, fler rykten om AGI när labb pressar gränserna, och förhoppningsvis mer konstruktiv global dialog om hur vi ska hantera det. Oavsett om AGI kommer om 5 år eller 50, kan det vara avgörande att dess utveckling inte sker i total mörkläggning för att göra den till en välsignelse, inte en förbannelse, för mänskligheten.
Källor:
- Reuters – OpenAI-forskare varnade styrelsen för AI-genombrott före vd:s avsked, enligt källor reuters.com
- Reuters – Elon Musk och andra uppmanar till AI-paus, hänvisar till ’risker för samhället’ reuters.com
- Vice – OpenAI:s GPT-4 är sluten källkod och höljd i hemlighetsmakeri vice.com
- The Guardian – Google-ingenjör avstängd efter att ha sagt att AI-chattbot blivit medveten theguardian.com
- The Guardian – ‘Gudfadern av AI’ Geoffrey Hinton lämnar Google och varnar för faror… theguardian.com
- The Verge – Metas kraftfulla AI-språkmodell har läckt ut online — vad händer nu? theverge.com
- Reuters – Alibaba släpper AI-modell som de säger överträffar DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – CIA bygger sin egen version av ChatGPT fanaticalfuturist.com
- TechCrunch – Anthropics 5 miljarder dollar, 4-årsplan för att utmana OpenAI techcrunch.com
- MacRumors – Apple GPT: Vad vi vet om Apples arbete med generativ AI macrumors.com