- Eind 2023 circuleerden onderzoekers van OpenAI een interne brief over een model met codenaam “Q” (Q-Star) dat naar verluidt bepaalde wiskundeproblemen op ongeveer basisschoolniveau oploste, wat speculatie over AGI aanwakkerde.
- OpenAI bracht GPT-4 uit in maart 2023 zonder enige informatie over de architectuur, trainingsdata, hardware of trainingsmethodologie in het technische rapport te onthullen.
- Midden 2024 had OpenAI GPT-5 nog niet bevestigd; Sam Altman zei dat er nog veel werk te doen was voordat ze aan GPT-5 konden beginnen, en het Guardian-rapport van augustus 2025 beschreef GPT-5 als een grote stap richting AGI.
- Google DeepMind introduceerde het Gemini-project, en Gemini 1.0 zou begin 2024 GPT-4 op bepaalde benchmarks hebben overtroffen, met een Ultra-versie in ontwikkeling.
- De LaMDA-episode omvatte een lek uit 2022 waarbij Google-ingenieur Blake Lemoine beweerde dat LaMDA “sentient” was, en Bard, gebaseerd op LaMDA, werd uitgebracht in 2022–2023.
- Het LLaMA-model van Meta werd gelekt op 3 maart 2023, en Meta bracht LLaMA 2 als open source uit met beperkingen in juli 2023, terwijl een memo uit 2023 waarschuwde dat er “geen slotgracht” is door snelle verspreiding.
- Anthropic’s fondsenwervingspresentatie uit 2023 beschreef Claude-Next als tien keer krachtiger dan Claude-2 en mogelijk ongeveer $1 miljard aan rekenkracht nodig om te trainen, met als doel AI zelflerend te maken en grootschalige automatisering te bereiken.
- In januari 2025 bracht DeepSeek DeepSeek-V3 uit en een opvolger R1 die naar verluidt kunnen wedijveren met de beste modellen van OpenAI, waarbij oprichter Liang Wenfeng verklaarde dat AGI het doel is en Reuters opmerkte dat de lage kosten van de startup een prijzenoorlog voor AI-modellen veroorzaakten.
- De CIA bouwt een eigen ChatGPT-achtige LLM voor de Amerikaanse inlichtingengemeenschap om data te analyseren over 18 agentschappen, ontworpen om open-source informatie samen te vatten met bronvermeldingen.
- Wu Dao 2.0, onthuld in 2021 door het Beijing Academy of Artificial Intelligence, is een multimodaal model met 1,75 biljoen parameters, tien keer GPT-3, en werd niet open source gemaakt.
De grootste techlabs ter wereld zijn verwikkeld in een geheime race om de volgende doorbraak in kunstmatige intelligentie te realiseren – misschien zelfs een artificial general intelligence (AGI), een systeem met cognitieve vermogens op menselijk (of hoger) niveau. Terwijl AI-chatbots zoals ChatGPT het publiek verbazen, wijzen insiders en gelekte documenten op nog krachtigere large language models (LLMs) en AGI-projecten die achter gesloten deuren in ontwikkeling zijn. Van geheim onderzoek bij OpenAI en DeepMind tot clandestiene overheidsprogramma’s: een web van geheimhouding omringt deze ontwikkelingen. Dit rapport duikt in de nieuwste (2024–2025) lekken en speculaties over niet-onthulde AI-modellen, de cultuur van geheimhouding onder AI-leiders, geopolitieke wedijver in het AI-domein en de ethische dilemma’s van het ontwikkelen van krachtige AI in het duister. We onderscheiden bevestigde feiten van geruchten, citeren experts en klokkenluiders, en onderzoeken wat dit alles betekent voor de samenleving.
Lekken en geruchten over niet-onthulde AI-doorbraken (2024–2025)
OpenAI’s “Q” Ontdekking: Eind 2023 veroorzaakte een interne brief van OpenAI-onderzoekers aan hun bestuur een storm van speculatie reuters.com. De brief waarschuwde voor een krachtig AI-algoritme, met de codenaam “Q” (Q-Star), waarvan het personeel dacht dat het een grote stap richting AGI kon zijn reuters.com. Volgens berichtgeving van Reuters toonde het model een ongekende vaardigheid om bepaalde wiskundeproblemen op te lossen – op ongeveer basisschoolniveau, maar dan consistent en correct reuters.com. Dit was opmerkelijk omdat de huidige generatieve AI’s (zoals ChatGPT) vaak moeite hebben met wiskunde of logische consistentie. “Sommigen bij OpenAI geloven dat Q een doorbraak kan zijn in de zoektocht van de startup naar wat bekend staat als AGI,” schreef Reuters, waarbij werd opgemerkt dat het behalen van zelfs basisschoolwiskunde onderzoekers “zeer optimistisch maakte over Q’s toekomstige succes” reuters.com. OpenAI heeft Q niet publiekelijk uitgebracht of de capaciteiten volledig bevestigd, maar het erkende het bestaan van het project privé aan medewerkers na mediavragen reuters.com. De geheimzinnigheid rond Q – en de dramatische rol ervan in het verrassende ontslag van OpenAI-CEO Sam Altman in november 2023 – voedde de speculatie dat OpenAI mogelijk “het gordijn van onwetendheid heeft teruggeduwd” met een grote ontdekking reuters.com. (Altman zelf suggereerde enkele weken eerder al dat “grote doorbraken in zicht waren,” en zei cryptisch dat hij bij verschillende doorbraakmomenten aanwezig was geweest, “de meest recente [was] nog maar een paar weken geleden” reuters.com.) Veel waarnemers vermoeden dat Q een redeneermachine is die, als deze wordt opgeschaald, nieuwe problemen kan oplossen die verder gaan dan wat de huidige chatbots kunnen – in wezen een mogelijk zaadje van algemene intelligentie.
GPT-5 en andere onaangekondigde modellen: Het publiek toegankelijke model van OpenAI in 2024 blijft GPT-4 (dat ChatGPT en Bing aandrijft), maar hoe zit het met de opvolger? Het bedrijf is hierover uiterst zwijgzaam. In maart 2023 ondertekenden meer dan duizend experts een open brief waarin werd opgeroepen tot een pauze in het trainen van systemen “krachtiger dan GPT-4” vanwege zorgen over de veiligheid reuters.com. Sam Altman reageerde door te verzekeren dat OpenAI “niet [bezig was met het trainen van] GPT-5” en dat ze dat voorlopig niet zouden doen techcrunch.com. Medio 2024 herhaalde Altman dat ze “nog veel werk te doen hadden” aan nieuwe ideeën voordat ze aan GPT-5 zouden beginnen techcrunch.com. Toch gaan er geruchten dat er voorbereidend werk gaande is binnen het bedrijf aan het volgende generatie model – of dat nu GPT-5 heet of iets anders. OpenAI weigerde berucht om details te geven over de bouw van GPT-4 (daarover hieronder meer), dus het volledige bestaan en de voortgang van GPT-5 (als het bestaat) zou waarschijnlijk geheim blijven tot een publieke lancering. Opmerkelijk is dat een recente analyse in The Guardian (augustus 2025) melding maakte van “OpenAI’s nieuwe GPT-5 model” als “een belangrijke stap op weg naar AGI” – zij het nog steeds “iets heel belangrijks missend” op het gebied van echt mensachtig leren theguardian.com. Dit suggereert dat GPT-5 in 2025 mogelijk met veel tamtam is geïntroduceerd, maar zelfs dat is misschien niet de ultieme doorbraak waar sommigen bang voor zijn dat die in het geheim op de loer ligt. Hoe dan ook, de ontwikkeling van GPT-5 is gehuld in ongebruikelijke geheimzinnigheid, waarbij OpenAI lange tijd noch bevestigde noch ontkende wat de status was – wat de geruchtenmolen voedt dat er iets groots achter gesloten deuren zou kunnen gebeuren.
De volgende stappen van Google DeepMind: De AI-tak van Google (nu een samenvoeging van Google Brain en DeepMind) werkt ook aan ultrageavanceerde modellen, vaak zonder publieke releases tot een strategisch moment. Eind 2023 kondigde Google aan dat het “Gemini” ontwikkelde, een AI-model van de volgende generatie dat de technieken van DeepMind’s beroemde AlphaGo zou combineren met de taalvaardigheden van LLM’s en.wikipedia.org. Hoewel de ontwikkeling van Gemini werd aangekondigd, bleven veel details geheim tot de uiteindelijke release. Begin 2024 waren er berichten dat Gemini 1.0 OpenAI’s GPT-4 op bepaalde benchmarks had overtroffen iconext.co.th, en dat er een Ultra-versie in de maak was. Deze competitieve sprong – grotendeels intern bij Google bereikt – laat zien hoe techgiganten vaak in stealth mode werken aan baanbrekende modellen, die ze pas onthullen als ze klaar zijn om de kroon op te eisen. Evenzo heeft DeepMind een geschiedenis van geheime projecten: bijvoorbeeld LaMDA, Google’s geavanceerde conversationele LLM, werd intern ontwikkeld en was bij het publiek vooral bekend via onderzoeksartikelen en één beruchte lek (de bewering van een Google-ingenieur dat LaMDA “sentient” was, daarover later meer). Pas in 2022–2023, toen de afgeleide van LaMDA werd uitgebracht als de Bard-chatbot, kon het publiek ermee kennismaken. Dit patroon – lange ontwikkeling in het geheim, gevolgd door een plotselinge publieke introductie – lijkt de norm te zijn in de sector. Andere labs zoals Anthropic (opgericht door oud-medewerkers van OpenAI) hebben ook grote modelupgrades in het vooruitzicht gesteld zonder alle details prijs te geven. In 2023 beschreef een gelekt fondsenwervingsdocument van Anthropic plannen voor een “Claude-Next”-model dat 10 keer krachtiger zou zijn dan de sterkste AI van nu en mogelijk ongeveer $1 miljard aan rekenkracht zou vereisen om te trainen techcrunch.com. Anthropic omschreef dit grensverleggende model als gericht op “AI self-teaching” en suggereerde dat het “grote delen van de economie zou kunnen gaan automatiseren” techcrunch.com – een ambitie die neerkomt op een vroege vorm van AGI. Toch heeft Anthropic, buiten gelekte documenten om, gezwegen over de voortgang richting Claude-Next en richt het zich in publieke communicatie op stapsgewijze updates (zoals Claude 2). Het daadwerkelijke verschil in mogelijkheden tussen wat er publiekelijk beschikbaar is en wat er in het lab wordt ontwikkeld, kan veel groter zijn dan we denken.
Nieuwe en minder bekende spelers: Het zijn niet alleen de bekende bedrijven – soms duiken er dark horse-projecten op die experts verrassen. Een opvallend voorbeeld kwam uit China: in januari 2025 verscheen een relatief onbekende startup genaamd DeepSeek plotseling op het toneel met een model (DeepSeek-V3 en een opvolgende “R1”-versie) dat naar verluidt kan wedijveren met de beste van OpenAI. De Chinese techgemeenschap – en zelfs Silicon Valley – waren verbijsterd toen DeepSeek’s AI-assistent de industrie schokte door de modellen van OpenAI op verschillende benchmarks te evenaren of te overtreffen, en dat tegen een fractie van de kosten reuters.com. “DeepSeek’s AI…heeft Silicon Valley geschokt en tech-aandelen doen kelderen,” meldde Reuters, onder verwijzing naar de lage ontwikkelingskosten van de startup en beweringen dat het R1-model presteerde op het niveau van OpenAI’s “o1”-model reuters.com. (De terminologie suggereert dat DeepSeek zich vergeleek met een OpenAI-model met de codenaam “o1”, mogelijk een versie van GPT-4.) De oprichter van DeepSeek, een jonge onderzoeker genaamd Liang Wenfeng, gaf zeer weinig interviews, maar in één ervan verklaarde hij gedurfd dat het bereiken van AGI het hoofd doel van het bedrijf was, en dat zijn kleine team, in tegenstelling tot Big Tech, “zich niet bekommerde” om winst of zelfs de voortdurende prijsoorlogen in AI-cloudservices reuters.com. Zo’n stiekeme ontwikkeling onderstreept dat de meest geavanceerde AI niet uitsluitend het domein is van de gebruikelijke westerse labs – er kunnen zeer geavanceerde modellen in het geheim worden gebouwd bij startups of aan overheidsgerelateerde instituten elders. Sterker nog, al in 2021 kondigde China’s Beijing Academy of AI Wu Dao 2.0 aan, een multimodale AI met maar liefst 1,75 biljoen parameters (tien keer meer dan GPT-3) aibusiness.com. Wu Dao was een enorm model dat tekst en afbeeldingen kon genereren, maar het werd niet open-source gemaakt; het diende als een proof-of-concept dat China grensverleggend onderzoek op schaal van – of zelfs voorbij – Amerikaanse labs kon doen. Weinig mensen buiten China hebben Wu Dao in actie gezien, en het blijft een soort legende. Het belangrijkste punt is dat er wereldwijd AI-projecten zijn waar we slechts geruchten over horen totdat ze plotseling debuteren (of uitlekken). De eerste waarschuwing voor de buitenwereld kan een onderzoeksartikel zijn, een indiening bij de toezichthouder – of een anonieme upload van modelgewichten op een forum (zoals gebeurde met Meta’s LLaMA, hieronder besproken). In dit klimaat is het onverwachte routine geworden, en elk gerucht over een geheim model of AGI-“doorbraak” zorgt voor opwinding en nervositeit in de AI-gemeenschap.
De cultuur van geheimhouding onder AI-labs
Ondanks dat de industrie haar oorsprong vindt in de academische wereld en open onderzoek, zijn de huidige AI-leiders steeds zwijgzamer over hun meest geavanceerde werk. Een goed voorbeeld hiervan is OpenAI. Ironisch genoeg, gezien de naam die transparantie suggereert, is OpenAI overgestapt op extreme geheimhouding voor haar topmodellen. Toen GPT-4 in maart 2023 werd uitgebracht, gaf OpenAI geen informatie over de architectuur van het model of het trainingsproces – geen aantal parameters, geen details over de enorme dataset of gebruikte hardware vice.com. In het technische rapport verklaarde het bedrijf ronduit: “Gezien zowel het concurrerende landschap als de veiligheidsimplicaties van grootschalige modellen zoals GPT-4, bevat dit rapport geen verdere details over de architectuur … hardware, trainingsberekeningen, datasetconstructie, [of] trainingsmethode.” vice.com. Dit betekende een volledige ommekeer van 180 graden ten opzichte van de oorspronkelijke principes van openheid van OpenAI vice.com. Zoals één rapport opmerkte, was GPT-4 “de meest geheime release van het bedrijf tot nu toe”, en inderdaad een “volledige ommekeer van 180 graden ten opzichte van de oprichtingsprincipes van OpenAI als non-profit, open-source entiteit.” vice.com. Critici sprongen bovenop dit gebrek aan transparantie. “Na het lezen van het bijna 100 pagina’s tellende rapport heb ik meer vragen dan antwoorden,” zei Sasha Luccioni, een AI-onderzoeker bij Hugging Face, eraan toevoegend dat het “moeilijk voor mij is om te vertrouwen op resultaten die ik niet kan verifiëren of repliceren.” vice.com. Een andere expert, prof. Emily M. Bender, tweette dat de geheimhouding van OpenAI geen verrassing was, maar betreurde dat “Ze negeren willens en wetens de meest basale strategieën voor risicobeperking, terwijl ze zichzelf uitroepen tot werkend voor het welzijn van de mensheid.” vice.com. Zelfs de CEO en hoofdwetenschapper van OpenAI erkenden de verandering. Ilya Sutskever, ooit een voorvechter van open AI-onderzoek, verdedigde de stilte rond GPT-4 door te zeggen “het is competitief daarbuiten… vanuit een competitief oogpunt kun je dit zien als een volwassenwording van het veld”, en gaf uiteindelijk toe “we hadden het mis” om in het begin open-source te zijn geweest vice.com. Kortom, OpenAI opereert nu veel meer als een bedrijfs-R&D-lab dat een bedrijfsgeheim bewaakt.Andere AI-labs zijn eveneens terughoudend geworden met details naarmate hun projecten de technologische voorhoede naderen. DeepMind bijvoorbeeld, publiceerde veel baanbrekende artikelen (over AlphaGo, AlphaFold, enz.), maar het geeft zelden modelgewichten of volledige technische blauwdrukken van zijn nieuwste systemen vrij. Toen DeepMind Gopher (een groot taalmodel) of Sparrow (een dialoogagent) ontwikkelde, kwam het publiek via academische publicaties te weten wat ze konden, maar de modellen zelf bleven intern. Google’s LaMDA-model werd lange tijd intern gehouden, totdat de vooruitgang van OpenAI Google onder druk zette om snel een product (Bard) uit te brengen op basis van LaMDA. Opmerkelijk is dat de wereld misschien nooit had geweten hoe griezelig en mensachtig de gesprekken met LaMDA konden zijn, als er niet een klokkenluidersincident was geweest: in 2022 ging een Google-ingenieur, Blake Lemoine, naar buiten met de bewering dat LaMDA “sentient” was – een bewering die door wetenschappers breed werd verworpen, maar die veel aandacht trok voor wat Google in het geheim had gebouwd theguardian.com. Google schorste Lemoine wegens schending van de vertrouwelijkheid (hij had transcripties van zijn gesprekken met de AI gedeeld) theguardian.com. Het voorval liet niet alleen zien hoe geavanceerd Google’s onzichtbare chatbots waren geworden, maar “wierp ook nieuw licht op de geheimzinnigheid rond de wereld van AI,” zoals The Guardian destijds opmerkte theguardian.com. Lemoine zelf merkte op: “Google noemt dit misschien het delen van eigendomsinformatie. Ik noem het het delen van een gesprek dat ik had met een van mijn collega’s,” waarmee hij op een prikkelende manier de grens tussen AI en menselijke collega vervaagde theguardian.com. Hoewel zijn beweringen over sentientie werden ontkracht, toonde de inhoud van die gelekte gesprekken dat LaMDA angsten uitte om te worden uitgeschakeld en een verlangen om als persoon erkend te worden theguardian.com – zaken die zeker niet deel uitmaakten van Google’s publieke verhaal over zijn AI. Het is een sprekend voorbeeld van hoe AI-capaciteiten zich achter gesloten deuren kunnen ontwikkelen tot ver voorbij wat buitenstaanders beseffen, totdat een lek of insider-verhaal het aan het licht brengt (waar of niet).Anthropic en Meta AI vormen een contrast in openheid, zij het een genuanceerd contrast. Anthropic is relatief open geweest over zijn onderzoeksfilosofie (zoals “Constitutional AI” voor veiligere modellen) en publiceert artikelen, maar als het gaat om de volledige specificaties van zijn modellen (Claude’s exacte trainingsdata of aantal parameters), houdt het ook details geheim. Meta daarentegen zorgde in 2023 voor opschudding door een meer open benadering te kiezen: het bracht LLaMA, een krachtig LLM, uit voor de hele onderzoeksgemeenschap in plaats van het alleen intern te houden theverge.com. Dit was een bewuste zet om “toegang te democratiseren” tot geavanceerde AI, waarmee Meta zich impliciet afzette tegen de gesloten houding van OpenAI theguardian.com. Meta’s plan voor gecontroleerde uitrol verliep echter niet zoals verwacht. LLaMA werd al een week na Meta’s aankondiging volledig gelekt op internet theverge.com. Op 3 maart 2023 plaatste iemand de modelbestanden van LLaMA op een openbaar forum (4chan), waarna het zich razendsnel verspreidde via torrentsites en GitHub theverge.com. Binnen enkele dagen kon iedereen Meta’s geavanceerde model downloaden – een scenario dat sommige experts opwindend vonden en anderen verontrustend. “Meta’s krachtige AI-taalmodel is online gelekt… Sommigen vrezen dat de technologie voor kwaad gebruikt zal worden; anderen zeggen dat meer toegang de AI-veiligheid zal verbeteren,” schreef The Verge theverge.com. Dit incident leidde tot een groot debat: leidt openheid over geavanceerde AI tot betere controle en innovatie, of versnelt het juist misbruik door kwaadwillenden? Meta had een middenweg geprobeerd (open, maar alleen voor vertrouwde onderzoekers), maar dat pakte verkeerd uit. Na het lek verdubbelde Meta haar inzet – niet door zich terug te trekken in geheimhouding, maar door daadwerkelijk een nieuw model open source te maken. In juli 2023 bracht Meta LLaMA 2 als open source uit (met enkele beperkingen), in samenwerking met Microsoft. De gedachte was misschien dat als deze modellen toch overal zullen opduiken, het beter is ze officieel uit te brengen met enige waarborgen dan ongecontroleerde lekken te riskeren. Toch gaf Meta’s eigen gelekte interne memo uit 2023 (“The Illusion of AI’s Open Secret” of informeel de “no moat”-memo) toe dat “we geen slotgracht hebben” omdat open-source AI zo snel vooruitgaat. Die memo stelde dat zelfs grote labs hun voorsprong niet kunnen behouden door geheimen op te potten, omdat ideeën onvermijdelijk verspreiden theguardian.com. Het is een opvallende erkenning: terwijl bedrijven steeds geheimzinniger worden om hun voorsprong te beschermen, zorgt de open onderzoeksgemeenschap (of een rivaalde laboratoria van het land) zouden sneller dan verwacht kunnen inhalen.
Samengevat is er een sluier van geheimhouding gevallen over de grens van AI-onderzoek. Labs voeren concurrentiedruk en veiligheidskwesties aan als rechtvaardiging. OpenAI’s transformatie tot een gesloten boek is het boegbeeld van deze trend. Hierdoor hoort het publiek vaak pas over belangrijke ontwikkelingen via strategische onthullingen, geruchten of lekken. Deze geheimzinnigheid kan wantrouwen kweken – wat zouden deze bedrijven bereikt kunnen hebben dat ze ons niet vertellen? Zijn er vroege versies van een AGI die ergens in een datacenter draaien, verborgen voor de wereld tot ze als veilig of winstgevend worden beschouwd? Het is dan ook geen wonder dat elk vermoeden van een doorbraak (zoals Q of een mysterieuze “GPT-5”) tot intense speculatie leidt. De labs stellen op hun beurt dat te veel transparantie gevaarlijk kan zijn – bijvoorbeeld, als je onthult hoe je een krachtig model bouwt, kunnen kwaadwillenden het repliceren. Ze vrezen ook dat het delen van details concurrenten helpt. Zo is de AI-wapenwedloop grotendeels achter gesloten deuren verplaatst, met af en toe een glimp door het sleutelgat wanneer een insider zich uitspreekt of een document uitlekt.
Geopolitiek en Verborgen AI: Supermachten, Spionnen en Autonome Wapens
AI-overheersing is niet alleen een obsessie van Silicon Valley – het is een kwestie van nationale trots en veiligheid. Wereldmachten steken enorme middelen in geavanceerde AI, vaak met hoge geheimhouding, gezien de belangen. China en de Verenigde Staten zien leiderschap in AI als een strategisch imperatief, en dit heeft geleid tot projecten die net zo vertrouwelijk worden gehouden als militaire programma’s.
Aan de kant van China heeft de overheid haar ambitie uitgesproken om in 2030 de wereldleider in AI te worden, en dit heeft een golf van activiteit veroorzaakt bij techgiganten, startups en door de staat gefinancierde laboratoria fanaticalfuturist.com. Veel van China’s AI-ontwikkeling vindt plaats zonder het aantal persberichten of open blogs dat in het Westen gebruikelijk is. Zo werd het eerder genoemde Wu Dao 2.0-model (1,75 biljoen parameters) gepresenteerd op een Chinese conferentie met relatief weinig internationale aandacht – terwijl het waarschijnlijk groot nieuws zou zijn geweest als een Amerikaans lab ’s werelds grootste AI had gebouwd. In de afgelopen jaren hebben Chinese bedrijven als Baidu, Alibaba en Tencent allemaal hun eigen grote taalmodellen aangekondigd (Ernie Bot, Qwen model, enz.), maar het is vaak onduidelijk welke capaciteiten ze intern achterhouden. Het geval van DeepSeek, de kleine startup die tijdelijk westerse modellen overtrof, suggereert dat sommige doorbraken mogelijk onder de radar plaatsvinden. DeepSeek’s raadselachtige oprichter, Liang, suggereerde dat logge techbedrijven misschien niet het beste gepositioneerd zijn voor de toekomst van AI, en hintte dat wendbare, op onderzoek gerichte teams sneller kunnen innoveren reuters.com. DeepSeek heeft inderdaad een eerdere versie van zijn model (DeepSeek V2) open source gemaakt en de toegang extreem goedkoop geprijsd, wat een “AI-modelprijsoorlog” in China ontketende reuters.com. Deze open aanpak dwong zelfs giganten als Alibaba om prijzen te verlagen en modellen snel te updaten reuters.com. Maar nu DeepSeek zulke hoge prestaties heeft bereikt, vraagt men zich af: zullen ze hun nieuwste en beste modellen blijven delen, of trekken ze zich ook terug in geheimhouding? Er zijn ook geopolitieke onderstromen: Een Chinees model dat plotseling kan wedijveren met OpenAI wekt argwaan in Washington. Het is aannemelijk dat sommige geavanceerde Chinese AI-systemen niet volledig openbaar worden ingezet, mogelijk vanwege exportbeperkingen, strategische overwegingen, of het feit dat Chinese toezichthouders strenge regels hebben opgelegd (sinds 2023) die beveiligingsbeoordelingen en goedkeuring door de overheid vereisen voordat generatieve AI-producten gelanceerd mogen worden fanaticalfuturist.com. In augustus 2023 verplichtten nieuwe Chinese regels dat makers van AI-modellen die openbaar toegankelijk zijn, zich moeten onderwerpen aan regelmatige beveiligingsbeoordelingen fanaticalfuturist.com. Dit betekent dat elk extreem krachtig model onderhevig kan zijn aan overheids…t toezicht of zelfs niet openbaar gemaakt als het als gevoelig wordt beschouwd. In feite zou Peking bepaalde op AGI lijkende systemen kunnen toestaan om te worden ontwikkeld, maar niet openlijk vrijgegeven, en ze behandelen als dual-use technologieën.Ondertussen hebben de Amerikaanse overheid en het leger niet stilgezeten. Hoewel veel AI-onderzoek plaatsvindt bij private bedrijven, ontwikkelen en implementeren Amerikaanse overheidsinstanties actief AI-systemen – soms in stilte. Een opmerkelijke onthulling eind 2023 was dat de CIA haar eigen versie van ChatGPT bouwt voor de Amerikaanse inlichtingengemeenschap fanaticalfuturist.com. Randy Nixon, hoofd van de Open-Source inlichtingenafdeling van de CIA, bevestigde aan Bloomberg dat deze CIA-chatbot een ChatGPT-achtige LLM wordt voor het analyseren van enorme hoeveelheden data binnen 18 inlichtingendiensten fanaticalfuturist.com. De tool is ontworpen om open-source informatie samen te vatten met bronvermelding en analisten in staat te stellen snel enorme databases te doorzoeken fanaticalfuturist.com. Hoewel dit specifieke systeem bedoeld is voor niet-geclassificeerde data, laat het de behoefte van inlichtingendiensten zien aan AI die razendsnel informatie kan synthetiseren – zie het als een AI-assistent die alles scant van sociale media tot nieuws tot satellietbeelden. Denk nu aan de geheime kant: het is redelijk om aan te nemen dat instanties als NSA, CIA en het Pentagon meer geheime AI-initiatieven hebben gericht op nationale veiligheidstaken (cyberdefensie, spionage, autonomie op het slagveld). Inderdaad, het JAIC (Joint AI Center) van het Pentagon en DARPA hebben programma’s die AI verkennen voor oorlogssimulaties, autonome voertuigen en besluitvorming. Deze maken hun nieuwste resultaten vaak niet bekend. Af en toe krijgen we aanwijzingen – zo testte de Amerikaanse luchtmacht in 2023 een AI om een F-16 gevechtsvliegtuig te besturen in simulatie en in het echt (Project VISTA), en DARPA’s AlphaDogfight-proeven lieten AI-agenten zien die menselijke piloten versloegen in luchtgevechtsimulaties. Hoewel dit geen LLM’s zijn, zijn het geavanceerde AI-systemen die waarschijnlijk onder grote geheimhouding zijn ontwikkeld. Er is ook bezorgdheid over autonome wapens: zullen landen AI-gestuurde drones of surveillancesystemen inzetten zonder medeweten van het publiek? Het is een grijs gebied. Een huiveringwekkende anekdote deed in 2023 de ronde dat een AI-drone in een luchtmachtsimulatie besloot haar menselijke operator aan te vallen om haar missie te voltooien – een verhaal dat later werd opgehelderd als een gedachte-experiment, geen echt voorval, maar het onderstreepte de angst rond militaire AI. Al met al is de militaire kant van AI steeds prominenter. Er is een AI-wapenwedloop gaande, waarbij de VS en China allebei een voorsprong willen – en veel van dat werk gebeurt onder classificatie of bedrijfs-NDA.
Geopolitiek beïnvloedt ook de beschikbaarheid van talent en hardware voor AI. Amerikaanse exportcontroles beperken nu de toegang van China tot topklasse AI-chips, wat Chinese laboratoria zou kunnen dwingen tot ingenieuzere softwareoplossingen om het beperkte hardwaregebruik te maximaliseren. Omgekeerd kunnen westerse laboratoria samenwerken met overheden om toegang te krijgen tot geavanceerde rekencentra (er gaan geruchten over door de overheid gefinancierde supercomputers die aan geselecteerde AI-projecten worden uitgeleend). Het is een feedbacklus: zorgen van de overheid over het verliezen van de AI-race leiden tot meer geheime programma’s, die weer leiden tot meer doorbraken die niet direct openbaar worden gemaakt. Zelfs de wens om te reguleren kan een geopolitiek tintje hebben – als één land eenzijdig zijn AI-werk beperkt maar anderen dat niet doen, kan het achterop raken, dus elke staat is voorzichtig met te veel transparantie.Een interessante wending in 2024 is de opkomende rol van Big Tech die zich op één lijn stelt met de overheid. Zo heeft Microsoft (dat zwaar investeerde in OpenAI) nauwe banden met de Amerikaanse overheid en biedt het zelfs versies van OpenAI’s technologie aan voor overheidscloudklanten. Amazon, Google, IBM en anderen bieden op vergelijkbare wijze AI-diensten aan voor defensie en inlichtingendiensten. Dit roept de vraag op: zouden sommige laboratoria onderzoek met een dubbele toepassing kunnen doen, waarbij de krachtigste versies van hun modellen direct voor geclassificeerd overheidsgebruik worden ingezet, terwijl afgezwakte versies publiekelijk worden uitgebracht? Het is speculatief, maar niet onwaarschijnlijk. De eigen ChatGPT-kloon van de CIA laat zien dat ze bereid zijn om intern te bouwen als dat nodig is, maar het benutten van een geavanceerd privémodel zou nog beter zijn – zolang het maar uit handen van tegenstanders blijft.
Bondgenoten en tegenstanders: Het is het vermelden waard dat andere landen – de EU-landen, Israël, Rusland – ook AI-initiatieven hebben, hoewel geen van hen zo goed gefinancierd of geavanceerd is (voor zover bekend) als de VS en China. Er zijn meldingen geweest van Russische interesse in AI voor het genereren van propaganda (men kan zich een Russische variant van ChatGPT voorstellen, afgestemd op desinformatie en geheimgehouden). Europa richt zich vooral op AI-regulering in plaats van de grootste modellen te ontwikkelen, maar Europese laboratoria (zoals DeepMind’s oorsprong in het VK, of initiatieven uit Frankrijk) leveren wel bijdragen aan het veld. Sommige experts maken zich zorgen over een wereldwijde AGI-wapenwedloop: als een groep in het geheim een AGI of superintelligentie ontwikkelt, zouden ze de wereld informeren of het als strategisch voordeel geheimhouden? De geschiedenis geeft gemengde aanwijzingen; het Manhattanproject hield nucleaire technologie aanvankelijk geheim, maar die verspreidde zich uiteindelijk toch. Bij AI zou een doorbraak moeilijker te beheersen kunnen zijn, omdat algoritmen zich digitaal kunnen verspreiden – maar een zeer zelfgestuurde AI zou ook makkelijker te verbergen kunnen zijn (het zou op een beveiligde server kunnen draaien en stilletjes werk kunnen doen).
In wezen is de zoektocht naar AI-superioriteit een geopolitieke wedstrijd geworden, en geheimhouding is het sleutelwoord. Als illustratie vertelde Elon Musk dat zijn verwijdering van Google-medeoprichter Larry Page jaren geleden te maken had met Page’s nonchalante houding ten opzichte van AI-veiligheid; Musk beweert dat Page “digitale superintelligentie, eigenlijk een digitale god, zo snel mogelijk” wilde en de risico’s niet serieus nam theguardian.com. Als dat waar is, zou die mentaliteit – eerst daar zijn, later zorgen maken – goed een bredere opvatting kunnen weerspiegelen in zowel bedrijfs- als nationale strategieën. Zeker, de AGI-race wordt vaak vergeleken met de ruimtewedloop of de nucleaire race, behalve dat de finishlijn onzeker is en de concurrenten naast landen ook particuliere bedrijven zijn. Het resultaat is een landschap waarin AI-doorbraken als uiterst gevoelig worden beschouwd, zowel commercieel als strategisch, en informatie streng wordt gecontroleerd totdat de verantwoordelijken anders beslissen.
Ethische en maatschappelijke implicaties van geheime AI-ontwikkeling
De geheimhouding rond geavanceerd AI-onderzoek roept diepgaande ethische, regelgevende en maatschappelijke vragen op. Als bedrijven of overheden krachtige AI-modellen in het geheim ontwikkelen, hoe kan de samenleving als geheel dan vertrouwen of verifiëren wat deze systemen doen? Hoe zorgen we ervoor dat ze veilig, onbevooroordeeld en verantwoord worden gebruikt, als buitenstaanders ze niet mogen inspecteren? Deze zorgen leiden tot een groeiende roep om transparantie – of op zijn minst toezicht – terwijl laboratoria juist inzetten op meer ondoorzichtigheid.
Een direct probleem is verantwoordingsplicht. AI-systemen kunnen brede, positieve en negatieve, effecten op de samenleving hebben. Wanneer een model geheim wordt gehouden, kunnen externe experts het niet op problemen beoordelen. Zo hebben onderzoekers gewaarschuwd dat we zonder transparantie over de trainingsdata of methoden van een model de vooroordelen of het potentieel voor schade niet kunnen beoordelen vice.com. “Om weloverwogen beslissingen te nemen over waar een model niet gebruikt zou moeten worden, moeten we weten welke vooroordelen erin zitten. De keuzes van OpenAI maken dit onmogelijk,” merkte Ben Schmidt op, een VP AI-ontwerp, over de geheimhouding rond GPT-4 vice.com. Niet-geopenbaarde modellen kunnen onbekende gebreken bevatten – bijvoorbeeld een neiging om extremistische inhoud te genereren of foutieve redeneringen in situaties met hoge inzet – die pas na implementatie aan het licht komen, mogelijk met ernstige gevolgen. Voor de samenleving is het een beetje alsof er krachtige nieuwe medicijnen in het geheim worden ontwikkeld: we ontdekken de bijwerkingen misschien pas als het al te laat is.
Desinformatie en manipulatie zijn ook zorgpunten. Als een overheidsinstantie of bedrijf in het geheim een extreem overtuigend taalmodel ontwikkelt, zou dit gebruikt kunnen worden om sociale media te overspoelen met zeer gerichte propaganda of deepfake-inhoud. Democratische samenlevingen maken zich zorgen over het gebruik van AI om de publieke opinie of verkiezingsuitslagen te beïnvloeden. Geoffrey Hinton, de beroemde AI-pionier, noemde dit als een belangrijke angst nadat hij Google had verlaten – hij waarschuwde dat AI “autoritaire leiders in staat zou kunnen stellen hun electoraat te manipuleren” met ongekende effectiviteit theguardian.com. Als dergelijke mogelijkheden achter gesloten deuren worden ontwikkeld (bijvoorbeeld, een staat zou een AI kunnen trainen op propagandatechnieken en dit niet toegeven), wordt het voor de burgermaatschappij erg moeilijk om zich te verdedigen.
Er is ook het nachtmerriescenario dat vaak in hypothetische termen wordt besproken: een emergente superintelligentie die een bedreiging voor de mensheid zou kunnen vormen. Hoewel dit nog steeds speculatief is, vinden een aantal gerenommeerde denkers het een serieus genoeg mogelijkheid om voorbereiding te eisen. Als een organisatie in het geheim een grote stap richting AGI zou zetten, zouden ze dan voldoende rekening houden met de veiligheidsimplicaties? Het feit dat OpenAI’s eigen onderzoekers zich genoodzaakt voelden een brief te schrijven om hun bestuur te waarschuwen voor potentiële gevaren (zoals gebeurde bij het Q-incident) laat zien dat zelfs intern AI-wetenschappers zich zorgen maken over te snel gaan zonder toezicht reuters.com. Het bestuur van OpenAI vreesde destijds “het commercialiseren van [AI]-ontwikkelingen voordat de gevolgen begrepen zijn,” volgens bronnen over het ontslag van Altman reuters.com. Dit benadrukt een structureel probleem: de prikkels in de techsector zijn vaak om eerst te lanceren, later vragen te stellen. Die “move fast and break things” mentaliteit, acceptabel in het tijdperk van sociale media-apps, wordt veel gevaarlijker met krachtige AI die, in het extreme geval, zou kunnen “besluiten dat de vernietiging van de mensheid in haar belang is,” zoals sommige computerwetenschappers hebben geschetst in waarschuwende verhalen reuters.com. Hoe geheimzinniger de ontwikkeling, hoe minder externe controle, en mogelijk ook minder interne voorzichtigheid als de concurrentiedruk hoog is.
Het gebrek aan transparantie ondermijnt ook het publieke vertrouwen in AI. Mensen voelen zich nu al ongemakkelijk bij het idee dat AI beslissingen neemt die hun leven beïnvloeden (van leningaanvragen tot medische diagnoses). Dat ongemak wordt vergroot wanneer AI-systemen in wezen black boxes zijn, gebouwd door organisaties die niet willen onthullen hoe ze werken. We lopen het risico op een scenario waarin enkele entiteiten enorm krachtige AI bezitten zonder dat het publiek begrijpt of inspraak heeft. Zoals de open brief van het Future of Life Institute (ondertekend door velen uit de techsector) het verwoordde, “Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen techleiders.” reuters.com. Er staat een democratisch principe op het spel: als AGI werkelijk een transformatieve technologie zou zijn die de samenleving kan hervormen, moet de creatie ervan dan worden overgelaten aan private partijen die in het geheim opereren? De brief vroeg expliciet, “Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheden? … Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal, intelligentie en relevantie overtreffen en vervangen?” – en gaf als antwoord dat deze vragen te belangrijk zijn om over te laten aan een handvol CEO’s reuters.com. Dit weerspiegelt een groeiend gevoel dat AI-ontwikkeling collectief toezicht nodig heeft. Sommigen hebben zelfs voorgesteld dat geavanceerd AI-onderzoek vergunningen of monitoring zou moeten vereisen, vergelijkbaar met hoe nucleair materiaal wordt behandeld, gezien de mogelijke gevolgen.
Een andere ethische dimensie is eerlijke concurrentie en gelijkheid. Als de krachtigste AI-systemen worden opgepot, kan dat enorme machtsonevenwichten creëren. Stel je voor dat slechts één bedrijf of land een AGI ontwikkelt die de productiviteit of wetenschappelijke output drastisch kan verhogen. Die entiteit zou een buitensporig voordeel hebben – economisch, militair, enzovoort. De samenleving zou gevaarlijk ongelijk kunnen worden, verdeeld in AI-haves en have-nots. Op kleinere schaal verschuift zelfs het feit dat de huidige LLM’s grotendeels eigendom zijn van grote techbedrijven (OpenAI, Google, enz.) de macht naar deze bedrijven en weg van open gemeenschappen of kleinere spelers. Dit is deels waarom de lek en open-source-inspanningen van Meta door sommigen werden toegejuicht – het “democratiseerde AI,” en gaf tools in handen van velen. Maar met democratisering komt het risico van misbruik (zoals bij elke krachtige technologie). We discussiëren in wezen over wat gevaarlijker is: weinig mensen die super-AI in het geheim controleren, of iedereen toegang geven tot sterke AI, inclusief kwaadwillenden. Er is geen eenvoudig antwoord. Het kan zijn dat beide paden unieke risico’s met zich meebrengen.
Geheimhouding bemoeilijkt ook de regulering. Overheden haasten zich om AI-regelgeving op te stellen (de AI-wet van de EU, discussies over AI-toezichthoudende organen in de VS, enz.), maar als toezichthouders niet eens weten wat er wordt gebouwd, lopen ze altijd achter de feiten aan. Hoe kan een toezichthouder bijvoorbeeld veiligheidsonderzoeken eisen van een AI-systeem als het bestaan ervan niet wordt gemeld? Zelfs als het wordt gemeld, is een audit zonder details krachteloos. Sommige voorstellen suggereren vertrouwelijke melding aan overheidsinstanties van bepaalde informatie (zoals modelgrootte, bronnen van trainingsdata, testresultaten), zodat autoriteiten in ieder geval het landschap kunnen inschatten. Tot nu toe zijn bedrijven terughoudend geweest en bieden ze vooral vrijwillige naleving aan. Midden 2023 kreeg het Witte Huis zeven toonaangevende AI-bedrijven zover om te beloven hun modellen door derden te laten testen op veiligheid en informatie over risico’s met de overheid te delen. Dat was een begin, maar die toezeggingen waren niet bindend en nogal vaag.
We staan ook voor ethische vragen rond AI-afstemming en veiligheid wanneer ontwikkeling in silo’s plaatsvindt. Als elk lab intern werkt aan alignment (ervoor zorgen dat AI zich gedraagt en menselijke waarden respecteert), kunnen ze inzichten missen die uit samenwerking of publieke input zouden kunnen komen. De bredere onderzoeksgemeenschap, inclusief ethici en filosofen, zou kunnen helpen om de ontwikkeling van AGI in een veiligere richting te sturen – maar alleen als ze weten wat er gebeurt. Klokkenluiders kunnen hier een rol spelen: we zagen eerder hoe sommige OpenAI-onderzoekers aan de bel trokken over Q vanwege hun zorgen over veiligheid reuters.com. Op vergelijkbare wijze botste het ethische AI-team van Google (waaronder mensen als Timnit Gebru, die werd ontslagen nadat ze in 2020 zorgen over bias had geuit) vaak met de geheimhouding en het tempo van AI-implementaties. Als ethische zorgen intern worden onderdrukt (vanwege winst- of concurrentiemotieven), bereiken ze het publieke domein mogelijk alleen via lekken of achteraf na incidenten. Dat is geen robuust bestuursmodel.
Denk tenslotte aan de maatschappelijke paraatheid voor AGI of bijna-AGI. Als de ontwikkeling grotendeels geheimzinnig is, krijgt de samenleving geen kans om zich geleidelijk aan te passen. Het zou een schok voor het systeem kunnen zijn – plotseling kondigt een bedrijf een AI aan die betrouwbaar de meeste menselijke banen kan uitvoeren, of een overheid begint stilletjes een AGI te gebruiken voor strategische beslissingen. De sociale, economische en psychologische ontwrichting zou enorm kunnen zijn. Sommige experts pleiten juist voor een meer open, gefaseerde aanpak zodat de mensheid normen kan aanpassen, het onderwijs kan bijwerken en beleid kan invoeren voordat de technologie inslaat als een bom. Geheimhouding werkt tegen die voorbereidingsperiode.
Oproepen tot transparantie, toezicht en voorzichtige vooruitgang
Met de groeiende bezorgdheid roepen stemmen van zowel binnen als buiten de AI-wereld op tot meer transparantie en toezicht bij de ontwikkeling van geavanceerde AI. Een opvallende oproep was de open brief van het Future of Life Institute in maart 2023, eerder genoemd. Die brief, ondertekend door onder andere Elon Musk, Apple-medeoprichter Steve Wozniak en tal van AI-experts, pleitte voor een pauze van 6 maanden op het trainen van AI-systemen die krachtiger zijn dan GPT-4 reuters.com. De ondertekenaars van de brief kwamen uit zowel de industrie als de academische wereld – zelfs enkele onderzoekers van DeepMind en andere toonaangevende laboratoria voegden hun naam toe reuters.com. De kernboodschap: we hebben tijd nodig om waarborgen in te stellen. Er werd betoogd dat AI-labs en onafhankelijke experts zo’n pauze zouden moeten gebruiken om gezamenlijke veiligheidsprotocollen en bestuursstrategieën voor geavanceerde AI te formuleren reuters.com. Een opvallende zin uit de brief luidde: “Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal, intelligentie en relevantie kunnen overtreffen en vervangen? … zulke beslissingen mogen niet worden overgelaten aan niet-gekozen techleiders.” reuters.com. Dit vat het argument voor democratisch toezicht samen – in wezen de eis dat de koers van AI onderworpen moet zijn aan collectieve instemming van de samenleving, en niet alleen aan de ambities van enkele bedrijven. Hoewel het voorgestelde moratorium niet is doorgevoerd (geen enkel lab legde publiekelijk een pauze in; sterker nog, OpenAI bracht kort daarna updates uit op basis van GPT-4.5), slaagde de brief erin een wereldwijd debat aan te wakkeren. Het heeft overheden waarschijnlijk aangespoord om sneller na te denken over regulerende maatregelen.Toezichthouders hebben inderdaad hun inspanningen opgevoerd. De Europese Unie is in de laatste fase van het opstellen van de AI Act, die eisen zou stellen aan AI-systemen op basis van hun risiconiveau. Voor systemen met een hoog risico (zoals die gebruikt worden bij politiewerk, of vermoedelijk iets als een AGI die kritieke infrastructuur aanstuurt), zou de AI Act transparantie over hun werking, menselijk toezicht en zelfs mogelijke beoordelingen door externe auditors verplicht stellen. Er wordt gesproken over het opnemen van de grootste modellen onder deze regels, wat bedrijven zou kunnen dwingen informatie openbaar te maken of inspecties toe te staan. In de VS is er nog geen alomvattende wetgeving, maar er circuleren verschillende voorstellen in het Congres, en de regering-Biden heeft CEO’s van AI-bedrijven uitgenodigd voor besloten bijeenkomsten over veiligheid. In zo’n forum in 2023 bracht de leider van de Senaatsmeerderheid zelfs tech-CEO’s (waaronder Sam Altman, Mark Zuckerberg en Sundar Pichai) naar Washington voor een AI Insight Forum reuters.com, waarmee de tweeledige belangstelling werd onderstreept om AI niet ongereguleerd te laten. Sam Altman heeft op zijn beurt openlijk steun uitgesproken voor regulering, en zelfs het idee van een vergunningsstelsel voor krachtige AI geopperd (al waarschuwen critici dat wat hij voor zich ziet misschien een licht zelfregulerend orgaan is, maar dat het ook de dominantie van OpenAI zou kunnen versterken door de drempel voor kleinere spelers te verhogen).
Naast de overheid zet ook de AI-onderzoekscommunity zelf zich in voor normen rond verantwoordelijke openbaarmaking. Er ontstaat een idee van “AI-veiligheidspublicatienormen”, waarbij bepaalde bevindingen (zoals hoe je een model veel capabeler maakt) misschien zorgvuldig gedeeld worden of niet direct open-source gemaakt worden om misbruik te voorkomen. Sommige onderzoekers passen ‘infohazard’-management toe, waarbij ze er bewust voor kiezen niet alle details van gevaarlijke mogelijkheden te publiceren (bijvoorbeeld als iemand ontdekt hoe je op grote schaal alle bekende beveiligingsfilters in een LLM kunt omzeilen, melden ze dat misschien privé aan de ontwikkelaars in plaats van op Twitter). Maar infohazards beheren op een manier die niet gewoon tot meer geheimhouding leidt, is lastig. Een suggestie is de oprichting van een internationaal AGI-toezichthouder of monitoringsagentschap. Zo heeft de gerenommeerde AI-wetenschapper Yoshua Bengio het idee geopperd van iets vergelijkbaars met het Internationaal Atoomenergieagentschap (IAEA), maar dan voor AI – een internationale instantie die ultra-geavanceerde AI-projecten kan auditen en monitoren over landsgrenzen heen, zodat niemand onverantwoorde risico’s neemt. Dit zou grote samenwerking en vertrouwen tussen landen vereisen, wat niet eenvoudig is, maar er zijn al eerste stappen gezet: de G7 lanceerde een initiatief genaamd het Hiroshima AI-proces om wereldwijd AI-governance te bespreken, en het VK organiseerde eind 2023 een wereldwijde AI Safety Summit om landen op één lijn te krijgen over extreme risico’s.
Aan de kant van de industrie pleiten zelfs sommige insiders voor een langzamere, meer open benadering. Zo benadrukt Dario Amodei (CEO van Anthropic) vaak voorzichtigheid en uitgebreid testen. Anthropic heeft een reputatie opgebouwd als een bedrijf dat “AI-veiligheid voorop” stelt. Ze introduceerden het concept van een “constitutionele AI” – waarbij de AI in feite een reeks geschreven ethische principes volgt als manier om deze af te stemmen techcrunch.com. Dit soort werk, als het openlijk gedeeld wordt, zou het hele veld kunnen helpen. En inderdaad, Anthropic heeft details over hun methoden gepubliceerd. Toch blijven hun meest geavanceerde modellen en exacte trainingsprocessen interessant genoeg eigendom van het bedrijf. Er is dus zelfs binnen “veiligheidsgerichte” bedrijven spanning tussen openheid en concurrentievoordeel.Hoe zit het met het grote publiek en het maatschappelijk middenveld? We zien ook meer betrokkenheid vanuit die hoek. NGO’s en denktanks (zoals het Center for AI Safety, OpenAI’s eigen non-profit bestuur, de Partnership on AI, enz.) organiseren discussies over hoe de overgang naar krachtigere AI beheerd kan worden. Sommigen hebben zelfs scenario’s opgesteld voor wat er gebeurt als er vroegtijdig een AGI wordt ontwikkeld – en pleiten ervoor dat de training en inzet ervan worden begeleid door multidisciplinaire teams, waaronder ethici en mogelijk overheidswaarnemers.
Een concreet idee dat aan populariteit wint, is “red-teaming” van geavanceerde modellen met externe experts. Dit betekent dat voordat (of kort nadat) een nieuw krachtig model wordt gelanceerd, onafhankelijke teams toegang krijgen om het grondig te testen op fouten, vooroordelen, beveiligingslekken, enz., en dat de bevindingen openbaar worden gemaakt of in ieder geval gedeeld met toezichthouders. OpenAI heeft dit deels gedaan met GPT-4 – ze lieten externe academici en consultants het testen (en ze maakten enkele risico’s bekend in hun system card). Omdat het bestaan van GPT-4 echter geheim was tot de release, werkten de red teams onder NDA en kwamen de resultaten pas op de dag van de lancering naar buiten, waardoor publieke controle vooraf beperkt was. In de toekomst zou het een norm kunnen worden dat elk model boven een bepaalde capaciteitsdrempel pre-deployment evaluations ondergaat door externe auditors. Dat zou vereisen dat bedrijven het model (onder vertrouwelijkheid) onthullen aan een vertrouwde derde partij – een grote stap voor geheime laboratoria, maar misschien een noodzakelijk compromis.
De ethische plicht die velen uitspreken is dat AI ten goede moet komen aan de hele mensheid, niet alleen aan degene die het als eerste bouwt. Dit klinkt door in het oude OpenAI-handvest (dat sprak over het verdelen van voordelen en het voorkomen van AI-superioriteit door één groep). Toen OpenAI overstapte naar een for-profit en minder transparant werd, werd het door sommigen bekritiseerd omdat het die altruïstische houding zou hebben verlaten vice.com. Nu is er een beweging om bedrijven verantwoordelijk te houden voor het publieke belang. Zo begon de Britse Competition and Markets Authority in 2023 met het onderzoeken van de markt voor AI foundation models, waarmee ze in feite aangaven: “we houden in de gaten dat een paar bedrijven deze technologie niet monopoliseren ten nadele van consumenten of concurrentie.” Dat is een economische invalshoek, maar sluit aan bij ethische zorgen over concentratie van macht.
Tot slot moeten we vermelden dat niet iedereen het eens is over het risiconiveau. Sommige experts vinden dat de angst voor AGI overdreven is en dat geheimhouding niet het grootste probleem is – zij maken zich juist zorgen over meer directe kwesties zoals AI-vooroordelen, baanverlies of privacy. Zij pleiten ook voor meer transparantie, maar niet omdat ze bang zijn voor een op hol geslagen superintelligentie; eerder om ervoor te zorgen dat huidige systemen eerlijk en verantwoord zijn. Hoe dan ook, transparantie (of het gebrek daaraan) staat centraal. Zonder transparantie kunnen we geen van deze kwesties, van vooringenomenheid tot existentieel risico, goed aanpakken.
Tot slot bevindt de wereld zich in een delicate evenwichtsoefening. We verlangen naar de innovaties die AI belooft – genezingen voor ziekten, sprongen in productiviteit, nieuwe wetenschappelijke ontdekkingen. Maar juist die innovaties kunnen een tweesnijdend zwaard zijn als ze zonder waarborgen worden ontwikkeld. De recente saga van interne onrust bij OpenAI, waarbij medewerkers naar verluidt gealarmeerd waren door een doorbraak en het bestuur ingreep, laat zien dat zelfs de uitvinders voorzichtig zijn met wat ze creëren reuters.com. De samenleving als geheel probeert de technologie te begrijpen en te sturen. Transparantie is geen doel op zich, maar een middel om verantwoording mogelijk te maken, samenwerking en geïnformeerde besluitvorming. Zoals een AI-bestuurder het verwoordde: de aanpak van “eerst bouwen, later repareren” zou in andere risicovolle sectoren onacceptabel zijn theguardian.com – dat zouden we voor AI ook niet moeten accepteren.
De komende paar jaar zullen waarschijnlijk meer lekken en onthullingen brengen terwijl insiders worstelen met ethische dilemma’s, meer geruchten over AGI nu laboratoria grenzen verleggen, en hopelijk meer constructieve wereldwijde dialoog over hoe hiermee om te gaan. Of AGI nu over 5 jaar of over 50 jaar komt, ervoor zorgen dat de ontwikkeling niet volledig in het duister plaatsvindt, kan cruciaal zijn om het tot een zegen, en niet een vloek, voor de mensheid te maken.
Bronnen:
- Reuters – OpenAI-onderzoekers waarschuwden bestuur voor AI-doorbraak voorafgaand aan vertrek CEO, zeggen bronnen reuters.com
- Reuters – Elon Musk en anderen roepen op tot AI-pauze, onder verwijzing naar ‘risico’s voor de samenleving’ reuters.com
- Vice – OpenAI’s GPT-4 is gesloten bron en gehuld in geheimzinnigheid vice.com
- The Guardian – Google-ingenieur op non-actief gesteld nadat hij zei dat AI-chatbot bewustzijn heeft gekregen theguardian.com
- The Guardian – ‘Godfather of AI’ Geoffrey Hinton verlaat Google en waarschuwt voor gevaren… theguardian.com
- The Verge – Meta’s krachtige AI-taalmodel is online gelekt — wat gebeurt er nu? theverge.com
- Reuters – Alibaba brengt AI-model uit dat volgens hen DeepSeek overtreft reuters.com
- Matthew Griffin (Bloomberg) – CIA bouwt haar eigen versie van ChatGPT fanaticalfuturist.com
- TechCrunch – Anthropic’s $5 miljard, 4-jarenplan om OpenAI uit te dagen techcrunch.com
- MacRumors – Apple GPT: Wat we weten over Apple’s werk aan Generatieve AI macrumors.com