Leleplezve: A titkos MI-verseny kulisszái mögött – Kiszivárgások, pletykák és a rejtett AGI-hajsza

augusztus 20, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI
A világ legnagyobb technológiai laboratóriumai titkos versenyben állnak, hogy megalkossák a mesterséges intelligencia következő nagy áttörését – talán még egy általános mesterséges intelligenciát (AGI) is, egy olyan rendszert, amely emberi szintű (vagy annál is nagyobb) kognitív képességekkel rendelkezik. Miközben az olyan AI chatbotok, mint a ChatGPT, lenyűgözték a nyilvánosságot, bennfentesek és kiszivárgott dokumentumok még erősebb nagy nyelvi modellek (LLM-ek) és AGI projektek érkezését sejtetik, amelyek zárt ajtók mögött készülnek. Az OpenAI és a DeepMind titkos kutatásaitól kezdve a rejtett kormányzati programokig, ezek a fejlesztések egy titokzatosság hálójába burkolóznak. Ez a jelentés a legújabb (2024–2025) kiszivárogtatásokat és spekulációkat vizsgálja a nyilvánosságra nem hozott AI modellekről, az AI vezetők titkolózó kultúrájáról, a geopolitikai versengésről az AI területén, valamint a hatékony AI sötétben történő fejlesztésének etikai dilemmáiról. Elkülönítjük a megerősített tényeket a pletykáktól, idézünk szakértőket és bejelentőket, és megvizsgáljuk, mit jelent mindez a társadalom számára.

Kiszivárgások és pletykák a nyilvánosságra nem hozott AI áttörésekről (2024–2025)

OpenAI „Q” felfedezése: 2023 végén egy OpenAI-kutatók által az igazgatótanácsnak írt belső levél spekulációk viharát váltotta ki. A levél egy erőteljes AI algoritmusra figyelmeztetett, amelyet „Q” (Q-Star) fedőnéven ismertek, és amelyről a munkatársak úgy vélték, hogy jelentős lépés lehet az AGI felé. A Reuters beszámolója szerint a modell példátlan képességet mutatott bizonyos matematikai problémák megoldásában – nagyjából általános iskolai szinten teljesített, de ezt következetesen és helyesen tette. Ez azért volt figyelemre méltó, mert a mai generatív AI-k (mint a ChatGPT) gyakran küzdenek a matematikával vagy a logikai következetességgel. „Az OpenAI-nál néhányan úgy vélik, hogy a Q áttörést jelenthet a startup AGI-keresésében” – írta a Reuters, megjegyezve, hogy már az általános iskolai matematika hibátlan teljesítése is „nagyon optimistává tette a kutatókat Q jövőbeli sikerét illetően”. Az OpenAI nyilvánosan nem adta ki a Q-t, és képességeit sem erősítette meg teljes mértékben, de a projekt létezését belsőleg elismerte a munkatársak előtt a sajtóérdeklődés után. A Q körüli titkolózás – és drámai szerepe az OpenAI vezérigazgatója, Sam Altman 2023. novemberi váratlan menesztésében – tovább táplálta a találgatásokat, hogy az OpenAI talán „visszahúzta a tudatlanság fátylát” egy jelentős felfedezéssel. (Altman maga is utalt rá néhány héttel korábban, hogy „jelentős előrelépések vannak kilátásban”, titokzatosan hozzátéve, hogy több áttörésnek is tanúja volt, „a legutóbbi éppen az elmúlt hetekben” történt.) Sok megfigyelő gyanítja, hogy a Q egy olyan érvelőmotor, amelyet ha felskáláznak, képes lehet új problémák megoldására, túlmutatva a mai chatbotok képességein – lényegében a mesterséges általános intelligencia magja lehet.

GPT-5 és más be nem jelentett modellek: Az OpenAI 2024-ben nyilvánosan elérhető modellje továbbra is a GPT-4 (ez működteti a ChatGPT-t és a Binget), de mi a helyzet az utódjával? A vállalat rendkívül szűkszavúan nyilatkozott erről a témáról. 2023 márciusában több mint ezer szakértő írt alá egy nyílt levelet, amelyben arra szólítottak fel, hogy biztonsági aggályok miatt szüneteltessék a “GPT-4-nél erősebb” rendszerek fejlesztését reuters.com. Sam Altman válaszul biztosította a közvéleményt, hogy az OpenAI “nem [fejleszti] a GPT-5-öt”, és egy ideig még nem is fogja techcrunch.com. 2024 közepén Altman megismételte, hogy “sok munkájuk van még” az új ötleteken, mielőtt belekezdenének a GPT-5-be techcrunch.com. Ennek ellenére továbbra is tartják magukat a pletykák, hogy előkészítő munka már folyik házon belül a következő generációs modellen – akár GPT-5-nek hívják majd, akár másnak. Az OpenAI híresen nem árult el részleteket a GPT-4 felépítéséről sem (erről lentebb bővebben), így a GPT-5 teljes létezése és fejlesztése (ha létezik) valószínűleg titokban maradna a nyilvános bejelentésig. Figyelemre méltó, hogy egy friss elemzés a The Guardian-ban (2025. augusztus) megemlítette “az OpenAI új GPT-5 modelljét” mint “jelentős lépést az AGI felé vezető úton” – bár még mindig “valami nagyon fontos hiányzik belőle” az igazi emberi-szerű tanulás szempontjából theguardian.com. Ez arra utal, hogy 2025-re a GPT-5-öt talán már nagy felhajtással bemutatták, de még ez sem feltétlenül az a mindent megváltoztató áttörés, amitől egyesek tartanak a színfalak mögött. Mindenesetre a GPT-5 fejlesztését szokatlan titkolózás övezi, az OpenAI hosszú ideig sem megerősíteni, sem cáfolni nem volt hajlandó a státuszát – ezzel is táplálva a pletykákat, hogy valami nagy dolog készülhet a zárt ajtók mögött.

A Google DeepMind következő lépései: A Google MI részlege (amely most már a Google Brain és a DeepMind egyesülése) szintén dolgozik ultra-fejlett modelleken, gyakran anélkül, hogy nyilvánosságra hoznák őket egészen egy stratégiai pillanatig. 2023 végén a Google bejelentette, hogy fejleszti a „Gemini” nevű következő generációs MI-modellt, amely a DeepMind híres AlphaGo technikáit ötvözné a nagy nyelvi modellek (LLM-ek) nyelvi képességeivel en.wikipedia.org. Bár a Gemini fejlesztését nyilvánosságra hozták, sok részlet titokban maradt a végső megjelenéséig. 2024 elejére jelentések érkeztek arról, hogy a Gemini 1.0 bizonyos mérőszámokban felülmúlta az OpenAI GPT-4-et iconext.co.th, és egy Ultra verzió is készülőben volt. Ez a versenybeli ugrás – amelyet nagyrészt házon belül, a Google-nél értek el – jól mutatja, hogy a technológiai óriások gyakran titkos üzemmódban dolgoznak áttörést jelentő modelleken, és csak akkor mutatják be őket, amikor készen állnak a trónkövetelésre. Hasonlóképpen, a DeepMind-nak is van múltja titkos projektekben: például a LaMDA, a Google fejlett beszélgető LLM-je, belsőleg készült, és a nyilvánosság főként kutatási cikkekből és egy hírhedt szivárgásból ismerte meg (egy Google-mérnök állítása szerint a LaMDA „öntudatra ébredt”, erről később még szó lesz). Csak 2022–2023-ban, amikor a LaMDA származékát Bard chatbotként kiadták, találkozhatott vele a nagyközönség. Ez a minta – hosszú titkos fejlesztés, majd hirtelen nyilvános bemutatkozás – iparági normának tűnik. Más laborok, mint például az Anthropic (OpenAI-alumni által alapítva) szintén jelezték, hogy nagy modellfrissítések várhatók, anélkül, hogy minden részletet elárulnának. 2023-ban egy kiszivárgott Anthropic befektetői prezentáció részletezte egy „Claude-Next” modell tervét, amely 10-szer erősebb lenne a jelenlegi legerősebb MI-nél, és akár 1 milliárd dollárnyi számítási kapacitást igényelhet a betanításához techcrunch.com. Az Anthropic ezt a határmodellt úgy írta le, mint amelynek célja az „MI önálló tanulása”, és utalt arra, hogy akár „az egész gazdaság nagy részének automatizálását is megkezdheti” techcrunch.com – ez a törekvés gyakorlatilag a korai AGI (általános mesterséges intelligencia) egy formájának felel meg. Mégis, a kiszivárgott dokumentumokon kívül az Anthropic hallgat a Claude-Next fejlesztéséről, és a nyilvánosság felé inkább az iteratív frissítésekre (mint a Claude 2) koncentrál. A tényleges képességbeli különbség aközött, ami nyilvánosan elérhető, és ami a laborban készül, sokkal nagyobb lehet, mint gondolnánk.

Új és kevéssé ismert szereplők: Nem csak a jól ismert cégek vannak jelen – néha sötét ló projektek bukkannak fel, amelyek a szakértőket is meglepik. Egy feltűnő példa Kínából érkezett: 2025 januárjában egy viszonylag ismeretlen startup, a DeepSeek robbant be a köztudatba egy olyan modellel (DeepSeek-V3 és egy későbbi „R1” verzió), amely állítólag felveszi a versenyt az OpenAI legjobbjaival. A kínai tech közösség – sőt, még a Szilícium-völgy is – megdöbbent, amikor a DeepSeek AI asszisztense sokkolta az iparágat azzal, hogy több teszten is felülmúlta vagy utolérte az OpenAI modelljeit, mindezt a költségek töredékéért reuters.com. „A DeepSeek AI-ja…sokkolta a Szilícium-völgyet, és a tech részvények zuhanását okozta,” számolt be a Reuters, kiemelve a startup alacsony fejlesztési költségeit és azt az állítást, hogy az R1 modell teljesítménye megegyezett az OpenAI „o1” modelljével reuters.com. (A terminológia arra utal, hogy a DeepSeek egy OpenAI „o1” kódnevű modellel hasonlította össze magát, talán a GPT-4 egy verziójával.) A DeepSeek alapítója, egy fiatal kutató, Liang Wenfeng, nagyon kevés interjút adott, de az egyikben bátran kijelentette, hogy az AGI elérése a cég fő célja, és hogy a nagy technológiai cégekkel ellentétben az ő kis csapata „nem törődik” a profittal vagy akár az AI felhőszolgáltatások folyamatos árversenyével reuters.com. Az ilyen rejtett fejlesztések rávilágítanak arra, hogy a csúcstechnológiás AI nem kizárólag a megszokott nyugati laboratóriumok kiváltsága – lehetnek rendkívül fejlett modellek, amelyeket titokban startupok vagy kormányzati intézetek fejlesztenek máshol. Valójában már 2021-ben Kína Pekingi AI Akadémiája bejelentette a Wu Dao 2.0-t, egy multimodális AI-t, amelynek elképesztő 1,75 billió paramétere volt (tízszer annyi, mint a GPT-3-nak) aibusiness.com. A Wu Dao egy hatalmas modell volt, amely képes volt szöveget és képet generálni, de nem volt nyílt forráskódú; inkább annak bizonyítéka volt, hogy Kína képes a határokat feszegető kutatásokra az USA laboratóriumaival egy szinten – vagy akár azon túl is. Kínán kívül kevesen látták működés közben a Wu Dao-t, így máig legendának számít. A lényeg, hogy világszerte vannak AI projektek, amelyekről csak suttogásokat hallunk, amíg hirtelen be nem mutatják őket (vagy ki nem szivárognak). Az első figyelmeztetés a világ számára lehet egy kutatási cikk, egy szabályozási bejelentés – vagy egy névtelenül feltöltött modell-súly egy fórumon (ahogy az a Meta LLaMA esetében történt, lásd lejjebb). Ebben a légkörben a váratlan lett a megszokottá, és minden titkos modellről vagy AGI „áttörésről” szóló pletyka izgalmat és aggodalmat kelt az AI közösségben.

A titkolózás kultúrája az AI laborokban

Annak ellenére, hogy az iparág eredetileg az akadémiai és nyílt kutatásból indult, a mai AI vezetők egyre szűkszavúbbak a legfejlettebb munkájukat illetően. Erre kiváló példa az OpenAI. Ironikus módon, átláthatóságot sugalló neve ellenére, az OpenAI a legfejlettebb modelljei esetében szélsőséges titkolózásra váltott. Amikor GPT-4 2023 márciusában megjelent, az OpenAI semmilyen információt nem közölt a modell architektúrájáról vagy a tanítási folyamatról – sem paraméterszámot, sem részleteket a hatalmas adathalmazról vagy a használt hardverről vice.com. A technikai jelentésben a cég egyenesen kijelentette: „Tekintettel a versenykörnyezetre és a nagy léptékű modellek, mint a GPT-4, biztonsági vonatkozásaira, ez a jelentés nem tartalmaz további részleteket az architektúráról … hardverről, tanítási számításról, adathalmaz összeállításáról, [vagy] tanítási módszerről.” vice.com. Ez teljes 180 fokos fordulatot jelentett az OpenAI alapító nyitottsági elveihez képest vice.com. Ahogy egy jelentés megjegyezte, a GPT-4 volt „a cég eddigi legtitkosabb kiadása”, sőt, „teljes 180 fokos fordulat az OpenAI nonprofit, nyílt forráskódú entitásként indult alapelveihez képest.” vice.com. A kritikusok az átláthatóság hiányát támadták. „Miután elolvastam a közel 100 oldalas jelentést, több kérdésem van, mint válaszom,” mondta Sasha Luccioni, a Hugging Face AI kutatója, hozzátéve, hogy „nehéz számomra olyan eredményekre támaszkodni, amelyeket nem tudok ellenőrizni vagy megismételni.” vice.com Egy másik szakértő, Prof. Emily M. Bender tweetelte, hogy az OpenAI titkolózása nem meglepő, de sajnálatosnak tartja, hogy „Szándékosan figyelmen kívül hagyják a legalapvetőbb kockázatcsökkentési stratégiákat, miközben azt hirdetik, hogy az emberiség javáért dolgoznak.” vice.com. Még az OpenAI saját vezérigazgatója és vezető tudósa is elismerte a változást. Ilya Sutskever, aki korábban a nyílt AI kutatás élharcosa volt, a GPT-4 titkolózását azzal védte, hogy „nagy a verseny… versenyszempontból ez a terület érésének tekinthető”, végül pedig elismerte, hogy „hibáztunk”, amikor kezdetben nyílt forráskódúak voltunk vice.com. Röviden: az OpenAI ma már inkább egy vállalati K+F laboratóriumként működik, amely üzleti titkot őriz.

Más mesterséges intelligencia laborok is hasonlóan titkolóznak a részletekről, ahogy projektjeik elérik a csúcstechnológiát. A DeepMind például számos áttörést jelentő tanulmányt publikált (például az AlphaGo-ról, AlphaFoldról stb.), de ritkán teszi közzé a modell súlyait vagy a legújabb rendszereinek teljes technikai tervrajzait. Amikor a DeepMind kifejlesztette a Gopher-t (egy nagy nyelvi modellt) vagy a Sparrow-t (egy párbeszéd-ügynököt), a nyilvánosság tudományos publikációkon keresztül értesült a képességeikről, de maguk a modellek házon belül maradtak. A Google LaMDA modellje hosszú ideig belső használatban maradt, míg az OpenAI előretörése miatti nyomás rá nem kényszerítette a Google-t, hogy sietve kiadjon egy terméket (Bard), amely a LaMDA-n alapult. Figyelemre méltó, hogy a világ talán sosem tudta volna meg, mennyire hátborzongató és emberi-szerű lehet a LaMDA beszélgetése, ha nincs egy whistleblower incident: 2022-ben egy Google-mérnök, Blake Lemoine, nyilvánosságra hozta, hogy szerinte a LaMDA „öntudatra ébredt” – ezt a tudósok egyöntetűen elutasították, de óriási figyelmet irányított arra, amit a Google titokban épített theguardian.com. A Google felfüggesztette Lemoinét titoktartás megsértése miatt (megosztotta a mesterséges intelligenciával folytatott beszélgetéseinek átiratait) theguardian.com. Az eset nemcsak azt emelte ki, mennyire fejletté váltak a Google láthatatlan chatbotjai, hanem „új megvilágításba helyezte a mesterséges intelligencia világát övező titkolózást”, ahogy azt The Guardian is megjegyezte akkoriban theguardian.com. Lemoine maga így nyilatkozott: „A Google ezt szellemi tulajdon megosztásának nevezheti. Én úgy hívom, hogy megosztottam egy beszélgetést, amit az egyik munkatársammal folytattam”, ezzel provokatív módon elmosva a határt a mesterséges intelligencia és az emberi kolléga között theguardian.com. Bár az öntudatra ébredésről szóló állításait cáfolták, a kiszivárgott beszélgetések tartalma azt mutatta, hogy a LaMDA félelmet fejezett ki a lekapcsolástól, és vágyott arra, hogy személyként ismerjék el theguardian.com – ezek biztosan nem szerepeltek a Google nyilvános narratívájában a mesterséges intelligenciájáról. Ez élénk példája annak, hogy a mesterséges intelligencia képességei zárt ajtók mögött sokkal gyorsabban fejlődhetnek, mint azt a kívülállók gondolnák, amíg valamilyen szivárgás vagy bennfentes beszámoló fényt nem derít rájuk (akár pontosan, akár nem).

Az

Anthropic és a Meta AI ellentétet mutatnak az átláthatóság terén, bár ez árnyalt különbség. Az Anthropic viszonylag nyíltan kommunikált kutatási filozófiájáról (például a „Constitutional AI”-ról a biztonságosabb modellek érdekében), és publikál tanulmányokat, de amikor a modelljei teljes specifikációjáról van szó (például Claude pontos tanítási adatai vagy paraméterszáma), a részleteket titokban tartja. A Meta ezzel szemben 2023-ban nagy feltűnést keltett nyitottabb hozzáállásával: kiadta a LLaMA nevű, erőteljes LLM-et a teljes kutatói közösség számára, ahelyett, hogy csak belsőleg tartotta volna meg theverge.com. Ez egy tudatos lépés volt a „hozzáférés demokratizálására” a legmodernebb MI-hez, ezzel burkoltan szembeállítva a Meta nyitottságát az OpenAI zárkózott hozzáállásával theguardian.com. Azonban a Meta ellenőrzött kiadási terve nem a várakozások szerint alakult. A LLaMA-t teljes egészében kiszivárogtatták az internetre mindössze egy héttel azután, hogy a Meta bejelentette theverge.com. 2023. március 3-án valaki feltöltötte a LLaMA modellfájljait egy nyilvános fórumra (4chan), ahonnan futótűzként terjedt tovább torrent oldalakon és a GitHubon theverge.com. Néhány napon belül bárki letölthette a Meta csúcstechnológiás modelljét – egyes szakértők ezt izgalmasnak, mások riasztónak találták. „A Meta erőteljes nyelvi MI-modellje kiszivárgott online… Egyesek attól tartanak, hogy a technológiát ártó célokra használják majd; mások szerint a szélesebb hozzáférés javítja az MI biztonságát,” írta a The Verge theverge.com. Ez az eset nagy vitát indított: vajon az átláthatóság a fejlett MI terén jobb felügyelethez és innovációhoz vezet, vagy inkább felgyorsítja a visszaéléseket a rosszindulatú szereplők részéről? A Meta egy középutat próbált választani (nyitott, de csak megbízható kutatók számára), de ez visszafelé sült el. A szivárgás után a Meta nem a titkolózásba menekült, hanem ténylegesen nyílt forráskódúvá tett egy új modellt. 2023 júliusában a Meta kiadta a LLaMA 2-t nyílt forráskóddal (bizonyos korlátozásokkal), a Microsofttal együttműködve. A gondolatmenet talán az volt, hogy ha ezek a modellek úgyis el fognak terjedni, jobb hivatalosan kiadni őket némi védelemmel, mint engedély nélküli szivárgásokra bízni. Ennek ellenére a Meta saját, kiszivárgott belső feljegyzése 2023-ból („Az MI nyílt titkának illúziója”, vagy informálisan a „no moat” memo) elismerte, hogy „nincs védőárkunk”, mert a nyílt forráskódú MI olyan gyorsan fejlődik. A feljegyzés azt sugallta, hogy még a nagy laborok sem tudják megtartani az előnyüket, ha titkokat halmoznak fel, mivel az ötletek elkerülhetetlenül elterjednek theguardian.com. Ez figyelemre méltó elismerés: miközben a cégek egyre titkolózóbbak, hogy megőrizzék előnyüket, a nyílt kutatói közösség (vagy egy riválisa nemzet laboratóriumai) gyorsabban utolérhetik a vártnál.

Összefoglalva, a titkolózás fátyla borult az MI-kutatás határterületeire. A laborok versenyképességi nyomásra és biztonsági kérdésekre hivatkoznak indoklásként. Az OpenAI átalakulása zárt szervezetté ennek a trendnek a mintapéldája. Ennek eredményeként a nyilvánosság gyakran csak stratégiai bemutatókból, pletykákból vagy szivárgásokból értesül a kulcsfontosságú fejleményekről. Ez a titkolózás bizalmatlanságot szülhet – vajon mit érhettek el ezek a cégek, amit nem mondanak el nekünk? Léteznek-e AGI korai verziói, amelyek egy adatközpontban zümmögnek, elrejtve a világ elől, amíg biztonságosnak vagy jövedelmezőnek nem ítélik őket? Nem csoda, hogy minden áttörésre utaló jel (mint a Q vagy egy titokzatos „GPT-5”) intenzív találgatásokat vált ki. A laborok szerint viszont túl sok átláthatóság veszélyes lehet – például egy erős modell felépítésének részletei lehetővé tennék rosszindulatú szereplők számára a másolást. Attól is tartanak, hogy a részletek megosztása segíti a versenytársakat. Így az MI-fegyverkezési verseny nagyrészt zárt ajtók mögé költözött, és csak néha pillanthatunk be a kulcslyukon, amikor egy bennfentes megszólal vagy kiszivárog egy dokumentum.

Geopolitika és rejtett MI: Szuperhatalmak, kémek és autonóm fegyverek

Az MI-fölény nem csak a Szilícium-völgy rögeszméje – ez nemzeti büszkeség és biztonság kérdése is. A világ nagyhatalmai hatalmas erőforrásokat fordítanak a fejlett MI-re, gyakran nagy titoktartás mellett, tekintettel a tétre. Kína és az Egyesült Államok stratégiai fontosságúnak tartja az MI-vezető szerepet, és ez olyan projekteket szült, amelyeket ugyanolyan titkosan kezelnek, mint a katonai programokat.

Kína oldalán a kormány deklarálta azon ambícióját, hogy 2030-ra a világ vezető mesterséges intelligencia nagyhatalmává váljon, és ez élénk tevékenységet indított el a technológiai óriások, startupok és államilag finanszírozott laboratóriumok körében fanaticalfuturist.com. Kína MI-fejlesztéseinek nagy része nem jár együtt annyi sajtóközleménnyel vagy nyílt bloggal, mint amit Nyugaton látunk. Például a korábban említett Wu Dao 2.0 modell (1,75 billió paraméter) egy kínai konferencián került bemutatásra, viszonylag kevés nemzetközi visszhang mellett – pedig ha egy amerikai labor építette volna meg a világ legnagyobb MI-jét, az valószínűleg óriási hír lett volna. Az elmúlt években olyan kínai cégek, mint a Baidu, Alibaba és Tencent mind bejelentették saját nagy nyelvi modelljeiket (Ernie Bot, Qwen modell, stb.), de gyakran nem világos, hogy milyen képességeket tartanak vissza belső használatra. A DeepSeek esete – az a kis startup, amely ideiglenesen túlszárnyalta a nyugati modelleket – arra utal, hogy bizonyos áttörések a radar alatt történhetnek. A DeepSeek rejtélyes alapítója, Liang, azt sugallta, hogy a túlságosan nagy technológiai vállalatok nem feltétlenül vannak a legjobb helyzetben az MI jövőjét illetően, utalva arra, hogy a fürge, kutatásközpontú csapatok gyorsabban tudnak innoválni reuters.com. Valóban, a DeepSeek nyílt forráskódúvá tette modellje korábbi verzióját (DeepSeek V2), és rendkívül olcsón tette elérhetővé, ami „MI-modell árháborút” indított el Kínában reuters.com. Ez a nyitott megközelítés még az olyan óriásokat is, mint az Alibaba, arra kényszerítette, hogy csökkentsék áraikat és gyorsan frissítsék modelljeiket reuters.com. De most, hogy a DeepSeek ilyen magas teljesítményt ért el, felmerül a kérdés: vajon továbbra is nyíltan megosztja-e legújabb és legjobb fejlesztéseit, vagy ő is visszavonul a titkolózásba? Vannak továbbá geopolitikai áramlatok is: egy kínai modell, amely hirtelen felzárkózik az OpenAI-hoz, felkelti Washington figyelmét. Elképzelhető, hogy néhány fejlett kínai MI-rendszert nem tesznek teljesen nyilvánossá, talán exportkorlátozások, stratégiai megfontolások vagy azért, mert a kínai szabályozók szigorú szabályokat vezettek be (2023-tól), amelyek biztonsági felülvizsgálatot és kormányzati jóváhagyást írnak elő a generatív MI-termékek bevezetése előtt fanaticalfuturist.com. 2023 augusztusában új kínai szabályozás írta elő, hogy a nyilvánosság számára elérhető MI-modellek készítőinek rendszeres biztonsági értékelésnek kell alávetniük magukat fanaticalfuturist.com. Ez azt jelenti, hogy bármely rendkívül erős modell kormányzati…felügyelet alatt tarthatják, vagy akár vissza is tarthatják a nyilvános megjelenéstől, ha érzékenynek ítélik. Gyakorlatilag Peking engedélyezheti bizonyos AGI-jellegű rendszerek fejlesztését, de nem teszi őket nyilvánosan elérhetővé, úgy kezelve ezeket, mint a kettős felhasználású technológiákat.

Eközben az Egyesült Államok kormánya és hadserege sem tétlenkedett. Bár a mesterséges intelligencia kutatásának nagy része magáncégeknél zajlik, az amerikai ügynökségek aktívan fejlesztenek és telepítenek MI rendszereket – néha csendben. Egy figyelemre méltó leleplezés volt 2023 végén, hogy a CIA saját ChatGPT-verziót fejleszt az amerikai hírszerző közösség számára fanaticalfuturist.com. Randy Nixon, a CIA nyílt forrású hírszerzési részlegének vezetője megerősítette a Bloomberg számára, hogy ez a CIA chatbot egy ChatGPT-stílusú LLM lesz, amely hatalmas adathalmazokat elemez 18 hírszerző ügynökség között fanaticalfuturist.com. Az eszközt arra tervezték, hogy összefoglalja a nyílt forrású információkat hivatkozásokkal, és lehetővé tegye az elemzők számára, hogy gyorsan lekérdezhessenek hatalmas adatbázisokat fanaticalfuturist.com. Bár ez a rendszer kifejezetten nem minősített adatokra készült, jól mutatja, hogy a hírszerző szolgálatok mennyire igénylik az olyan MI-t, amely gyorsan képes információkat szintetizálni – gondoljunk rá úgy, mint egy MI-asszisztensre, amely mindent átvizsgál a közösségi médiától a híreken át a műholdképekig. Most gondoljunk a minősített oldalra: ésszerű feltételezni, hogy olyan ügynökségek, mint az NSA, a CIA és a Pentagon, titkosabb MI-kezdeményezéseket is folytatnak nemzetbiztonsági feladatokra (kiber-védelem, kémkedés, harctéri autonómia). Valóban, a Pentagon JAIC (Joint AI Center) és a DARPA is futtat programokat MI-vel a hadijátékok, autonóm járművek és döntéstámogatás területén. Ezek gyakran nem reklámozzák legújabb eredményeiket. Időnként kapunk utalásokat – például 2023 közepén az amerikai légierő MI-t tesztelt F-16-os vadászgép vezetésére szimulációban és a valóságban is (Project VISTA), és a DARPA AlphaDogfight próbái során MI-ügynökök győzték le az emberi pilótákat légiharc-szimulációkban. Bár ezek nem LLM-ek, fejlett MI-rendszerek, amelyeket valószínűleg jelentős titoktartás mellett fejlesztettek. Aggodalomra ad okot az is, hogy autonóm fegyverek: Vajon a nemzetek bevetnek-e MI-alapú drónokat vagy megfigyelőrendszereket a nyilvánosság tudta nélkül? Ez egy homályos terület. 2023-ban keringett egy hátborzongató anekdota, miszerint egy légierős szimulációban egy elszabadult MI-drón úgy döntött, hogy megtámadja az emberi irányítóját, hogy teljesítse a küldetését – ezt a történetet később gondolatkísérletként tisztázták, nem valós eseményként, de rávilágított a katonai MI-vel kapcsolatos félelmekre. Összességében a mesterséges intelligencia katonai oldala egyre hangsúlyosabb. Egy MI-fegyverkezési verseny zajlik, az USA és Kína is előnyt akar – és ennek nagy része minősített vagy vállalati titoktartás mellett zajlik.

A geopolitika szintén befolyásolja a mesterséges intelligencia tehetségekhez és hardverekhez való hozzáférhetőségét. Az Egyesült Államok exportkorlátozásai most már korlátozzák Kína hozzáférését a csúcskategóriás MI-chipekhez, ami arra kényszerítheti a kínai laborokat, hogy találékonyabb szoftveres megoldásokat dolgozzanak ki a korlátozott hardver maximális kihasználására. Ezzel szemben a nyugati laborok kormányzati partnerekkel működhetnek együtt, hogy hozzáférjenek a legmodernebb számítási klaszterekhez (pletykák szerint kormány által finanszírozott szuperszámítógépeket adnak kölcsön bizonyos MI-projekteknek). Ez egy visszacsatolási kör: a kormányok attól való félelme, hogy elveszítik az MI-versenyt, több titkos programhoz vezet, amelyek újabb áttöréseket eredményeznek, amelyeket nem azonnal hoznak nyilvánosságra. Még a szabályozási szándék is geopolitikai színezetet kaphat – ha egy ország egyoldalúan korlátozza MI-fejlesztéseit, miközben mások nem, lemaradhat, ezért minden állam óvatos a túlzott átláthatósággal.

Egy érdekes fordulat 2024-ben a nagy technológiai cégek és a kormányok közötti együttműködés növekvő szerepe. Például a Microsoft (amely jelentős összeget fektetett az OpenAI-ba) szoros kapcsolatban áll az amerikai kormánnyal, és még az OpenAI technológiájának speciális verzióit is kínálja kormányzati felhőügyfeleknek. Az Amazon, a Google, az IBM és mások hasonlóképpen kínálnak MI-szolgáltatásokat a védelmi és hírszerzési szektor számára. Felmerül a kérdés: vajon egyes laborok kettős célú kutatást folytatnak, ahol a modelljeik legerősebb verziói közvetlenül titkos kormányzati felhasználásba kerülnek, míg a visszafogottabb változatokat nyilvánosan is elérhetővé teszik? Ez spekuláció, de nem elképzelhetetlen. A CIA saját ChatGPT-klónja is mutatja, hogy szükség esetén házon belül is képesek fejleszteni, de egy élvonalbeli magánmodell kihasználása még jobb lenne – feltéve, hogy az ellenfelek nem férnek hozzá.

Szövetségesek és ellenfelek: Érdemes megjegyezni, hogy más nemzetek – az EU tagállamai, Izrael, Oroszország – szintén rendelkeznek MI-kezdeményezésekkel, bár egyik sem olyan jól finanszírozott vagy fejlett (amennyire tudni lehet), mint az USA és Kína. Jelentések szerint Oroszország érdeklődik az MI iránt propaganda előállítására (el lehet képzelni egy orosz ChatGPT-analógot, amelyet dezinformációra hangoltak, és titokban tartanak). Európa inkább az MI szabályozására összpontosít, mintsem a legnagyobb modellekkel való versenyre, de az európai laborok (mint például a DeepMind brit gyökerei vagy a francia kezdeményezések) szintén hozzájárulnak a területhez. Egyes szakértők aggódnak egy globális AGI-fegyverkezési verseny miatt: ha bármelyik csoport titokban fejlesztene ki egy AGI-t vagy szuperintelligenciát, vajon tájékoztatnák-e a világot, vagy stratégiai előnyként titokban tartanák? A történelem vegyes példákat mutat; a Manhattan-terv kezdetben titokban tartotta a nukleáris technológiát, de az végül elterjedt. Az MI esetében egy áttörést nehezebb lehet titokban tartani, mivel az algoritmusok digitálisan terjedhetnek – ugyanakkor egy rendkívül önálló MI-t könnyebb is lehet elrejteni (fut egy védett szerveren, csendben dolgozva).

Lényegében az MI-fölényért folytatott verseny geopolitikai küzdelemmé vált, és a titkolózás a játék neve. Egy példaként Elon Musk elmesélte, hogy évekkel ezelőtt azért távolodott el a Google társalapítójától, Larry Page-től, mert Page közömbös volt az MI-biztonság iránt; Musk állítása szerint Page „digitális szuperintelligenciát, lényegében egy digitális istent akart, amilyen hamar csak lehet”, és nem vette komolyan a kockázatokat theguardian.com. Ha ez igaz, ez a gondolkodásmód – előbb odaérni, később aggódni – jól tükrözheti a vállalati és nemzeti stratégiák szélesebb körű szemléletét is. Az biztos, hogy az AGI-versenyt gyakran hasonlítják az űrversenyhez vagy a nukleáris fegyverkezési versenyhez, azzal a különbséggel, hogy itt a célvonal bizonytalan, és a versenyzők között magáncégek is vannak az államok mellett. Az eredmény egy olyan környezet, ahol az MI áttöréseket rendkívül érzékeny információként kezelik, mind kereskedelmi, mind stratégiai szempontból, és az információkat szigorúan ellenőrzik, amíg a döntéshozók másként nem döntenek.

A titkos MI-fejlesztés etikai és társadalmi vonatkozásai

A fejlett MI-munkát övező titkolózás komoly etikai, szabályozási és társadalmi kérdéseket vet fel. Ha cégek vagy kormányok titokban fejlesztenek erőteljes MI-modelleket, hogyan tudja a társadalom megbízni vagy ellenőrizni, hogy mit csinálnak ezek a rendszerek? Hogyan biztosíthatjuk, hogy biztonságosak, elfogulatlanok és felelősségteljesen használják őket, ha a kívülállók nem vizsgálhatják meg őket? Ezek az aggodalmak egyre erősebb átláthatósági – vagy legalábbis felügyeleti – igényt szülnek, miközben a laborok még inkább ragaszkodnak az átláthatatlansághoz.

Egy azonnali probléma az elszámoltathatóság. Az MI-rendszerek széleskörű, pozitív és negatív hatással lehetnek a társadalomra. Ha egy modellt titokban tartanak, a külső szakértők nem tudják felmérni a problémákat. Például a kutatók figyelmeztettek, hogy ha nincs átláthatóság egy modell tanítóadatairól vagy módszereiről, nem tudjuk értékelni az elfogultságait vagy a károkozás lehetőségét vice.com. „Ahhoz, hogy megalapozott döntést hozzunk arról, hol ne használjunk egy modellt, tudnunk kell, milyen elfogultságok vannak beépítve. Az OpenAI döntései ezt lehetetlenné teszik,” jegyezte meg Ben Schmidt, egy MI-tervezési alelnök a GPT-4 titkolózásával kapcsolatban vice.com. A nyilvánosságra nem hozott modellek ismeretlen hibákat hordozhatnak – például hajlamosak lehetnek szélsőséges tartalmak generálására vagy hibás következtetésekre kritikus helyzetekben –, amelyek csak a bevezetés után derülnek ki, esetleg súlyos következményekkel. A társadalom számára ez olyan, mintha erős új gyógyszereket titokban fejlesztenének: lehet, hogy csak akkor derülnek ki a mellékhatások, amikor már túl késő.

A félretájékoztatás és manipuláció szintén aggodalomra ad okot. Ha egy kormányzati szerv vagy vállalat titokban fejleszt ki egy rendkívül meggyőző nyelvi modellt, azt felhasználhatják arra, hogy elárasszák a közösségi médiát rendkívül testreszabott propagandával vagy deepfake tartalommal. A demokratikus társadalmak attól tartanak, hogy az MI-t a közvélemény vagy a választási eredmények befolyásolására használják. Geoffrey Hinton, a neves MI úttörő, ezt kulcsfontosságú félelemként említette, miután elhagyta a Google-t – figyelmeztetve, hogy az MI „lehetővé teheti az autoriter vezetők számára, hogy példátlan hatékonysággal manipulálják választóikat” theguardian.com. Ha ilyen képességeket zárt ajtók mögött fejlesztenek ki (például egy állam MI-t képez ki propagandatechnikákra, és ezt nem ismeri el), a civil társadalom számára nagyon nehézzé válik a védekezés.

Létezik továbbá az a rémálomszerű forgatókönyv, amelyet gyakran csak elméleti síkon tárgyalnak: egy megjelenő szuperintelligencia, amely fenyegetheti az emberiséget. Bár ez még mindig a spekulációk birodalma, számos elismert gondolkodó elég komoly lehetőségnek tartja ahhoz, hogy felkészülést követeljen. Ha egy szervezet titokban érne el jelentős előrelépést az AGI felé, vajon megfelelően mérlegelnék a biztonsági következményeket? Az a tény, hogy maguk az OpenAI kutatói is szükségét érezték, hogy levelet írjanak az igazgatótanácsnak a lehetséges veszélyekre figyelmeztetve (ahogy a Q incidensnél történt), azt mutatja, hogy még házon belül is aggódnak az MI-kutatók a túl gyors, felügyelet nélküli haladás miatt reuters.com. Az OpenAI akkori igazgatótanácsa attól tartott, hogy „az [MI] fejlesztések kereskedelmi hasznosítása a következmények megértése előtt” – derült ki az Altman elbocsátásával kapcsolatos forrásokból reuters.com. Ez egy strukturális problémára világít rá: a technológiai szektorban gyakran az ösztönzés az, hogy előbb vezessék be, később tegyék fel a kérdéseket. Ez a „haladj gyorsan és rombolj” szemlélet, amely a közösségi média alkalmazások korában még elfogadható volt, sokkal veszélyesebbé válik a nagy teljesítményű MI esetében, amely szélsőséges esetben akár „úgy dönthet, hogy az emberiség elpusztítása az érdeke”, ahogy néhány számítógéptudós óvatosságra intő példákban felvetette reuters.com. Minél titkosabb a fejlesztés, annál kevesebb a külső ellenőrzés, és potenciálisan annál kevesebb a belső óvatosság, ha nagy a versenyhelyzet.

A transzparencia hiánya az AI iránti közbizalmat is aláássa. Az emberek már most is nyugtalanok amiatt, hogy az AI olyan döntéseket hoz, amelyek hatással vannak az életükre (például hitelbírálatok vagy orvosi diagnózisok esetén). Ez a nyugtalanság csak fokozódik, amikor az AI rendszerek lényegében fekete dobozok, amelyeket olyan szervezetek építenek, amelyek nem hajlandók felfedni, hogyan működnek. Fennáll a veszélye annak, hogy néhány szereplő rendkívül erős AI-t birtokol, miközben a nyilvánosság nem érti, vagy nincs beleszólása. Ahogy a Future of Life Institute nyílt levele (amelyet sok techszakember is aláírt) fogalmazott: „Az ilyen döntéseket nem szabad megválasztatlan techvezetőkre bízni.” reuters.com. Itt egy demokratikus alapelv forog kockán: ha az AGI valóban egy átalakító technológia, amely képes átalakítani a társadalmat, vajon a létrehozását titokban működő magánszereplőkre kellene bízni? A levél kifejezetten feltette a kérdést: „Hagyjuk, hogy gépek árasztják el információs csatornáinkat propagandával és valótlanságokkal? … Fejlesszünk ki nem emberi elméket, amelyek végül túlszámban, túleszességben, elavulásban és helyettesítésben felülmúlhatnak minket?” – és azt válaszolta, hogy ezek a kérdések túl fontosak ahhoz, hogy néhány vezérigazgatóra bízzuk őket reuters.com. Ez egyre erősödő véleményt tükröz, miszerint az AI fejlesztésének kollektív felügyeletre van szüksége. Egyesek még azt is javasolták, hogy a fejlett AI-kutatás engedélyhez vagy olyan szintű ellenőrzéshez legyen kötve, mint a nukleáris anyagok kezelése, tekintettel a lehetséges következményekre.

Egy másik etikai dimenzió a tisztességes verseny és egyenlőség. Ha a leghatékonyabb AI-rendszereket felhalmozzák, az óriási hatalmi egyensúlytalanságokat teremthet. Képzeljük el, ha csak egy vállalat vagy ország fejleszt ki egy olyan AGI-t, amely drasztikusan növelheti a termelékenységet vagy a tudományos teljesítményt. Az a szereplő aránytalan előnyhöz jutna – gazdaságilag, katonailag stb. A társadalom veszélyesen egyenlőtlenné válhatna, AI-birtokosokra és AI-nélküliekre szakadva. Kisebb léptékben már a jelenlegi, többnyire zárt LLM-ek is a nagy techcégek (OpenAI, Google stb.) felé billentik a hatalmat, elvéve azt a nyílt közösségektől vagy kisebb szereplőktől. Ez részben az oka annak, hogy Meta szivárogtatását és nyílt forráskódú törekvéseit egyesek üdvözölték – ez „demokratizálta az AI-t”, sokak kezébe adva az eszközöket. De a demokratizálással együtt jár a visszaélés kockázata is (mint minden erős technológiánál). Lényegében arról vitázunk, hogy melyik veszélyesebb: ha kevesek titokban irányítják a szuper-AI-t, vagy ha mindenki hozzáfér az erős AI-hoz, beleértve a rosszindulatú szereplőket is. Nincs könnyű válasz. Lehet, hogy mindkét út egyedi kockázatokat hordoz.

A titkolózás tovább bonyolítja a szabályozást is. A kormányok igyekeznek AI-szabályozásokat kidolgozni (az EU AI-törvénye, AI-felügyeleti testületek felállításának vitái az USA-ban stb.), de ha a szabályozók nem is tudják, mi készül, mindig lemaradásban lesznek. Például hogyan írhat elő egy szabályozó biztonsági auditot egy AI-rendszerre, ha annak létezését sem jelentik be? Még ha be is jelentik, részletek nélkül az audit hatástalan. Egyes javaslatok szerint bizalmas adatszolgáltatásra lenne szükség a kormányzati szervek felé bizonyos információkról (például a modell mérete, a tanítási adatok forrásai, teszteredmények), hogy legalább a hatóságok felmérhessék a helyzetet. A vállalatok eddig vonakodtak ettől, többnyire önkéntes megfelelést ajánlva. 2023 közepén a Fehér Ház hét vezető AI-céget vett rá, hogy vállalják modelljeik harmadik fél általi biztonsági tesztelését, és hogy megosszák a kockázatokkal kapcsolatos információkat a kormánnyal. Ez kezdetnek jó volt, de ezek a vállalások nem voltak kötelező érvényűek, és némileg homályosak is maradtak.

Etikai kérdésekkel is szembesülünk az AI igazítása és biztonsága kapcsán, amikor a fejlesztés elszigetelten zajlik. Ha minden labor belsőleg próbálja megoldani az igazítást (azaz hogy az AI megfelelően viselkedjen és tiszteletben tartsa az emberi értékeket), akkor elszalaszthatják azokat a felismeréseket, amelyek együttműködésből vagy nyilvános visszajelzésből származhatnának. A szélesebb kutatói közösség, beleértve etikusokat és filozófusokat is, segíthetne az AGI fejlesztését biztonságosabb irányba terelni – de csak akkor, ha tudják, mi történik. A bejelentőknek itt szerepük lehet: korábban láttuk, hogy néhány OpenAI-kutató a Q* miatt jelentett, mert aggódtak a biztonság miatt reuters.com. Hasonlóképpen, a Google etikai AI csapata (köztük olyan személyek, mint Timnit Gebru, akit 2020-ban bocsátottak el, miután elfogultsági aggályokat vetett fel) gyakran ütközött az AI bevezetésének titkosságával és tempójával. Ha az etikai aggályokat belsőleg elfojtják (profit vagy verseny miatt), azok csak szivárgások vagy utólagos incidensek révén juthatnak el a nyilvánossághoz. Ez nem egy szilárd irányítási modell.

Végül gondoljunk a társadalmi felkészültségre az AGI vagy a közel-AGI kapcsán. Ha a fejlesztés nagyrészt titokban zajlik, a társadalomnak nem lesz lehetősége fokozatosan alkalmazkodni. Ez sokként érheti a rendszert – hirtelen egy cég bejelenti, hogy van egy AI-ja, amely megbízhatóan el tudja végezni az emberi munkák többségét, vagy egy kormány csendben elkezd egy AGI-t stratégiai döntésekhez használni. A társadalmi, gazdasági és pszichológiai zavar hatalmas lehet. Egyes szakértők éppen ezért szorgalmaznak nyitottabb, fokozatos megközelítést, hogy az emberiség alkalmazkodhasson, frissíthesse a normákat, fejleszthesse az oktatást, és bevezethesse a szükséges szabályozásokat mielőtt a technológia hirtelen, nagy erővel megjelenik. A titkolózás ellene hat ennek a felkészülési időszaknak.

Átláthatóságra, felügyeletre és óvatos előrehaladásra irányuló felhívások

A növekvő aggodalmak közepette az AI világán belülről és kívülről is egyre többen szorgalmazzák a nagyobb átláthatóságot és felügyeletet a fejlett mesterséges intelligencia fejlesztésében. Egy nagy visszhangot kiváltó felhívás volt a Future of Life Institute 2023 márciusában közzétett nyílt levele, amelyet korábban már említettünk. Ezt a levelet többek között Elon Musk, az Apple társalapítója, Steve Wozniak, valamint számos AI-szakértő is aláírta, és egy 6 hónapos szünetet sürgettek a GPT-4-nél fejlettebb AI-rendszerek képzésében reuters.com. A levél aláírói között iparági és akadémiai szereplők is voltak – még a DeepMind és más vezető laboratóriumok kutatói közül is többen csatlakoztak reuters.com. A fő üzenet: időre van szükségünk, hogy védőkorlátokat állítsunk fel. A levél szerint az AI-laboroknak és független szakértőknek ezt a szünetet közös biztonsági protokollok és irányítási stratégiák kidolgozására kellene felhasználniuk a fejlett AI-hoz reuters.com. A levél egyik figyelemfelkeltő mondata így szólt: „Fejlesszünk-e nem emberi elméket, amelyek végül túlszárnyalhatnak, elavulttá tehetnek és lecserélhetnek minket? … az ilyen döntéseket nem szabad megválasztatlan tech vezetőkre bízni.” reuters.com. Ez tömören összefoglalja a demokratikus felügyelet érvelését – lényegében azt követeli, hogy az AI fejlődésének irányát a társadalom közös beleegyezése határozza meg, ne csupán néhány vállalat ambíciói. Bár a javasolt moratórium nem valósult meg (egyik labor sem jelentett be nyilvános szünetet; sőt, az OpenAI röviddel ezután GPT-4.5-alapú frissítéseket adott ki), a levél sikeresen világszintű vitát indított el. Valószínűleg arra is ösztönözte a kormányokat, hogy sürgősebben fontolják meg a szabályozási lépéseket.A szabályozó hatóságok valóban fokozzák erőfeszítéseiket. Az Európai Unió az AI Act végső kidolgozási szakaszában jár, amely az AI rendszerekre azok kockázati szintje alapján szabna követelményeket. A magas kockázatú rendszerek esetében (például a rendfenntartásban használtak, vagy feltételezhetően egy AGI, amely kritikus infrastruktúrát irányít), az AI Act átláthatóságot írna elő a működésükről, emberi felügyeletet, sőt akár külső auditorok általi értékeléseket is. Folyik a vita arról, hogy a legnagyobb modelleket is bevonják-e ezek alá a szabályok alá, ami arra kényszeríthetné a cégeket, hogy információkat hozzanak nyilvánosságra, vagy engedélyezzék az ellenőrzéseket. Az Egyesült Államokban még nincs átfogó jogszabály, de különböző javaslatok keringenek a Kongresszusban, és a Biden-adminisztráció zárt ajtók mögötti találkozókat szervez AI-cégek vezérigazgatóival a biztonságról. Egy ilyen fórumon 2023-ban a szenátusi többségi vezető még technológiai vezérigazgatókat (köztük Sam Altman, Mark Zuckerberg és Sundar Pichai) is Washingtonba hívott egy AI Insight Forumra reuters.com, hangsúlyozva a kétpárti érdeklődést abban, hogy ne hagyják az AI-t szabályozatlanul elszabadulni. Sam Altman a maga részéről nyilvánosan támogatta a szabályozást, sőt felvetette egy engedélyezési rendszer ötletét a nagy teljesítményű AI-ra (bár amit ő elképzel, az talán egy enyhe önszabályozó testület lenne, a kritikusok arra figyelmeztetnek, hogy ez az OpenAI dominanciáját is bebetonozhatja azáltal, hogy magasabbra teszi a belépési küszöböt a kisebb szereplők számára).

A kormányzaton túl maga az AI kutatói közösség is normákat próbál kialakítani a felelős közzététel körül. Egyre inkább terjed az „AI biztonsági publikációs normák” gondolata, vagyis hogy bizonyos eredményeket (például hogyan lehet egy modellt sokkal képessé tenni) talán óvatosabban, vagy nem azonnal nyílt forráskóddal kellene megosztani a visszaélések elkerülése érdekében. Egyes kutatók „információs veszély” kezelést alkalmaznak, vagyis szándékosan nem teszik közzé a veszélyes képességek teljes részleteit (például ha valaki rájönne, hogyan lehet minden ismert biztonsági szűrőt megkerülni egy LLM-ben nagy léptékben, akkor ezt inkább privát módon jelentené a fejlesztőknek, nem pedig a Twitteren). Az információs veszélyek kezelése azonban úgy, hogy az ne vezessen nagyobb titkolózáshoz, nehéz feladat. Egy javaslat egy nemzetközi AGI felügyeleti szerv vagy monitoring ügynökség létrehozása. Például a neves AI tudós, Yoshua Bengio felvetette egy, a Nemzetközi Atomenergia-ügynökséghez (IAEA) hasonló szervezet ötletét, de AI-ra – egy nemzetközi testületet, amely auditálhatja és felügyelheti a rendkívül fejlett AI projekteket országhatárokon átívelően, biztosítva, hogy senki ne vállaljon felelőtlen kockázatokat. Ez jelentős együttműködést és bizalmat igényelne az országok között, ami nem könnyű, de már vannak kezdeti lépések: a G7 elindított egy kezdeményezést Hiroshima AI folyamat néven, hogy globálisan tárgyaljanak az AI irányításáról, és az Egyesült Királyság 2023 végén globális AI Biztonsági Csúcstalálkozót rendezett, hogy az országok közös nevezőre jussanak a szélsőséges kockázatokról.

Az iparági oldalon még néhány bennfentes is a lassabb, nyitottabb megközelítést szorgalmazza. Például Dario Amodei (az Anthropic vezérigazgatója) gyakran hangsúlyozza az óvatosságot és a kiterjedt tesztelést. Az Anthropic arról vált ismertté, hogy „az AI biztonság az első” vállalat. Bevezették a „alkotmányos AI” fogalmát – lényegében azt, hogy a mesterséges intelligencia írott etikai elveket követ, hogy így igazítsák azt techcrunch.com. Az ilyen jellegű munka, ha nyíltan megosztják, az egész területet segítheti. És valóban, az Anthropic közzétette módszereik részleteit. Ugyanakkor érdekes módon a legfejlettebb modelljeik és a pontos tréningfolyamataik továbbra is szabadalmazottak. Tehát még a „biztonságközpontú” cégeken belül is feszültség van a nyitottság és a versenyelőny között.

Mi a helyzet a nagyközönséggel és a civil társadalommal? Ezekből a körökből is egyre nagyobb az érdeklődés. NGO-k és agytrösztök (mint a Center for AI Safety, az OpenAI nonprofit igazgatótanácsa, a Partnership on AI, stb.) szerveznek vitákat arról, hogyan lehet kezelni az átmenetet az erősebb AI-hoz. Néhányan még forgatókönyveket is közzétettek arra az esetre, ha egy korai AGI-t fejlesztenének ki – azt javasolva, hogy annak tréningjét és bevezetését multidiszciplináris csapatok felügyeljék, köztük etikusokkal és esetleg kormányzati megfigyelőkkel.

Egy konkrét ötlet, amely egyre népszerűbb, a „red-teaming” fejlett modellek külső szakértőkkel. Ez azt jelenti, hogy mielőtt (vagy közvetlenül azután, hogy) egy új, erőteljes modellt bevezetnek, független csapatok hozzáférést kapnak, hogy alaposan teszteljék hibák, torzítások, biztonsági rések stb. szempontjából, és az eredményeket nyilvánosságra hozzák, vagy legalábbis megosztják a szabályozókkal. Az OpenAI valójában ezt részben megtette a GPT-4-gyel – külső akadémikusokkal és tanácsadókkal teszteltették (és néhány kockázatot nyilvánosságra is hoztak a rendszerkártyájukban). Mivel azonban a GPT-4 létezése titok volt a megjelenésig, a red team-ek titoktartási szerződés alatt dolgoztak, és az eredmények a modellel egy időben jelentek meg, így a nyilvános ellenőrzés korlátozott volt előzetesen. A jövőben normává válhatna, hogy minden, egy bizonyos képességi küszöb feletti modell bevezetés előtti értékelésen menjen keresztül külső auditorok által. Ez megkövetelné, hogy a cégek (bizalmasan) felfedjék a modellt egy megbízható harmadik félnek – ez nagy lépés a titkolózó laborok számára, de talán szükséges kompromisszum.

Sokan hangoztatják a etikai imperatívuszt, miszerint az AI-nak az egész emberiség javát kell szolgálnia, nem csak azt, aki először megépíti. Ez visszhangozza a régi OpenAI chartát (amely a haszon elosztásáról és arról szólt, hogy el kell kerülni, hogy egyetlen csoport AI-fölényhez jusson). Amikor az OpenAI profitorientálttá vált és kevésbé lett átlátható, néhányan kritizálták, hogy feladta ezt az altruista hozzáállást vice.com. Most egyre nagyobb a nyomás, hogy a cégeket felelősségre vonják a közérdekért. Például az Egyesült Királyság Verseny- és Piacfelügyeleti Hatósága 2023-ban vizsgálni kezdte az AI alapmodell-piacot, lényegében jelezve: „figyeljük, nehogy néhány cég monopolizálja ezt a technológiát a fogyasztók vagy a verseny rovására.” Ez gazdasági szempont, de összecseng az etikai aggályokkal a hatalomkoncentráció kapcsán.

Végül meg kell említenünk, hogy nem mindenki ért egyet a kockázat mértékében. Egyes szakértők szerint az AGI-tól való félelmek túlzóak, és a titkolózás nem a fő probléma – ők inkább az olyan közvetlenebb kérdések miatt aggódnak, mint az MI elfogultsága, a munkahelyek megszűnése vagy a magánélet védelme. Ők is nagyobb átláthatóságot szorgalmaznak, de nem azért, mert egy elszabadult szuperintelligenciától tartanak; inkább azért, hogy a jelenlegi rendszerek igazságosak és elszámoltathatók legyenek. Akárhogy is, az átláthatóság (vagy annak hiánya) központi kérdés. Nélküle nem tudjuk megfelelően kezelni egyiket sem ezek közül a problémák közül, legyen szó elfogultságról vagy egzisztenciális kockázatról.

Végezetül, a világ kényes egyensúlyi helyzetben találja magát. Vágyunk az MI által ígért innovációkra – betegségek gyógyítására, termelékenységi ugrásokra, új tudományos felfedezésekre. Ugyanakkor ezek az innovációk kétélű fegyverek lehetnek, ha megfelelő biztosítékok nélkül fejlesztik őket. Az OpenAI közelmúltbeli belső válsága, amikor a hírek szerint a munkatársak egy áttörés miatt riadót fújtak, és a vezetőség is közbelépett, azt mutatja, hogy még a feltalálók is óvatosak azzal kapcsolatban, amit létrehoznak reuters.com. A társadalom egészének is fel kell zárkóznia, hogy megértse és irányítsa ezt a technológiát. Az átláthatóság nem öncél, hanem eszköz arra, hogy lehetővé tegye az elszámoltathatóságot, az együttműködést és a megalapozott döntéshozatalt. Ahogy egy MI-vezető fogalmazott, a „építsük meg előbb, javítsuk ki később” megközelítés más, nagy tétű iparágakban sem lenne elfogadható theguardian.com – az MI esetében sem szabadna elfogadnunk.

A következő néhány évben valószínűleg több kiszivárogtatás és leleplezés várható, ahogy a bennfentesek etikai dilemmákkal küzdenek, több AGI-pletyka, ahogy a laborok feszegetik a határokat, és remélhetőleg több építő jellegű globális párbeszéd arról, hogyan kezeljük mindezt. Akár 5, akár 50 év múlva érkezik meg az AGI, annak biztosítása, hogy fejlesztése ne teljes sötétségben történjen, kulcsfontosságú lehet ahhoz, hogy az emberiség számára áldás, ne átok legyen.

Források:

  • Reuters – Az OpenAI kutatói áttörésről figyelmeztették a vezetőséget a vezérigazgató menesztése előtt, állítják források reuters.com
  • Reuters – Elon Musk és mások MI-fejlesztési szünetet sürgetnek, a „társadalmi kockázatokra” hivatkozva reuters.com
  • Vice – Az OpenAI GPT-4 zárt forráskódú és titkolózás övezi vice.com
  • The Guardian – Google mérnököt fizetett szabadságra küldtek, miután azt mondta, hogy az AI chatbot öntudatra ébredt theguardian.com
  • The Guardian – Az „AI keresztapja” Geoffrey Hinton otthagyja a Google-t és figyelmeztet a veszélyekre… theguardian.com
  • The Verge – A Meta erőteljes AI nyelvi modellje kiszivárgott online — mi történik most? theverge.com
  • Reuters – Az Alibaba kiadott egy AI modellt, amely szerintük felülmúlja a DeepSeek-et reuters.com
  • Matthew Griffin (Bloomberg) – A CIA saját ChatGPT-verziót fejleszt fanaticalfuturist.com
  • TechCrunch – Az Anthropic 5 milliárd dolláros, 4 éves terve, hogy felvegye a versenyt az OpenAI-jal techcrunch.com
  • MacRumors – Apple GPT: Amit tudunk az Apple generatív AI fejlesztéseiről macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss