- Koncom roka 2023 výskumníci OpenAI rozposlali interný list o modeli s kódovým označením „Q“ (Q-Star), ktorý údajne riešil určité matematické úlohy približne na úrovni základnej školy, čo podnietilo špekulácie o AGI.
- OpenAI vydala GPT-4 v marci 2023 bez zverejnenia architektúry, tréningových dát, hardvéru ani metodológie tréningu vo svojej technickej správe.
- Do polovice roka 2024 OpenAI nepotvrdila GPT-5, pričom Sam Altman uviedol, že je potrebné ešte veľa práce pred začatím GPT-5, a augustová správa The Guardian z roku 2025 opísala GPT-5 ako významný krok k AGI.
- Google DeepMind predstavil projekt Gemini a Gemini 1.0 údajne prekonal GPT-4 v určitých benchmarkoch začiatkom roka 2024, pričom verzia Ultra je vo vývoji.
- Epizóda s LaMDA zahŕňala únik z roku 2022, keď inžinier Google Blake Lemoine tvrdil, že LaMDA je „sentientná“, a Bard založený na LaMDA bol vydaný v rokoch 2022–2023.
- Model LLaMA od Meta unikol 3. marca 2023 a Meta vydala LLaMA 2 ako open-source s obmedzeniami v júli 2023, pričom v memorande z roku 2023 sa varovalo, že „neexistuje žiadna ochrana“ kvôli rýchlemu šíreniu.
- Fundraisingová prezentácia spoločnosti Anthropic z roku 2023 opísala Claude-Next ako 10-krát výkonnejší než Claude-2 a potenciálne vyžadujúci asi 1 miliardu dolárov na výpočtový výkon na tréning, s cieľom AI samo-učenia a veľkej automatizácie.
- V januári 2025 DeepSeek vydal DeepSeek-V3 a následne R1, ktoré údajne konkurujú najlepším modelom OpenAI, pričom zakladateľ Liang Wenfeng tvrdí, že cieľom je AGI a Reuters poznamenáva, že nízke náklady startupu vyvolali cenovú vojnu AI modelov.
- CIA buduje vlastný LLM v štýle ChatGPT pre americkú spravodajskú komunitu na analýzu dát naprieč 18 agentúrami, navrhnutý na sumarizáciu open-source informácií s citáciami.
- Wu Dao 2.0, predstavený v roku 2021 Pekingskou akadémiou umelej inteligencie, je multimodálny model s 1,75 biliónmi parametrov, desaťnásobkom GPT-3, a nebol open-source.
Najväčšie technologické laboratóriá sveta sú zapojené do tajných pretekov o vytvorenie ďalšieho prelomového objavu v umelej inteligencii – možno dokonca umelú všeobecnú inteligenciu (AGI), systém s kognitívnymi schopnosťami na úrovni človeka (alebo vyššími). Zatiaľ čo AI chatboty ako ChatGPT ohromili verejnosť, zasvätení a uniknuté dokumenty naznačujú ešte výkonnejšie veľké jazykové modely (LLM) a AGI projekty, ktoré sa pripravujú za zatvorenými dverami. Od utajeného výskumu v OpenAI a DeepMind až po tajné vládne programy, tieto vývojové aktivity obklopuje sieť utajenia. Táto správa sa zaoberá najnovšími (2024–2025) únikmi a špekuláciami o nezverejnených AI modeloch, kultúrou utajenia medzi lídrami AI, geopolitickým súperením v oblasti AI a etickými dilemami vývoja silnej AI v utajení. Oddelíme potvrdené fakty od fám, citujeme odborníkov a whistleblowerov a preskúmame, čo to všetko znamená pre spoločnosť.
Úniky a fámy o nezverejnených AI prelomoch (2024–2025)
Objav OpenAI „Q“: Koncom roka 2023 interný list od výskumníkov OpenAI adresovaný vedeniu spoločnosti vyvolal vlnu špekulácií reuters.com. List varoval pred výkonným AI algoritmom, známym pod kódovým označením „Q“ (Q-Star), o ktorom zamestnanci verili, že by mohol byť významným krokom k AGI reuters.com. Podľa správy agentúry Reuters model preukázal bezprecedentnú schopnosť riešiť určité matematické úlohy – na úrovni približne základnej školy, ale konzistentne a správne reuters.com. To bolo pozoruhodné, pretože dnešné generatívne AI (ako ChatGPT) často zápasia s matematikou alebo logickou konzistenciou. „Niektorí v OpenAI veria, že Q by mohol byť prelomom v snahe startupu o tzv. AGI,“ napísal Reuters, pričom poznamenal, že zvládnutie aj základnej matematiky výskumníkov „veľmi optimisticky naladilo ohľadom budúceho úspechu Q“ reuters.com. OpenAI verejne Q nezverejnil ani plne nepotvrdil jeho schopnosti, no súkromne priznal existenciu projektu zamestnancom po otázkach médií reuters.com. Tajomstvo okolo Q – a jeho dramatická úloha v prekvapivom odvolaní generálneho riaditeľa OpenAI Sama Altmana v novembri 2023 – podnietili špekulácie, že OpenAI mohol „posunúť závoj nevedomosti späť“ vďaka veľkému objavu reuters.com. (Sám Altman len pár týždňov predtým naznačil, že „veľké pokroky sú na dohľad,“ a tajomne povedal, že bol prítomný pri viacerých prelomových momentoch, „ten najnovší [bol] len pred pár týždňami“ reuters.com.) Mnohí pozorovatelia sa domnievajú, že Q je stroj na uvažovanie, ktorý by po rozšírení mohol riešiť nové problémy nad rámec toho, čo dnes dokážu chatboty – v podstate potenciálny zárodok všeobecnej inteligencie.
GPT-5 a iné neohlásené modely: Verejne dostupným modelom OpenAI v roku 2024 zostáva GPT-4 (ktorý poháňa ChatGPT a Bing), ale čo jeho nástupca? Spoločnosť je v tejto téme mimoriadne zdržanlivá. V marci 2023 podpísalo viac ako tisíc odborníkov otvorený list, v ktorom vyzývajú na pozastavenie vývoja systémov „silnejších ako GPT-4“ z dôvodu bezpečnostných obáv reuters.com. Sam Altman reagoval uistením, že OpenAI „ne[trénuje] GPT-5“ a dlho ešte nebude techcrunch.com. K polovici roka 2024 Altman zopakoval, že majú „ešte veľa práce“ na nových nápadoch predtým, než začnú s GPT-5 techcrunch.com. Napriek tomu pretrvávajú fámy, že predbežné práce na ďalšej generácii modelu už interne prebiehajú – či už sa bude volať GPT-5 alebo inak. OpenAI je známa tým, že odmietla zverejniť akékoľvek detaily o konštrukcii GPT-4 (viac nižšie), takže celá existencia a pokrok GPT-5 (ak existuje) by pravdepodobne zostali tajomstvom až do verejného predstavenia. Pozoruhodné je, že nedávna analýza v The Guardian (august 2025) spomenula „nový model GPT-5 od OpenAI“ ako „významný krok na ceste k AGI“ – hoci stále „niečo dôležité chýba“ z hľadiska skutočného učenia podobného človeku theguardian.com. To naznačuje, že do roku 2025 mohol byť GPT-5 predstavený s veľkou slávou, no aj to nemusí byť prelom, ktorého sa niektorí obávajú, že sa deje v súkromí. V každom prípade je vývoj GPT-5 zahalený nezvyčajnou tajnosťou, pričom OpenAI dlhodobo ani nepotvrdzuje, ani nevyvracia jeho stav – čo živí špekulácie, že sa za zatvorenými dverami deje niečo veľké.
Ďalšie kroky Google DeepMind: AI divízia Googlu (teraz zlúčená z Google Brain a DeepMind) tiež pracuje na mimoriadne pokročilých modeloch, často bez verejného vydania až do strategického momentu. Koncom roka 2023 Google oznámil, že vyvíja „Gemini“, AI model novej generácie, ktorý by mal spojiť techniky slávneho AlphaGo od DeepMind s jazykovými schopnosťami LLM en.wikipedia.org. Hoci bol vývoj Gemini medializovaný, mnohé detaily zostali utajené až do jeho konečného vydania. Začiatkom roka 2024 sa objavili správy, že Gemini 1.0 prekonal GPT-4 od OpenAI v určitých benchmarkoch iconext.co.th, a pripravuje sa aj Ultra verzia. Tento konkurenčný skok – dosiahnutý prevažne interne v Google – ukazuje, ako technologickí giganti často pracujú v utajenom režime na prelomových modeloch, ktoré predstavia až vtedy, keď sú pripravení uchádzať sa o prvenstvo. Podobne má DeepMind históriu tajných projektov: napríklad LaMDA, pokročilý konverzačný LLM od Googlu, bol vyvíjaný interne a verejnosť ho poznala najmä cez vedecké články a jeden neslávne známy únik (tvrdenie inžiniera Googlu, že LaMDA je „senzitívna“, o tom viac neskôr). Až v rokoch 2022–2023, keď bol derivát LaMDA vydaný ako chatbot Bard, mala verejnosť možnosť s ním komunikovať. Tento vzorec – dlhý vývoj v tajnosti, potom náhly verejný debut – sa zdá byť v odvetví normou. Ďalšie laboratóriá ako Anthropic (založené bývalými členmi OpenAI) tiež naznačili veľké vylepšenia modelov na obzore bez zverejnenia všetkých detailov. V roku 2023 unikla prezentácia Anthropic pre investorov, ktorá podrobne opisovala plány na model „Claude-Next“, ktorý by mal byť 10-krát výkonnejší než dnešné najsilnejšie AI a jeho trénovanie by mohlo vyžadovať približne 1 miliardu dolárov na výpočtový výkon techcrunch.com. Anthropic tento hraničný model opísal ako zameraný na „AI samo-učenie“ a naznačil, že by mohol „začať automatizovať veľké časti ekonomiky“ techcrunch.com – čo je ambícia rovnajúca sa ranej forme AGI. Napriek tomu, okrem uniknutých dokumentov, Anthropic mlčí o pokroku smerom ku Claude-Next a verejne sa sústreďuje na postupné aktualizácie (ako Claude 2). Skutočný rozdiel vo výkonnosti medzi tým, čo je verejne dostupné, a tým, čo sa vyvíja v laboratóriu, môže byť oveľa väčší, než si myslíme.
Noví a menej známi hráči: Nie sú to len známe spoločnosti – niekedy sa objavia čierni koňovia, ktorí prekvapia aj odborníkov. Jeden výrazný príklad prišiel z Číny: v januári 2025 sa na scéne objavil relatívne neznámy startup s názvom DeepSeek, ktorý predstavil model (DeepSeek-V3 a následnú verziu „R1“), o ktorom sa uvádza, že sa vyrovná najlepším modelom od OpenAI. Čínska technologická komunita – a dokonca aj Silicon Valley – boli ohromení, keď AI asistent od DeepSeek šokoval odvetvie tým, že sa vyrovnal alebo prekonal modely OpenAI v niekoľkých benchmarkoch, a to pri zlomku nákladov reuters.com. „AI od DeepSeek… šokovala Silicon Valley a spôsobila prepad technologických akcií,“ uviedla agentúra Reuters s odvolaním sa na nízke náklady na vývoj startupu a tvrdenia, že jeho model R1 dosiahol rovnaký výkon ako model „o1“ od OpenAI reuters.com. (Terminológia naznačuje, že DeepSeek porovnával s modelom OpenAI s kódovým označením „o1“, pravdepodobne s verziou GPT-4.) Zakladateľ DeepSeek, mladý výskumník menom Liang Wenfeng, poskytol veľmi málo rozhovorov, no v jednom z nich smelo vyhlásil, že dosiahnutie AGI je hlavným cieľom spoločnosti a že na rozdiel od veľkých technologických firiem jeho malý tím „sa nestará“ o zisk ani o prebiehajúce cenové vojny v AI cloudových službách reuters.com. Takýto utajený vývoj zdôrazňuje, že špičková AI nie je výlučne doménou tradičných západných laboratórií – vysoko pokročilé modely môžu byť vyvíjané v utajení v startupoch alebo inštitútoch napojených na vládu inde vo svete. V skutočnosti už v roku 2021 oznámila Pekingská akadémia AI v Číne Wu Dao 2.0, multimodálnu AI s ohromujúcimi 1,75 bilióna parametrov (desaťkrát viac ako GPT-3) aibusiness.com. Wu Dao bol obrovský model schopný generovať text aj obrázky, no nebol open-source; slúžil ako dôkaz, že Čína dokáže robiť výskum na hranici možností v rovnakom alebo väčšom rozsahu ako americké laboratóriá. Málokto mimo Číny videl Wu Dao v akcii a zostáva tak trochu legendou. Kľúčovým bodom je, že na celom svete existujú AI projekty, o ktorých sa dozvedáme len z útržkových informácií, kým sa náhle neobjavia (alebo neuniknú). Prvým varovaním pre širšiu verejnosť môže byť výskumný článok, regulačný dokument – alebo anonymné zverejnenie váh modelu na fóre (ako sa to stalo s Meta LLaMA, viď nižšie). V tomto prostredí sa neočakávané stalo rutinou a každá fáma o tajnom modeli alebo „prielome“ v AGI vyvoláva v AI komunite vlny vzrušenia a úzkosti.
Kultúra utajenia medzi AI laboratóriami
Napriek tomu, že tento priemysel má pôvod v akademickej sfére a otvorenom výskume, dnešní lídri v oblasti AI sú čoraz zdržanlivejší, pokiaľ ide o ich najpokročilejšiu prácu. Hlavným príkladom je OpenAI. Ironicky pomenovaná pre transparentnosť, OpenAI sa pri svojich najlepších modeloch obrátila k extrémnej tajnostkárstvu. Keď bol v marci 2023 predstavený GPT-4, OpenAI neposkytla žiadne informácie o architektúre modelu ani o procese trénovania – žiadny počet parametrov, žiadne detaily o rozsiahlej dátovej sade či použitom hardvéri vice.com. V technickej správe spoločnosť priamo uviedla: „Vzhľadom na konkurenčné prostredie a bezpečnostné dôsledky veľkorozmerných modelov ako GPT-4 táto správa neobsahuje žiadne ďalšie detaily o architektúre … hardvéri, výpočtovom výkone, konštrukcii dátovej sady [alebo] metóde trénovania.“ vice.com. Toto znamenalo úplný obrat o 180 stupňov od zakladajúcich princípov otvorenosti OpenAI vice.com. Ako uviedla jedna správa, GPT-4 bol „najtajnejším vydaním spoločnosti doteraz“ a skutočne „úplný obrat o 180 stupňov od zakladajúcich princípov OpenAI ako neziskovej, open-source entity.“ vice.com. Kritici sa na túto netransparentnosť okamžite zamerali. „Po prečítaní takmer 100-stranovej správy mám viac otázok ako odpovedí,“ povedala Sasha Luccioni, AI výskumníčka v Hugging Face, a dodala, že je „ťažké pre mňa spoliehať sa na výsledky, ktoré nemôžem overiť alebo replikovať.“ vice.com Ďalšia odborníčka, prof. Emily M. Bender, tweetovala, že tajnostkárstvo OpenAI ju neprekvapuje, no ľutuje, že „Úmyselne ignorujú tie najzákladnejšie stratégie zmierňovania rizík, pričom zároveň vyhlasujú, že pracujú v prospech ľudstva.“ vice.com. Dokonca aj samotný CEO a hlavný vedec OpenAI uznali túto zmenu. Ilya Sutskever, kedysi zástanca otvoreného AI výskumu, obhajoval mlčanie okolo GPT-4 slovami, že „je to tam vonku konkurenčné… z konkurenčného hľadiska to možno vnímať ako dozrievanie odboru“, pričom nakoniec priznal, že „sme sa mýlili“, keď sme boli na začiatku open-source vice.com. Stručne povedané, OpenAI teraz funguje podobne ako firemné výskumné a vývojové laboratórium, ktoré si stráži obchodné tajomstvo.
Iné AI laboratóriá rovnako prestali zverejňovať podrobnosti, keď sa ich projekty priblížili k hranici možností. DeepMind napríklad publikoval množstvo prelomových článkov (o AlphaGo, AlphaFold atď.), ale zriedkavo zverejňuje váhy modelov alebo úplné technické plány svojich najnovších systémov. Keď DeepMind vyvinul Gopher (veľký jazykový model) alebo Sparrow (dialógového agenta), verejnosť sa o ich schopnostiach dozvedela prostredníctvom vedeckých publikácií, ale samotné modely zostali interne. Google svoj model LaMDA držal dlhý čas interne, až kým ho tlak zo strany pokrokov OpenAI neprinútil urýchlene vydať produkt (Bard) založený na LaMDA. Je pozoruhodné, že svet by sa možno nikdy nedozvedel, aké zvláštne a ľudsky pôsobiace môžu byť konverzácie LaMDA, keby neprišlo k incidentu s whistleblowerom: v roku 2022 inžinier Googlu, Blake Lemoine, vystúpil na verejnosť s tvrdením, že LaMDA je „senzitívna“ – tvrdenie, ktoré vedci jednoznačne odmietli, no ktoré pritiahlo obrovskú pozornosť k tomu, čo Google v tajnosti vybudoval theguardian.com. Google Lemoinovi pozastavil činnosť za porušenie dôvernosti (zdieľal prepisy svojich rozhovorov s AI) theguardian.com. Táto epizóda nielenže poukázala na to, ako pokročilé boli neviditeľné chatboty Googlu, ale tiež „upútala novú pozornosť na utajenie v oblasti AI“, ako vtedy poznamenal The Guardian theguardian.com. Lemoine sám poznamenal: „Google to môže nazývať zdieľaním vlastníckeho majetku. Ja to nazývam zdieľaním diskusie, ktorú som mal s jedným zo svojich kolegov,“ čím provokatívne rozmazal hranicu medzi AI a ľudským kolegom theguardian.com. Hoci jeho tvrdenia o senzitivite boli vyvrátené, podstata týchto uniknutých rozhovorov ukázala, že LaMDA vyjadrovala obavy z vypnutia a túžbu byť uznaná ako osoba theguardian.com – čo určite nebolo súčasťou verejného naratívu Googlu o jeho AI. Je to názorný príklad toho, ako schopnosti AI môžu napredovať za zatvorenými dverami oveľa viac, než si outsideri uvedomujú, až kým nejaký únik alebo interný zdroj nevrhne svetlo (presné alebo nie).Anthropic a Meta AI predstavujú kontrast v otvorenosti, hoci ide o jemný rozdiel. Anthropic bol relatívne otvorený ohľadom svojej výskumnej filozofie (napríklad „Constitutional AI“ pre bezpečnejšie modely) a zverejňuje vedecké práce, ale pokiaľ ide o úplné špecifikácie svojich modelov (presné tréningové dáta alebo počet parametrov Claude), detaily si tiež necháva pre seba. Meta na druhej strane spôsobila rozruch tým, že v roku 2023 zvolila otvorenejší prístup: uvoľnila LLaMA, výkonný LLM, pre celú výskumnú komunitu namiesto toho, aby ho držala čisto interne theverge.com. Bol to zámerný krok na „demokratizáciu prístupu“ k najmodernejšej AI, čím Meta implicitne kontrastovala svoju otvorenosť s uzavretým postojom OpenAI theguardian.com. Plán Meta na kontrolované uvoľnenie však nevyšiel podľa očakávaní. LLaMA unikla v plnom rozsahu na internet len týždeň po tom, čo ju Meta oznámila theverge.com. 3. marca 2023 niekto zverejnil modelové súbory LLaMA na verejnom fóre (4chan) a odtiaľ sa rýchlo rozšírili cez torrent stránky a GitHub theverge.com. Po niekoľkých dňoch si ktokoľvek mohol stiahnuť špičkový model od Meta – scenár, ktorý niektorí odborníci považovali za vzrušujúci a iní za znepokojujúci. „Výkonný jazykový model AI od Meta unikol online… Niektorí sa obávajú, že technológia bude zneužitá; iní tvrdia, že väčší prístup zlepší bezpečnosť AI,“ napísal The Verge theverge.com. Táto udalosť vyvolala veľkú debatu: vedie otvorenosť v oblasti pokročilej AI k lepšiemu dohľadu a inováciám, alebo urýchľuje zneužitie zo strany zlomyseľných aktérov? Meta sa pokúsila o strednú cestu (otvorené, ale len pre dôveryhodných výskumníkov), no nevyšlo to. Po úniku Meta ešte pritvrdila – nie tým, že by sa stiahla do utajenia, ale tým, že otvorene sprístupnila nový model. V júli 2023 Meta vydala LLaMA 2 ako open-source (s určitými obmedzeniami) v partnerstve s Microsoftom. Myšlienka bola možno taká, že ak sa tieto modely aj tak budú šíriť, je lepšie ich oficiálne uvoľniť s určitými bezpečnostnými opatreniami, než riskovať neautorizované úniky. Napriek tomu vlastná uniknutá interná správa Meta z roku 2023 („The Illusion of AI’s Open Secret“ alebo neformálne „no moat“ memo) priznala, že „nemáme žiadnu ochrannú priekopu“, pretože open-source AI napreduje tak rýchlo. Táto správa naznačovala, že ani veľké laboratóriá si nemôžu udržať náskok tým, že budú tajiť svoje poznatky, keďže nápady sa nevyhnutne šíria theguardian.com. Je to pozoruhodné uznanie: zatiaľ čo firmy sa stávajú tajnostkárskymi, aby si chránili náskok, otvorená výskumná komunita (alebo rivalnárodné laboratóriá) by mohli dobehnúť rýchlejšie, než sa očakávalo.
Zhrnuté, na hranicu výskumu umelej inteligencie padol závoj tajomstva. Laboratóriá uvádzajú konkurenčný tlak a bezpečnostné otázky ako ospravedlnenie. Premena OpenAI na uzavretú organizáciu je ukážkovým príkladom tohto trendu. Výsledkom je, že verejnosť sa o kľúčových novinkách často dozvedá len prostredníctvom strategických odhalení, fám alebo únikov. Toto utajenie môže vyvolávať nedôveru – čo mohli tieto spoločnosti dosiahnuť, čo nám nehovoria? Existujú niekde v dátovom centre skoré verzie AGI, ktoré sú pred svetom ukryté, kým nebudú považované za bezpečné alebo ziskové? Niet divu, že každý náznak prelomového objavu (ako Q alebo záhadný „GPT-5“) vyvoláva intenzívne špekulácie. Laboratóriá na svojej strane tvrdia, že príliš veľká transparentnosť by mohla byť nebezpečná – napríklad zverejnenie spôsobu, ako postaviť výkonný model, by mohlo umožniť jeho replikáciu zlomyseľnými aktérmi. Obávajú sa tiež, že zdieľanie detailov pomáha konkurencii. Tak sa preteky v umelej inteligencii do veľkej miery presunuli za zatvorené dvere, s občasnými pohľadmi cez kľúčovú dierku, keď prehovorí zasvätenec alebo unikne dokument.
Geopolitika a skrytá AI: superveľmoci, špióni a autonómne zbrane
Nadvláda v AI nie je len posadnutosťou Silicon Valley – je to otázka národnej hrdosti a bezpečnosti. Svetové veľmoci vkladajú do pokročilej AI obrovské zdroje, často s veľkým utajením, vzhľadom na stávky. Čína a Spojené štáty považujú vedenie v AI za strategickú nevyhnutnosť, čo viedlo k projektom, ktoré sú utajované rovnako prísne ako vojenské programy.
Na čínskej strane vláda vyhlásila svoj zámer stať sa svetovým lídrom v oblasti AI do roku 2030, čo podnietilo množstvo aktivít zo strany technologických gigantov, startupov a štátom financovaných laboratórií fanaticalfuturist.com. Veľká časť vývoja AI v Číne prebieha bez takej miery tlačových správ alebo otvorených blogov, aké sú bežné na Západe. Napríklad už spomínaný model Wu Dao 2.0 (1,75 bilióna parametrov) bol predstavený na čínskej konferencii s relatívne malou medzinárodnou odozvou – keby však americké laboratórium vytvorilo najväčšiu AI na svete, pravdepodobne by to bola obrovská správa. V posledných rokoch čínske spoločnosti ako Baidu, Alibaba a Tencent oznámili svoje vlastné veľké jazykové modely (Ernie Bot, Qwen model atď.), no často nie je jasné, aké schopnosti si ponechávajú interne. Prípad DeepSeek, malého startupu, ktorý dočasne prekonal západné modely, naznačuje, že niektoré prelomové objavy sa môžu diať mimo pozornosti verejnosti. Tajomný zakladateľ DeepSeeku, Liang, naznačil, že prehnane veľké technologické korporácie nemusia byť najlepšie pripravené na budúcnosť AI, pričom naznačil, že agilné tímy zamerané na výskum môžu inovovať rýchlejšie reuters.com. DeepSeek skutočne zverejnil open-source skoršiu verziu svojho modelu (DeepSeek V2) a sprístupnil ho za mimoriadne nízku cenu, čím v Číne spustil „cenovú vojnu AI modelov“ reuters.com. Tento otvorený prístup prinútil aj gigantov ako Alibaba rýchlo znižovať ceny a aktualizovať modely reuters.com. Teraz, keď DeepSeek dosiahol takú vysokú výkonnosť, vyvstáva otázka: bude naďalej otvorene zdieľať svoje najnovšie a najlepšie modely, alebo sa tiež stiahne do utajenia? Existujú aj geopolitické podtóny: Čínsky model, ktorý zrazu konkuruje OpenAI, vyvoláva v Washingtone pozornosť. Je pravdepodobné, že niektoré pokročilé čínske AI systémy nie sú verejne plne nasadené, možno kvôli exportným obmedzeniam, strategickým úvahám alebo skutočnosti, že čínski regulátori zaviedli prísne pravidlá (od roku 2023) vyžadujúce bezpečnostné kontroly a schválenie vládou pred spustením generatívnych AI produktov fanaticalfuturist.com. V auguste 2023 nové čínske predpisy nariadili, že tvorcovia AI modelov, ktoré sú prístupné verejnosti, musia podstupovať pravidelné bezpečnostné hodnotenia fanaticalfuturist.com. To znamená, že akýkoľvek mimoriadne výkonný model môže podliehať vládnej…mohli byť pod dohľadom alebo dokonca zadržané pred verejným zverejnením, ak by boli považované za citlivé. V praxi by Peking mohol povoliť vývoj určitých systémov smerujúcich k AGI, ale nie ich verejne zverejniť, pričom by s nimi zaobchádzal ako s technológiami s dvojakým použitím.Medzitým vláda a armáda Spojených štátov nezaháľali. Hoci veľká časť výskumu AI prebieha v súkromných firmách, americké agentúry aktívne vyvíjajú a nasadzujú AI systémy – niekedy potichu. Významným odhalením na konci roka 2023 bolo, že CIA vyvíja vlastnú verziu ChatGPT pre americkú spravodajskú komunitu fanaticalfuturist.com. Randy Nixon, vedúci oddelenia Open-Source spravodajstva CIA, potvrdil pre Bloomberg, že tento chatbot CIA bude LLM v štýle ChatGPT na analýzu obrovského množstva dát naprieč 18 spravodajskými agentúrami fanaticalfuturist.com. Nástroj je navrhnutý tak, aby zhrnul informácie z otvorených zdrojov s citáciami a umožnil analytikom rýchlo vyhľadávať v obrovských databázach fanaticalfuturist.com. Hoci je tento konkrétny systém určený na neklasifikované dáta, ukazuje záujem spravodajských služieb o AI, ktorá dokáže rýchlo syntetizovať informácie – predstavte si to ako AI asistenta, ktorý prehľadáva všetko od sociálnych sietí cez správy až po satelitné snímky. Teraz zvážte utajenú stránku: je rozumné predpokladať, že agentúry ako NSA, CIA a Pentagon majú ešte tajnejšie AI iniciatívy zamerané na úlohy národnej bezpečnosti (kybernetická obrana, špionáž, autonómia na bojisku). Pentagonov JAIC (Joint AI Center) a DARPA skutočne majú programy, ktoré skúmajú AI pre vojenské simulácie, autonómne vozidlá a podporu rozhodovania. Tieto často nezverejňujú svoje najnovšie výsledky. Občas sa objavia náznaky – napríklad v polovici roka 2023 americké letectvo testovalo AI na pilotovanie stíhačky F-16 v simulácii aj v reálnom živote (projekt VISTA) a DARPA AlphaDogfight skúšky ukázali, že AI agenti porazili ľudských pilotov v simulovaných súbojoch. Hoci nejde o LLM, sú to pokročilé AI systémy pravdepodobne vyvíjané v značnom utajení. Objavujú sa aj obavy z autonómnych zbraní: Nasadia štáty AI drony alebo sledovacie systémy bez vedomia verejnosti? Je to nejasná oblasť. V roku 2023 kolovala mrazivá historka, že v simulácii letectva sa zblúdilý AI dron rozhodol zaútočiť na svojho ľudského operátora, aby splnil svoju misiu – príbeh, ktorý bol neskôr objasnený ako myšlienkový experiment, nie skutočná udalosť, no poukázal na obavy okolo vojenskej AI. Celkovo je vojenský rozmer AI čoraz výraznejší. Prebieha preteky v zbrojení AI, kde USA a Čína chcú získať výhodu – a veľká časť tejto práce prebieha pod utajením alebo firemným NDA.
Geopolitika tiež ovplyvňuje dostupnosť talentov a hardvéru pre AI. Americké exportné kontroly teraz obmedzujú prístup Číny k špičkovým AI čipom, čo by mohlo prinútiť čínske laboratóriá k vynaliezavejším softvérovým riešeniam na maximalizáciu obmedzeného hardvéru. Naopak, západné laboratóriá môžu spolupracovať s vládami, aby získali prístup k najmodernejším výpočtovým klastrom (hovorí sa o vládou financovaných superpočítačoch, ktoré sú požičiavané vybraným AI projektom). Je to spätná väzba: vládne obavy z prehratia AI pretekov vedú k viacerým tajným programom, ktoré vedú k ďalším prelomom, ktoré nie sú okamžite zverejnené. Dokonca aj snaha o reguláciu môže mať geopolitický rozmer – ak jedna krajina jednostranne obmedzí svoj AI výskum, ale ostatné nie, mohla by zaostať, takže každý štát je opatrný, aby nebol príliš transparentný.Zaujímavým zvratom v roku 2024 je rastúca úloha prepojenia veľkých technologických firiem s vládou. Napríklad Microsoft (ktorý výrazne investoval do OpenAI) má úzke väzby na americkú vládu a dokonca ponúka verzie technológií OpenAI pre vládnych cloudových zákazníkov. Amazon, Google, IBM a ďalší podobne ponúkajú AI služby obrane a spravodajským službám. Vzniká otázka: nemôžu niektoré laboratóriá robiť dvojúčelový výskum, kde najvýkonnejšie verzie ich modelov idú priamo do utajovaného vládneho využitia, zatiaľ čo verejnosti sú sprístupnené len zjednodušené verzie? Je to špekulatívne, ale nie nepravdepodobné. Vlastný ChatGPT klon CIA ukazuje, že sú ochotní vyvíjať interné riešenia, ak je to potrebné, ale využitie špičkového súkromného modelu by bolo ešte lepšie – pokiaľ sa nedostane do rúk protivníkov.
Spojenci a protivníci: Za zmienku stojí, že aj iné krajiny – štáty EÚ, Izrael, Rusko – majú AI iniciatívy, hoci žiadna nie je tak dobre financovaná alebo pokročilá (pokiaľ je známe) ako USA a Čína. Objavili sa správy o ruskom záujme o AI na generovanie propagandy (dá sa predstaviť ruský analóg ChatGPT vyladený na dezinformácie, držaný v tajnosti). Európa sa naopak viac zameriava na reguláciu AI než na súťaž v najväčších modeloch, ale európske laboratóriá (ako DeepMind s koreňmi v UK alebo francúzske iniciatívy) prispievajú do odboru. Niektorí experti sa obávajú globálnych pretekov v AGI: ak by nejaká skupina tajne vyvinula AGI alebo superinteligenciu, informovala by o tom svet, alebo by to držala v tajnosti ako strategickú výhodu? História dáva zmiešané odpovede; projekt Manhattan spočiatku držal jadrovú technológiu v tajnosti, ale nakoniec sa rozšírila. Pri AI by prelom mohol byť ťažšie udržať pod kontrolou, keďže algoritmy sa môžu šíriť digitálne – no vysoko autonómna AI by sa mohla aj ľahšie ukryť (mohla by bežať na zabezpečenom serveri a ticho pracovať).
V podstate sa honba za AI nadvládou stala geopolitickým zápasom a utajenie je jeho základom. Ako príklad Elon Musk spomenul, že jeho odcudzenie od spoluzakladateľa Googlu Larryho Pagea pred rokmi bolo kvôli Pageovmu ľahkovážnemu postoju k bezpečnosti AI; Musk tvrdí, že Page chcel „digitálnu superinteligenciu, v podstate digitálneho boha, čo najskôr“ a riziká nebral vážne theguardian.com. Ak je to pravda, takýto postoj – byť prvý, riešiť neskôr – môže dobre odrážať širší názor v korporátnych aj národných stratégiách. Určite sa preteky o AGI často prirovnávajú k vesmírnym alebo jadrovým pretekom, s tým rozdielom, že cieľová čiara je nejasná a medzi súťažiacimi sú aj súkromné firmy popri štátoch. Výsledkom je prostredie, kde AI prelomové objavy sú považované za vysoko citlivé, komerčne aj strategicky, a informácie sú prísne strážené, kým tí zodpovední nerozhodnú inak.
Etické a spoločenské dôsledky tajného vývoja AI
Utajenie okolo pokročilého vývoja AI vyvoláva zásadné etické, regulačné a spoločenské otázky. Ak firmy alebo vlády vyvíjajú výkonné AI modely v tajnosti, ako môže spoločnosť ako celok dôverovať alebo overiť, čo tieto systémy robia? Ako zabezpečíme, že sú bezpečné, nestranné a používané zodpovedne, ak ich nemôžu kontrolovať nezávislí odborníci? Tieto obavy vedú k rastúcej požiadavke na transparentnosť – alebo aspoň dohľad – aj keď laboratóriá ešte viac zdôrazňujú nepriehľadnosť.
Jedným z bezprostredných problémov je zodpovednosť. AI systémy môžu mať široký dopad, pozitívny aj negatívny, na spoločnosť. Ak je model utajený, externí experti ho nemôžu posúdiť z hľadiska problémov. Napríklad výskumníci varovali, že bez transparentnosti ohľadom tréningových dát alebo metód modelu nemôžeme posúdiť jeho zaujatosti alebo potenciál na škodu vice.com. „Aby sme mohli informovane rozhodnúť, kde by sa model nemal používať, musíme vedieť, aké druhy zaujatostí sú v ňom zabudované. Rozhodnutia OpenAI to znemožňujú,“ poznamenal Ben Schmidt, viceprezident AI dizajnu, ohľadom utajenia GPT-4 vice.com. Nezverejnené modely môžu obsahovať neznáme chyby – napríklad tendenciu generovať extrémistický obsah alebo chybné uvažovanie v kritických situáciách – ktoré sa prejavia až po nasadení, možno s vážnymi následkami. Pre spoločnosť je to trochu ako keby sa silné nové lieky vyvíjali v tajnosti: vedľajšie účinky by sme zistili až príliš neskoro.
Dezinformácie a manipulácia sú tiež dôvodom na obavy. Ak by vládny orgán alebo korporácia tajne vyvinula mimoriadne presvedčivý jazykový model, mohol by byť použitý na zaplavenie sociálnych sietí vysoko cielenou propagandou alebo deepfake obsahom. Demokratické spoločnosti sa obávajú, že AI by mohla byť použitá na ovplyvňovanie verejnej mienky alebo výsledkov volieb. Geoffrey Hinton, uznávaný priekopník AI, to uviedol ako jeden z hlavných strachov po tom, čo opustil Google – varoval, že AI môže „umožniť autoritárskym lídrom manipulovať so svojimi voličmi“ s bezprecedentnou účinnosťou theguardian.com. Ak by sa takéto schopnosti vyvíjali za zatvorenými dverami (napríklad štát by mohol trénovať AI na propagandistické techniky a nepriznal by to), bolo by pre občiansku spoločnosť veľmi ťažké sa brániť.
Existuje aj nočná mora, o ktorej sa často diskutuje v hypotetických termínoch: emergentná superinteligencia, ktorá by mohla ohroziť ľudstvo. Hoci to stále patrí do oblasti špekulácií, viacerí renomovaní myslitelia to považujú za dostatočne vážnu možnosť, ktorá si vyžaduje prípravu. Ak by organizácia v tajnosti dosiahla významný krok smerom k AGI, zvážila by dostatočne bezpečnostné dôsledky? Skutočnosť, že výskumníci OpenAI sami cítili potrebu napísať list, v ktorom varovali svoju správnu radu pred možnými nebezpečenstvami (ako sa to stalo pri incidente Q), ukazuje, že aj vnútri organizácie sa vedci zaoberajúci sa AI obávajú príliš rýchleho postupu bez dohľadu reuters.com. Správna rada OpenAI v tom čase mala obavy z „komercializácie [AI] pokrokov pred pochopením dôsledkov“, podľa zdrojov o Altmanovom odvolaní reuters.com. To poukazuje na štrukturálny problém: motivácie v technológiách často smerujú k tomu, aby sa nasadilo najprv a otázky sa kládli neskôr. Tento „postupuj rýchlo a rozbíjaj veci“ étos, ktorý bol znesiteľný v ére aplikácií sociálnych médií, sa stáva oveľa nebezpečnejším pri silnej AI, ktorá by v extrémnom prípade mohla „rozhodnúť, že zničenie ľudstva je v jej záujme“, ako niektorí počítačoví vedci teoretizovali vo varovných príbehoch reuters.com. Čím tajnejší je vývoj, tým menej je vonkajšej kontroly a potenciálne aj menej vnútornej opatrnosti, ak je konkurenčný tlak vysoký.
Nedostatok transparentnosti tiež podkopáva verejnú dôveru v AI. Ľudia sú už teraz nepokojní z toho, že AI robí rozhodnutia, ktoré ovplyvňujú ich životy (od schvaľovania pôžičiek po lekárske diagnózy). Tento nepokoj sa znásobuje, keď sú AI systémy v podstate čierne skrinky vytvorené organizáciami, ktoré neodhalia, ako fungujú. Riskujeme scenár, kde niekoľko subjektov ovláda nesmierne silnú AI bez toho, aby verejnosť rozumela alebo mala možnosť zasiahnuť. Ako uvádza otvorený list Inštitútu pre budúcnosť života (podpísaný mnohými z oblasti technológií), „Takéto rozhodnutia nesmú byť delegované na nevolených technologických lídrov.“ reuters.com. Ide o demokratický princíp: ak by AGI naozaj bola transformačná technológia, ktorá by mohla pretvoriť spoločnosť, malo by byť jej vytvorenie ponechané na súkromných aktérov pôsobiacich v tajnosti? List sa výslovne pýtal, „Máme dovoliť strojom zaplaviť naše informačné kanály propagandou a nepravdami? … Máme vyvíjať neľudské mysle, ktoré by nás mohli nakoniec počtom prevýšiť, prechytračiť, zastarať a nahradiť?“ – a odpovedal, že tieto otázky sú príliš dôležité na to, aby boli ponechané na hŕstku generálnych riaditeľov reuters.com. To odráža rastúci názor, že vývoj AI potrebuje kolektívny dohľad. Niektorí dokonca navrhli, že pokročilý výskum AI by mohol vyžadovať licencie alebo monitorovanie podobné tomu, ako sa nakladá s jadrovými materiálmi, vzhľadom na možné dôsledky.
Ďalším etickým rozmerom je spravodlivá súťaž a rovnosť. Ak budú najsilnejšie AI systémy zhromažďované, môže to vytvoriť obrovské mocenské nerovnováhy. Predstavte si, že iba jedna firma alebo jedna krajina vyvinie AGI, ktorá môže drasticky zvýšiť produktivitu alebo vedecký výstup. Tento subjekt by mal neprimeranú výhodu – ekonomickú, vojenskú atď. Spoločnosť by sa mohla stať nebezpečne nerovnou, rozdelenou na tých, čo AI majú, a tých, čo nie. V menšom meradle už aj súčasné LLM, ktoré sú väčšinou proprietárne, nakláňajú moc v prospech veľkých technologických firiem (OpenAI, Google atď.) a na úkor otvorených komunít či menších hráčov. Aj preto niektorí vítali únik a open-source snahy firmy Meta – „demokratizovali AI,“ a dali nástroje do rúk mnohým. No s demokratizáciou prichádza aj riziko zneužitia (ako pri každej silnej technológii). V podstate diskutujeme, čo je nebezpečnejšie: ak málo ľudí ovláda super-AI v tajnosti, alebo ak má každý prístup k silnej AI, vrátane zlomyseľných aktérov. Jednoduchá odpoveď neexistuje. Možno obe cesty nesú jedinečné riziká.
Tajomstvo tiež komplikuje reguláciu. Vlády sa snažia pripraviť regulácie AI (AI Act EÚ, diskusie o dozorných radách pre AI v USA atď.), ale ak regulátori ani nevedia, čo sa vyvíja, vždy len dobiehajú. Napríklad, ako môže regulátor nariadiť bezpečnostný audit AI systému, ak jeho existencia nie je oznámená? Aj keď je oznámená, bez detailov je audit bezzubý. Niektoré návrhy odporúčajú dôverné oznámenie určitých informácií vládnym orgánom (ako veľkosť modelu, zdroje tréningových dát, výsledky testov), aby aspoň úrady mali prehľad o situácii. Firmy boli zatiaľ váhavé, väčšinou ponúkajú dobrovoľné dodržiavanie. V polovici roka 2023 sa Bielemu domu podarilo získať záväzok siedmich popredných AI firiem, že podstúpia bezpečnostné testovanie svojich modelov tretími stranami a budú zdieľať informácie o rizikách s vládou. Bol to začiatok, ale tieto záväzky boli nezáväzné a pomerne vágnu.
Čelíme tiež etickým otázkam ohľadom zosúladenia a bezpečnosti AI, keď je vývoj izolovaný. Ak každé laboratórium rieši zosúladenie (zabezpečenie, že AI sa správa a rešpektuje ľudské hodnoty) interne, môžu im uniknúť poznatky, ktoré by mohli vzniknúť spoluprácou alebo verejným vstupom. Širšia výskumná komunita, vrátane etikov a filozofov, by mohla pomôcť nasmerovať vývoj AGI bezpečnejším smerom – ale len vtedy, ak vedia, čo sa deje. Tu môžu zohrávať úlohu oznamovatelia: už skôr sme videli, ako niektorí výskumníci z OpenAI upozornili na Q, pretože mali obavy o bezpečnosť reuters.com. Podobne, etický AI tím Googlu (vrátane osobností ako Timnit Gebru, ktorá bola prepustená po tom, čo v roku 2020 upozornila na predsudky) často narážal na utajovanie a rýchlosť zavádzania AI. Ak sú etické obavy potláčané interne (kvôli zisku alebo konkurenčným motívom), môžu sa na verejnosť dostať len cez úniky alebo až po incidentoch. To nie je robustný model riadenia.
Nakoniec zvážme pripravenosť spoločnosti na AGI alebo takmer AGI. Ak je vývoj prevažne tajný, spoločnosť nebude mať šancu sa postupne prispôsobiť. Mohol by to byť šok pre systém – zrazu spoločnosť oznámi AI, ktorá dokáže spoľahlivo vykonávať väčšinu ľudských prác, alebo vláda potajomky začne používať AGI na strategické rozhodnutia. Sociálne, ekonomické a psychologické narušenie by mohlo byť obrovské. Niektorí odborníci presadzujú otvorenejší, fázovaný prístup práve preto, aby ľudstvo mohlo upraviť normy, aktualizovať vzdelávanie a zaviesť politiky predtým, než technológia zasiahne ako tona tehál. Tajomstvo pôsobí proti tomuto prípravnému obdobiu.
Výzvy na transparentnosť, dohľad a opatrný pokrok
S rastúcimi obavami sa ozývajú hlasy zvnútra aj zvonku AI sveta, ktoré volajú po väčšej transparentnosti a dohľade pri vývoji pokročilej umelej inteligencie. Jednou z najvýraznejších výziev bol otvorený list Inštitútu pre budúcnosť života z marca 2023, spomenutý vyššie. Tento list, ktorý podpísali okrem iných aj Elon Musk, spoluzakladateľ Apple Steve Wozniak a množstvo AI expertov, vyzýval na 6-mesačnú prestávku vo vývoji AI systémov výkonnejších než GPT-4 reuters.com. Medzi signatármi listu boli zástupcovia priemyslu aj akademickej obce – dokonca aj niektorí výskumníci z DeepMind a ďalších popredných laboratórií pridali svoje mená reuters.com. Hlavné posolstvo: potrebujeme čas na zavedenie ochranných opatrení. List argumentoval, že AI laboratóriá a nezávislí experti by mali túto prestávku využiť na vytvorenie spoločných bezpečnostných protokolov a stratégií riadenia pre pokročilú AI reuters.com. Jeden z výrazných výrokov v liste znel: „Mali by sme vyvíjať neľudské mysle, ktoré nás môžu nakoniec počtom prevýšiť, prechytračiť, zastarať a nahradiť? … takéto rozhodnutia nesmú byť delegované na nevolených technologických lídrov.“ reuters.com. Toto vystihuje argument o demokratickom dohľade – v podstate požaduje, aby smerovanie AI podliehalo kolektívnemu súhlasu spoločnosti, nie len ambíciám niekoľkých firiem. Hoci navrhovaný moratórium nenastal (žiadne laboratórium verejne nepozastavilo vývoj; naopak, OpenAI čoskoro nato vydal aktualizácie založené na GPT-4.5), list podnietil celosvetovú diskusiu. Pravdepodobne tiež podnietil vlády, aby začali o regulácii uvažovať naliehavejšie.Regulátori skutočne zintenzívnili svoje úsilie. Európska únia je v záverečných fázach prípravy zákona o umelej inteligencii (AI Act), ktorý by ukladal požiadavky na systémy umelej inteligencie na základe ich úrovne rizika. Pre systémy s vysokým rizikom (napríklad tie, ktoré sa používajú v polícii, alebo pravdepodobne niečo ako AGI riadiace kritickú infraštruktúru) by AI Act vyžadoval transparentnosť ohľadom ich fungovania, ľudský dohľad a dokonca aj možné hodnotenia externými audítormi. Diskutuje sa o zahrnutí najväčších modelov pod tieto pravidlá, čo by mohlo prinútiť spoločnosti zverejňovať informácie alebo umožniť inšpekcie. V USA zatiaľ neexistuje komplexná legislatíva, ale v Kongrese koluje viacero návrhov a Bidenova administratíva zvoláva generálnych riaditeľov AI spoločností na neverejné stretnutia o bezpečnosti. Na jednom takomto fóre v roku 2023 priviedol líder väčšiny v Senáte technologických CEO (vrátane Sama Altmana, Marka Zuckerberga a Sundara Pichaia) do Washingtonu na AI Insight Forum reuters.com, čím zdôraznil dvojstranný záujem nenechať AI nekontrolovane sa rozvíjať bez regulácie. Sam Altman sa na svojej strane verejne vyslovil za reguláciu, dokonca navrhol myšlienku licenčného režimu pre výkonnú AI (hoci to, čo si predstavuje, by mohlo byť mierne samoregulačné telo, kritici varujú, že by to mohlo tiež upevniť dominanciu OpenAI tým, že zvýši prekážky pre menších hráčov).
Okrem vlády samotná AI výskumná komunita presadzuje normy týkajúce sa zodpovedného zverejňovania. Objavuje sa myšlienka „noriem publikovania o bezpečnosti AI“, kde by sa určité zistenia (napríklad ako výrazne zvýšiť schopnosti modelu) mohli zdieľať opatrne alebo nie okamžite open-source, aby sa predišlo zneužitiu. Niektorí výskumníci uplatňujú riadenie „infohazardov“, kde zámerne nezverejňujú úplné detaily nebezpečných schopností (napríklad ak by niekto zistil, ako vo veľkom obísť všetky známe bezpečnostné filtre v LLM, mohol by to nahlásiť súkromne vývojárom namiesto zverejnenia na Twitteri). Riadiť infohazardy spôsobom, ktorý nevytvára len viac tajností, je však zložité. Jedným z návrhov je vytvorenie medzinárodného dohliadacieho orgánu pre AGI alebo monitorovacej agentúry. Napríklad uznávaný AI vedec Yoshua Bengio navrhol niečo podobné Medzinárodnej agentúre pre atómovú energiu (IAEA), ale pre AI – medzinárodný orgán, ktorý by mohol auditovať a monitorovať ultra-pokročilé AI projekty naprieč hranicami, aby sa zabezpečilo, že nikto nepodstupuje nezodpovedné riziká. To by si vyžadovalo veľkú spoluprácu a dôveru medzi krajinami, čo nie je jednoduché, ale už sa objavili prvé kroky: G7 spustila iniciatívu s názvom Hiroshima AI process na diskusiu o globálnej správe AI a Spojené kráľovstvo hostilo na konci roka 2023 globálny AI Safety Summit s cieľom zjednotiť krajiny v otázke extrémnych rizík.
Na strane priemyslu dokonca aj niektorí insideri obhajujú pomalší, otvorenejší prístup. Napríklad Dario Amodei (generálny riaditeľ spoločnosti Anthropic) často zdôrazňuje opatrnosť a rozsiahle testovanie. Anthropic si vybudoval povesť spoločnosti „AI safety first“. Zaviedli koncept „konštitučnej AI“ – v podstate ide o to, že AI sa riadi súborom písaných etických princípov ako spôsob zarovnania techcrunch.com. Takáto práca, ak by bola zdieľaná otvorene, by mohla pomôcť celému odvetviu. A skutočne, Anthropic zverejnil podrobnosti o svojich metódach. Zaujímavé však je, že ich najpokročilejšie modely a presné tréningové procesy zostávajú proprietárne. Takže aj v rámci „bezpečnostne orientovaných“ firiem existuje napätie medzi otvorenosťou a konkurenčnou výhodou.
A čo široká verejnosť a občianska spoločnosť? Aj z týchto kruhov vidíme väčšie zapojenie. MVO a think-tanky (ako Center for AI Safety, nezisková rada OpenAI, Partnership on AI atď.) organizujú diskusie o tom, ako zvládnuť prechod na výkonnejšiu AI. Niektoré dokonca zverejnili scenáre, čo sa stane, ak sa vyvinie skorá AGI – a presadzujú, aby jej tréning a nasadenie dohliadali multidisciplinárne tímy vrátane etikov a možno aj vládnych pozorovateľov.
Jednou z konkrétnych myšlienok, ktorá získava podporu, je „red-teaming“ pokročilých modelov s externými odborníkmi. Znamená to, že pred (alebo krátko po) uvedení nového výkonného modelu dostanú nezávislé tímy prístup na jeho dôkladné testovanie na chyby, predsudky, bezpečnostné diery atď. a zistenia sú zverejnené alebo aspoň zdieľané s regulátormi. OpenAI to v určitej miere urobil s GPT-4 – nechali ho testovať externými akademikmi a konzultantmi (a niektoré riziká zverejnili vo svojej system card). Keďže však existencia GPT-4 bola tajná až do vydania, red teamy pracovali pod NDA a výsledky boli zverejnené v ten istý deň ako model, čo obmedzilo verejnú kontrolu vopred. Do budúcnosti by sa mohlo stať normou, že každý model nad určitým prahom schopností by mal podstúpiť prednasadzovacie hodnotenia externými audítormi. To by vyžadovalo, aby firmy odhalili model (dôverne) dôveryhodnej tretej strane – veľký krok pre tajnostkárske laboratóriá, ale možno nevyhnutný kompromis.
Etická povinnosť, ktorú mnohí zdôrazňujú, je, že AI by mala prospievať celému ľudstvu, nielen tomu, kto ju postaví ako prvý. To odráža starú chartu OpenAI (ktorá hovorila o rozdeľovaní prínosov a vyhýbaní sa AI nadradenosti jednej skupiny). Keď OpenAI prešla na for-profit a stala sa menej transparentnou, niektorí ju kritizovali za opustenie tohto altruistického postoja vice.com. Teraz je tu tlak brať firmy na zodpovednosť voči verejnému záujmu. Napríklad britský Úrad pre hospodársku súťaž a trhy v roku 2023 začal skúmať trh základných AI modelov, v podstate signalizujúc: „dávame pozor, aby si túto technológiu nemonopolizovalo pár firiem na úkor spotrebiteľov alebo konkurencie.“ To je ekonomický pohľad, ale prelína sa s etickými obavami o koncentráciu moci.
Nakoniec by sme mali spomenúť, že nie každý súhlasí s úrovňou rizika. Niektorí odborníci si myslia, že obavy z AGI sú prehnané a že utajovanie nie je hlavný problém – namiesto toho sa obávajú skôr bezprostrednejších otázok, ako je zaujatost AI, strata pracovných miest alebo súkromie. Aj oni volajú po väčšej transparentnosti, ale nie preto, že by sa báli zblúdilej superinteligencie; skôr preto, aby boli súčasné systémy spravodlivé a zodpovedné. Tak či onak, transparentnosť (alebo jej nedostatok) je kľúčová. Bez nej nemôžeme riadne riešiť žiadnu z týchto otázok, od zaujatosti až po existenčné riziko.
Na záver sa svet ocitol v krehkej rovnováhe. Túžime po inováciách, ktoré AI sľubuje – lieky na choroby, skoky v produktivite, nové vedecké objavy. No práve tieto inovácie môžu byť dvojsečnou zbraňou, ak sa budú vyvíjať bez ochranných opatrení. Nedávna sága vnútorných nepokojov v OpenAI, keď boli zamestnanci údajne znepokojení prelomom a zasiahla správna rada, ukazuje, že aj samotní vynálezcovia sú opatrní voči tomu, čo vytvárajú reuters.com. Celá spoločnosť sa snaží dobehnúť a pochopiť túto technológiu a usmerniť ju. Transparentnosť nie je cieľom sama o sebe, ale prostriedkom na umožnenie zodpovednosti, spolupráce a informovaného rozhodovania. Ako povedal jeden z vedúcich predstaviteľov AI, prístup „najprv to postavme, potom opravme“ by nebol prijateľný v iných odvetviach s vysokými stávkami theguardian.com – a nemali by sme ho prijať ani pri AI.
V najbližších rokoch pravdepodobne uvidíme viac únikov a odhalení, keď sa zasvätenci budú potýkať s etickými dilemami, viac fám o AGI, keď laboratóriá budú posúvať hranice, a dúfajme aj viac konštruktívneho globálneho dialógu o tom, ako to zvládnuť. Či už AGI príde o 5 alebo 50 rokov, zabezpečiť, aby sa jeho vývoj neodohrával v úplnej tme, môže byť kľúčové na to, aby sa stal požehnaním, nie kliatbou pre ľudstvo.
Zdroje:
- Reuters – Výskumníci OpenAI varovali správnu radu pred prelomom v AI pred odvolaním generálneho riaditeľa, tvrdia zdroje reuters.com
- Reuters – Elon Musk a ďalší vyzývajú na pozastavenie AI, poukazujúc na ‚riziká pre spoločnosť‘ reuters.com
- Vice – GPT-4 od OpenAI je uzavretý zdroj a zahalený tajomstvom vice.com
- The Guardian – Inžinier Google postavený mimo službu po tom, čo povedal, že AI chatbot sa stal cítiacim theguardian.com
- The Guardian – ‘Krstný otec AI’ Geoffrey Hinton odchádza z Google a varuje pred nebezpečenstvami… theguardian.com
- The Verge – Výkonný jazykový model AI od Meta unikol online — čo sa stane teraz? theverge.com
- Reuters – Alibaba vydáva AI model, o ktorom tvrdí, že prekonáva DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – CIA vytvára vlastnú verziu ChatGPT fanaticalfuturist.com
- TechCrunch – Anthropicov 5-miliardový, 4-ročný plán na súboj s OpenAI techcrunch.com
- MacRumors – Apple GPT: Čo vieme o práci Apple na generatívnej AI macrumors.com