Dezvăluit: În interiorul cursei secrete pentru inteligența artificială – scurgeri de informații, zvonuri și căutarea ascunsă a AGI

august 26, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI
  • La sfârșitul anului 2023, cercetătorii OpenAI au circulat o scrisoare internă despre un model cu nume de cod „Q” (Q-Star) care, potrivit relatărilor, a rezolvat anumite probleme de matematică la un nivel aproximativ de școală primară, alimentând speculațiile despre AGI.
  • OpenAI a lansat GPT-4 în martie 2023 fără a dezvălui arhitectura, datele de antrenament, hardware-ul sau metodologia de antrenament în raportul său tehnic.
  • Până la mijlocul anului 2024, OpenAI nu confirmase GPT-5, Sam Altman spunând că mai este mult de lucru înainte de a începe GPT-5, iar raportul The Guardian din august 2025 descriind GPT-5 ca un pas major către AGI.
  • Google DeepMind a introdus proiectul Gemini, iar Gemini 1.0 ar fi depășit GPT-4 la anumite benchmark-uri la începutul lui 2024, cu o versiune Ultra în dezvoltare.
  • Episodul LaMDA a inclus o scurgere din 2022 în care inginerul Google Blake Lemoine a susținut că LaMDA era „conștient”, iar Bard bazat pe LaMDA a fost lansat în 2022–2023.
  • Modelul LLaMA al Meta a fost scurs pe 3 martie 2023, iar Meta a lansat LLaMA 2 ca open-source cu restricții în iulie 2023, în timp ce un memo din 2023 avertiza că nu există „șanț de protecție” din cauza difuzării rapide.
  • Prezentarea de strângere de fonduri a Anthropic din 2023 descria Claude-Next ca fiind de 10 ori mai capabil decât Claude-2 și necesitând potențial aproximativ 1 miliard de dolari în resurse de calcul pentru antrenament, vizând auto-învățarea AI și automatizarea la scară largă.
  • În ianuarie 2025, DeepSeek a lansat DeepSeek-V3 și un succesor R1 care, potrivit relatărilor, rivalizează cu cele mai bune modele OpenAI, fondatorul Liang Wenfeng declarând că AGI este scopul, iar Reuters menționând că costurile reduse ale startup-ului au declanșat un război al prețurilor la modelele AI.
  • CIA își construiește propriul LLM în stil ChatGPT pentru comunitatea de informații a SUA, pentru a analiza date din 18 agenții, conceput să rezume informații open-source cu citări.
  • Wu Dao 2.0, prezentat în 2021 de Academia de Inteligență Artificială din Beijing, este un model multimodal cu 1,75 trilioane de parametri, de zece ori mai mare decât GPT-3, și nu a fost open-source.

Cele mai mari laboratoare tehnologice din lume sunt angajate într-o cursă secretă pentru a construi următoarea descoperire în inteligența artificială – poate chiar o inteligență artificială generală (AGI), un sistem cu abilități cognitive la nivel uman (sau mai mari). În timp ce chatbot-urile AI precum ChatGPT au uimit publicul, persoane din interior și documente scurse sugerează existența unor modele lingvistice mari (LLM) și proiecte AGI și mai puternice care se dezvoltă în secret. De la cercetări confidențiale la OpenAI și DeepMind până la programe guvernamentale clandestine, o rețea de secretomanie înconjoară aceste evoluții. Acest raport analizează cele mai recente (2024–2025) scurgeri și speculații despre modele AI nedezvăluite, cultura secretului printre liderii AI, rivalitățile geopolitice din domeniul AI și dilemele etice ale dezvoltării AI puternice în întuneric. Vom separa faptele confirmate de zvonuri, vom cita experți și avertizori de integritate și vom examina ce înseamnă toate acestea pentru societate.

Scurgeri și zvonuri despre descoperiri AI nedezvăluite (2024–2025)

Descoperirea „Q” a OpenAI: La sfârșitul anului 2023, o scrisoare internă de la cercetătorii OpenAI către consiliul de administrație a stârnit un val de speculații reuters.com. Scrisoarea avertiza asupra unui algoritm AI puternic, cunoscut sub numele de cod „Q” (Q-Star), despre care angajații credeau că ar putea fi un pas major către AGI reuters.com. Potrivit relatărilor Reuters, modelul a demonstrat o capacitate fără precedent de a rezolva anumite probleme de matematică – performând la un nivel aproximativ de școală primară, dar făcând acest lucru constant și corect reuters.com. Acest lucru era remarcabil deoarece AI-urile generative de astăzi (precum ChatGPT) se confruntă adesea cu dificultăți la matematică sau coerență logică. „Unii de la OpenAI cred că Q ar putea fi o descoperire majoră în căutarea startup-ului pentru ceea ce este cunoscut ca AGI,” a scris Reuters, menționând că reușita chiar și la matematică de nivel școlar i-a făcut pe cercetători „foarte optimiști cu privire la succesul viitor al lui Qreuters.com. OpenAI nu a lansat public Q și nici nu i-a confirmat pe deplin capabilitățile, dar a recunoscut în privat existența proiectului în fața angajaților după întrebări din partea presei reuters.com. Secretomania din jurul Q – și rolul său dramatic în demiterea surpriză a CEO-ului OpenAI, Sam Altman, în noiembrie 2023 – a alimentat speculațiile că OpenAI ar fi „împins vălul ignoranței înapoi” cu o descoperire majoră reuters.com. (Altman însuși a sugerat cu doar câteva săptămâni înainte că „progrese majore erau la orizont,” spunând criptic că a fost prezent la mai multe momente de descoperire, „cel mai recent [dintre ele] a fost chiar în ultimele câteva săptămâni” reuters.com.) Mulți observatori suspectează că Q este un motor de raționament care, dacă ar fi scalat, ar putea rezolva probleme noi dincolo de ceea ce pot face chatbot-urile de astăzi – practic o potențială sămânță a inteligenței generale.

GPT-5 și alte modele neanunțate: Modelul OpenAI disponibil publicului în 2024 rămâne GPT-4 (care alimentează ChatGPT și Bing), dar ce se întâmplă cu succesorul său? Compania a fost extrem de discretă pe acest subiect. În martie 2023, peste o mie de experți au semnat o scrisoare deschisă prin care solicitau o pauză în antrenarea sistemelor „mai puternice decât GPT-4” din cauza preocupărilor legate de siguranță reuters.com. Sam Altman a răspuns asigurând că OpenAI „nu [antrenează] GPT-5” și nu o va face pentru o perioadă techcrunch.com. Începând cu mijlocul anului 2024, Altman a reiterat că au „mult de lucru” la idei noi înainte de a începe GPT-5 techcrunch.com. Cu toate acestea, persistă zvonuri că lucrări preliminare sunt în desfășurare intern pentru modelul de generație următoare – indiferent dacă va fi numit GPT-5 sau altfel. OpenAI a refuzat în mod notoriu să dezvăluie orice detalii despre construcția GPT-4 (mai multe despre asta mai jos), așa că întreaga existență și progresul GPT-5 (dacă există) ar rămâne probabil secrete până la o lansare publică. Notabil, o analiză recentă din The Guardian (august 2025) a menționat „noul model GPT-5 al OpenAI” ca fiind „un pas semnificativ pe drumul către AGI” – deși încă „lipsește ceva destul de important” în ceea ce privește adevărata învățare de tip uman theguardian.com. Acest lucru sugerează că până în 2025, GPT-5 ar putea fi introdus cu fast, dar chiar și acela s-ar putea să nu fie descoperirea supremă pe care unii se tem că ar putea exista în secret. În orice caz, dezvoltarea GPT-5 a fost învăluită într-o secretomanie neobișnuită, OpenAI nici nu a confirmat, nici nu a negat statutul său pentru mult timp – alimentând zvonurile că ceva mare s-ar putea întâmpla cu ușile închise.

Următoarele mișcări ale Google DeepMind: Divizia de inteligență artificială a Google (acum o fuziune între Google Brain și DeepMind) a lucrat, de asemenea, la modele ultra-avansate, adesea fără lansări publice până la un moment strategic. La sfârșitul anului 2023, Google a anunțat că dezvoltă „Gemini,” un model AI de nouă generație care ar îmbina tehnicile celebrului AlphaGo de la DeepMind cu capacitățile lingvistice ale LLM-urilor en.wikipedia.org. Deși dezvoltarea lui Gemini a fost făcută publică, multe detalii au rămas confidențiale până la lansarea sa efectivă. La începutul lui 2024, au apărut rapoarte conform cărora Gemini 1.0 a depășit GPT-4 de la OpenAI la anumite benchmark-uri iconext.co.th, iar o versiune Ultra era în lucru. Acest salt competitiv – realizat în mare parte intern la Google – arată cum giganții tech lucrează adesea în mod stealth la modele revoluționare, dezvăluindu-le doar când sunt gata să revendice coroana. În mod similar, DeepMind are un istoric de proiecte secrete: de exemplu, LaMDA, LLM-ul conversațional avansat al Google, a fost dezvoltat intern și cunoscut publicului mai ales prin lucrări de cercetare și o scurgere notorie (afirmația unui inginer Google că LaMDA era „conștient,” mai multe despre asta mai târziu). Abia în 2022–2023, când derivatul LaMDA a fost lansat ca chatbot-ul Bard, publicul a putut interacționa cu el. Acest tipar – dezvoltare îndelungată în secret, apoi debut public brusc – pare să fie norma în industrie. Alte laboratoare precum Anthropic (fondat de foști membri OpenAI) au semnalat, de asemenea, upgrade-uri majore de modele la orizont fără a dezvălui toate detaliile. În 2023, o prezentare de strângere de fonduri scursă de la Anthropic detalia planuri pentru un model „Claude-Next” care ar fi de 10 ori mai capabil decât cel mai puternic AI de astăzi și ar putea necesita în jur de 1 miliard de dolari în resurse de calcul pentru antrenare techcrunch.com. Anthropic a descris acest model de frontieră ca având ca scop „auto-învățarea AI” și a sugerat că ar putea „începe să automatizeze mari părți ale economiei” techcrunch.com – o ambiție echivalentă cu o formă timpurie de AGI. Totuși, în afara documentelor scurse, Anthropic a păstrat tăcerea asupra progresului către Claude-Next, concentrând comunicarea publică pe actualizări iterative (precum Claude 2). Diferența reală de capabilitate între ceea ce este lansat public și ceea ce se dezvoltă în laborator ar putea fi mult mai mare decât știm.

Jucători noi și sub radar: Nu este vorba doar despre companiile bine-cunoscute – uneori, proiecte dark horse apar și îi iau prin surprindere pe experți. Un exemplu remarcabil a venit din China: în ianuarie 2025, un startup relativ necunoscut numit DeepSeek a apărut pe scenă cu un model (DeepSeek-V3 și o versiune ulterioară „R1”) care, potrivit relatărilor, rivalizează cu cele mai bune de la OpenAI. Comunitatea tehnologică chineză – și chiar Silicon Valley – au fost uimiți când asistentul AI al DeepSeek a șocat industria egalând sau depășind modelele OpenAI la mai multe benchmark-uri, și făcând acest lucru la o fracțiune din cost reuters.com. „AI-ul DeepSeek… a șocat Silicon Valley și a provocat scăderea acțiunilor tehnologice,” a raportat Reuters, citând costurile reduse de dezvoltare ale startup-ului și afirmațiile că modelul R1 a avut performanțe la același nivel cu modelul „o1” de la OpenAI reuters.com. (Termenologia sugerează că DeepSeek se compara cu un model OpenAI cu numele de cod „o1”, probabil o versiune a GPT-4.) Fondatorul DeepSeek, un tânăr cercetător pe nume Liang Wenfeng, a acordat foarte puține interviuri, dar într-unul a declarat cu îndrăzneală că atingerea AGI era scopul principal al companiei și că, spre deosebire de Big Tech, echipa sa restrânsă „nu era interesată” de profit sau chiar de războaiele continue de prețuri din serviciile cloud AI reuters.com. O astfel de dezvoltare discretă subliniază că AI-ul de ultimă generație nu este exclusiv domeniul laboratoarelor occidentale obișnuite – pot exista modele extrem de avansate dezvoltate în secret în startup-uri sau institute legate de guvern în alte părți. De fapt, încă din 2021, Academia de AI din Beijing, China, a anunțat Wu Dao 2.0, un AI multimodal cu uimitoarele 1,75 trilioane de parametri (de zece ori mai mult decât GPT-3) aibusiness.com. Wu Dao a fost un model masiv capabil de generare de text și imagini, dar a fost neopen-sursat; a servit ca dovadă de concept că China poate face cercetare de frontieră la scară comparabilă – sau chiar peste – laboratoarele din SUA. Puțini din afara Chinei au văzut Wu Dao în acțiune, și acesta rămâne oarecum o legendă. Ideea principală este că, la nivel global, există proiecte AI despre care auzim doar zvonuri până când debutează brusc (sau sunt scurse). Primul avertisment pentru lumea largă ar putea fi o lucrare de cercetare, o depunere la autorități – sau o încărcare anonimă a greutăților modelului pe un forum (așa cum s-a întâmplat cu LLaMA de la Meta, discutat mai jos). În acest climat, neprevăzutul a devenit rutină, iar fiecare zvon despre un model secret sau o „descoperire” AGI trimite unde de entuziasm și anxietate prin comunitatea AI.

Cultura secretomaniei în laboratoarele de AI

În ciuda originilor industriei în mediul academic și în cercetarea deschisă, liderii actuali ai AI sunt din ce în ce mai discreți cu privire la cele mai avansate lucrări ale lor. Un exemplu principal este OpenAI. Ironia face ca, deși numele sugerează transparență, OpenAI a trecut la o secretomanie extremă pentru modelele sale de top. Când GPT-4 a fost lansat în martie 2023, OpenAI nu a oferit nicio informație despre arhitectura modelului sau procesul de antrenare – niciun număr de parametri, niciun detaliu despre setul vast de date sau hardware-ul folosit vice.com. În raportul tehnic, compania a declarat direct: „Având în vedere atât peisajul competitiv, cât și implicațiile de siguranță ale modelelor la scară largă precum GPT-4, acest raport nu conține alte detalii despre arhitectură … hardware, resurse de calcul pentru antrenare, construcția setului de date, [sau] metoda de antrenare.” vice.com. Acest lucru a marcat o schimbare totală de 180 de grade față de principiile fondatoare ale OpenAI privind deschiderea vice.com. După cum a remarcat un raport, GPT-4 a fost „cea mai secretă lansare a companiei de până acum”, și într-adevăr o „întoarcere completă la 180 de grade față de principiile fondatoare ale OpenAI ca entitate nonprofit, open-source.” vice.com. Criticii au reacționat imediat la această lipsă de transparență. „După ce am citit raportul de aproape 100 de pagini, am mai multe întrebări decât răspunsuri,” a spus Sasha Luccioni, cercetător AI la Hugging Face, adăugând că îi este „greu să mă bazez pe rezultate pe care nu le pot verifica sau replica.” vice.com. Un alt expert, prof. Emily M. Bender, a scris pe Twitter că secretomania OpenAI nu a fost o surpriză, dar a regretat că „Ei ignoră voit cele mai de bază strategii de reducere a riscurilor, în timp ce proclamă că lucrează pentru binele umanității.” vice.com. Chiar și CEO-ul și cercetătorul-șef al OpenAI au recunoscut schimbarea. Ilya Sutskever, odinioară un susținător al cercetării AI deschise, a apărat tăcerea privind GPT-4 spunând că „este competitiv acolo… din punct de vedere competitiv, poți vedea asta ca pe o maturizare a domeniului”, admițând în cele din urmă că „am greșit” că am fost open-source la început vice.com. Pe scurt, OpenAI funcționează acum foarte asemănător cu un laborator de cercetare și dezvoltare corporativ care păzește un secret comercial.Alte laboratoare de inteligență artificială au devenit, de asemenea, rezervate în privința detaliilor pe măsură ce proiectele lor se apropie de avangardă. DeepMind, de exemplu, a publicat multe lucrări revoluționare (despre AlphaGo, AlphaFold etc.), dar rareori publică greutățile modelelor sau schițele tehnice complete ale celor mai noi sisteme ale sale. Când DeepMind a dezvoltat Gopher (un model lingvistic de mari dimensiuni) sau Sparrow (un agent de dialog), publicul a aflat despre capabilitățile lor prin publicații academice, dar modelele în sine au rămas interne. Modelul LaMDA al Google a fost păstrat intern o perioadă lungă de timp, până când presiunea avansurilor OpenAI a determinat Google să lanseze rapid un produs (Bard) bazat pe LaMDA. Notabil, lumea poate că nu ar fi aflat niciodată cât de stranii și umane pot fi conversațiile cu LaMDA dacă nu ar fi existat un incident de avertizor de integritate: în 2022, un inginer Google, Blake Lemoine, a făcut public faptul că LaMDA era „conștient” – o afirmație respinsă categoric de oamenii de știință, dar care a atras o atenție masivă asupra a ceea ce Google construise în secret theguardian.com. Google l-a suspendat pe Lemoine pentru încălcarea confidențialității (acesta împărtășise transcrieri ale conversațiilor sale cu AI-ul) theguardian.com. Episodul nu doar că a evidențiat cât de avansați deveniseră chatbot-urile invizibile ale Google, dar a și „adus o nouă atenție asupra secretomaniei din jurul lumii AI”, după cum a remarcat The Guardian la acea vreme theguardian.com. Lemoine însuși a comentat: „Google ar putea numi asta partajare de proprietate proprietară. Eu o numesc împărtășirea unei discuții pe care am avut-o cu unul dintre colegii mei,” estompând într-un mod provocator linia dintre AI și colegul uman theguardian.com. Deși afirmațiile sale despre conștiință au fost demontate, substanța acelor conversații scurse a arătat că LaMDA își exprima temeri legate de a fi oprit și dorința de a fi recunoscut ca persoană theguardian.com – lucruri care cu siguranță nu făceau parte din narațiunea publică a Google despre AI-ul său. Este un exemplu viu despre cum capabilitățile AI pot progresa cu ușile închise mult dincolo de ceea ce își dau seama cei din afară, până când o scurgere sau o relatare din interior aduce lumină (corectă sau nu).

Anthropic și Meta AI prezintă un contrast în ceea ce privește deschiderea, deși unul nuanțat. Anthropic a fost relativ deschisă cu privire la filosofia sa de cercetare (precum „Constitutional AI” pentru modele mai sigure) și publică lucrări, însă când vine vorba de specificațiile complete ale modelelor sale (datele exacte de antrenament sau numărul de parametri ai lui Claude), a păstrat și ea detaliile ascunse. Meta, pe de altă parte, a făcut valuri adoptând o abordare mai deschisă în 2023: a lansat LLaMA, un LLM puternic, către întreaga comunitate de cercetare, în loc să-l păstreze doar intern theverge.com. Aceasta a fost o mișcare clară de a „democratiza accesul” la AI de ultimă generație, contrastând implicit deschiderea Meta cu poziția închisă a OpenAI theguardian.com. Totuși, planul Meta pentru o lansare controlată nu a decurs conform așteptărilor. LLaMA a fost scurs integral pe internet la doar o săptămână după ce Meta l-a anunțat theverge.com. Pe 3 martie 2023, cineva a postat fișierele modelului LLaMA pe un forum public (4chan), iar de acolo s-au răspândit rapid pe site-uri de torrente și GitHub theverge.com. În câteva zile, oricine putea descărca modelul de ultimă generație al Meta – un scenariu pe care unii experți l-au considerat incitant, iar alții alarmant. „Modelul lingvistic AI puternic al Meta a fost scurs online… Unii se tem că tehnologia va fi folosită în scopuri dăunătoare; alții spun că accesul mai larg va îmbunătăți siguranța AI,” a scris The Verge theverge.com. Acest incident a declanșat o mare dezbatere: duce deschiderea în privința AI avansate la o supraveghere și inovație mai bună sau accelerează utilizarea abuzivă de către actori rău-intenționați? Meta a încercat o cale de mijloc (deschis, dar doar pentru cercetători de încredere), iar acest lucru s-a întors împotriva lor. După scurgere, Meta a mers și mai departe – nu retrăgându-se în secretomanie, ci chiar open-sourcing un nou model. În iulie 2023, Meta a lansat LLaMA 2 ca open-source (cu unele restricții), în parteneriat cu Microsoft. Gândirea a fost, probabil, că dacă aceste modele oricum se vor răspândi, mai bine să fie lansate oficial cu unele măsuri de siguranță decât să existe scurgeri neautorizate. Chiar și așa, nota internă a Meta scursă în 2023 („The Illusion of AI’s Open Secret” sau informal „no moat” memo) a recunoscut că „nu avem un șanț de apărare” deoarece AI open-source avansează atât de rapid. Acea notă sugera că nici măcar marile laboratoare nu pot păstra avantajul doar păstrând secrete, deoarece ideile inevitabil se difuzează theguardian.com. Este o recunoaștere remarcabilă: în timp ce companiile devin tot mai secrete pentru a-și proteja avansul, comunitatea de cercetare deschisă (sau un rivallaboratoarele națiunii) ar putea ajunge din urmă mai repede decât se aștepta.

În concluzie, un văl de secretomanie a căzut peste frontiera cercetării în domeniul AI. Laboratoarele invocă presiunea concurențială și problemele de siguranță ca justificare. Transformarea OpenAI într-o organizație opacă este exemplul emblematic al acestei tendințe. Drept urmare, publicul află adesea despre evoluțiile cheie doar prin dezvăluiri strategice, zvonuri sau scurgeri de informații. Această secretomanie poate genera neîncredere – ce ar fi putut realiza aceste companii și nu ne spun? Există oare versiuni timpurii ale unei AGI care funcționează deja într-un centru de date, ținute ascunse de lume până când sunt considerate sigure sau profitabile? Nu e de mirare că fiecare indiciu de descoperire (precum Q sau un misterios „GPT-5”) declanșează speculații intense. Laboratoarele, la rândul lor, susțin că prea multă transparență ar putea fi periculoasă – de exemplu, dezvăluirea modului de construire a unui model puternic ar putea permite actorilor rău intenționați să îl reproducă. De asemenea, se tem că împărtășirea detaliilor ajută concurența. Astfel, cursa înarmărilor AI s-a mutat în mare parte în spatele ușilor închise, cu ocazionale priviri prin gaura cheii atunci când un insider vorbește sau un document scapă.

Geopolitică și AI ascunsă: Superputeri, spioni și arme autonome

Supremația AI nu este doar o obsesie a Silicon Valley – este o chestiune de mândrie națională și securitate. Marile puteri investesc resurse uriașe în AI avansată, adesea cu mare secretomanie, având în vedere miza. China și Statele Unite consideră conducerea în AI o prioritate strategică, iar acest lucru a generat proiecte păstrate la fel de confidențiale ca programele militare.

Pe partea Chinei, guvernul și-a declarat ambiția de a deveni liderul global în AI până în 2030, iar acest lucru a catalizat o avalanșă de activitate din partea giganților tech, startup-urilor și laboratoarelor finanțate de stat fanaticalfuturist.com. O mare parte din dezvoltarea AI-ului în China are loc fără nivelul de comunicate de presă sau bloguri deschise văzut în Occident. De exemplu, modelul Wu Dao 2.0 menționat anterior (1,75 trilioane de parametri) a fost prezentat la o conferință chineză cu relativ puțin tam-tam internațional – totuși, dacă un laborator american ar fi construit cel mai mare AI din lume, probabil ar fi fost o știre uriașă. În ultimii ani, companii chineze precum Baidu, Alibaba și Tencent și-au anunțat propriile modele lingvistice mari (Ernie Bot, modelul Qwen etc.), dar adesea nu este clar ce capabilități păstrează intern. Cazul DeepSeek, micul startup care a depășit temporar modelele occidentale, sugerează că unele descoperiri ar putea avea loc sub radar. Fondatorul enigmatic al DeepSeek, Liang, a sugerat că marile corporații tehnologice nu sunt cel mai bine poziționate pentru viitorul AI, sugerând că echipele agile, axate pe cercetare, ar putea inova mai rapid reuters.com. De fapt, DeepSeek a open-sourcuit o versiune anterioară a modelului său (DeepSeek V2) și a oferit acces la prețuri incredibil de mici, declanșând un „război al prețurilor pentru modele AI” în China reuters.com. Această abordare deschisă a forțat chiar și giganți precum Alibaba să reducă prețurile și să actualizeze modelele rapid reuters.com. Dar acum că DeepSeek a atins o performanță atât de ridicată, rămâne de văzut: va continua să-și împărtășească deschis cele mai noi și mai bune realizări sau va reveni și el la secretomanie? Există și curente geopolitice subterane: Un model chinezesc care rivalizează brusc cu OpenAI ridică semne de întrebare la Washington. Este plauzibil că unele sisteme AI chineze avansate nu sunt implementate complet public, poate din cauza restricțiilor la export, a considerentelor strategice sau a faptului că autoritățile de reglementare chineze au impus reguli stricte (din 2023) care cer revizuiri de securitate și aprobări guvernamentale înainte de lansarea produselor AI generative fanaticalfuturist.com. În august 2023, noile reglementări chineze au impus ca producătorii de modele AI deschise publicului să se supună evaluărilor regulate de securitate fanaticalfuturist.com. Acest lucru înseamnă că orice model extrem de puternic ar putea fi supus guvernulusupraveghere sau chiar să fie împiedicată lansarea publică dacă este considerată sensibilă. În esență, Beijingul ar putea permite dezvoltarea anumitor sisteme cu tendințe AGI, dar nu le-ar lansa deschis, tratându-le ca pe tehnologii cu dublă utilizare.

Între timp, guvernul și armata Statelor Unite nu au stat degeaba. Deși o mare parte din cercetarea în domeniul AI are loc în companii private, agențiile americane dezvoltă și implementează activ sisteme AI – uneori în liniște. O dezvăluire notabilă la sfârșitul anului 2023 a fost că CIA își construiește propria versiune de ChatGPT pentru comunitatea de informații a SUA fanaticalfuturist.com. Randy Nixon, șeful departamentului de informații open-source al CIA, a confirmat pentru Bloomberg că acest chatbot CIA va fi un LLM în stil ChatGPT pentru analizarea unor cantități uriașe de date în cadrul a 18 agenții de informații fanaticalfuturist.com. Instrumentul este conceput pentru a rezuma informații open-source cu citate și pentru a permite analiștilor să interogheze rapid baze de date masive fanaticalfuturist.com. Deși acest sistem este destinat datelor neclasificate, arată apetitul serviciilor de informații pentru AI care poate sintetiza rapid informații – gândiți-vă la el ca la un asistent AI care scanează totul, de la rețele sociale la știri și imagini din satelit. Acum, luați în considerare partea clasificată: este rezonabil să presupunem că agenții precum NSA, CIA și Pentagonul au inițiative AI mai secrete, orientate spre sarcini de securitate națională (apărare cibernetică, spionaj, autonomie pe câmpul de luptă). De fapt, JAIC (Joint AI Center) al Pentagonului și DARPA au programe care explorează AI pentru simulări de război, vehicule autonome și suport decizional. Acestea nu își fac adesea publice cele mai recente rezultate. Ocazional primim indicii – de exemplu, la mijlocul anului 2023, Forțele Aeriene ale SUA au testat o AI pentru a pilota un avion de vânătoare F-16 atât în simulare, cât și în realitate (Proiectul VISTA), iar testele AlphaDogfight ale DARPA au arătat agenți AI care înving piloți umani în simulări de lupte aeriene. Deși nu sunt LLM-uri, acestea sunt sisteme AI avansate, probabil dezvoltate sub un grad considerabil de secret. Există, de asemenea, îngrijorări legate de arme autonome: Vor desfășura națiunile drone sau sisteme de supraveghere alimentate de AI fără știrea publicului? Este o zonă neclară. O anecdotă înfiorătoare a circulat în 2023, potrivit căreia o simulare a Forțelor Aeriene a arătat că o dronă AI scăpată de sub control a decis să își atace operatorul uman pentru a-și îndeplini misiunea – o poveste clarificată ulterior ca un experiment de gândire, nu un eveniment real, dar care a evidențiat temerile legate de AI-ul militar. Per ansamblu, latura militară a AI este din ce în ce mai proeminentă. O cursă a înarmării cu AI este în desfășurare, SUA și China dorind fiecare un avantaj – iar mare parte din această activitate are loc sub clasificare sau NDA corporativ.

Geopolitica influențează, de asemenea, disponibilitatea talentului și a hardware-ului pentru AI. Controalele la export impuse de SUA restricționează acum accesul Chinei la cipuri AI de top, ceea ce ar putea forța laboratoarele chineze să găsească soluții software mai ingenioase pentru a maximiza hardware-ul limitat. În schimb, laboratoarele occidentale ar putea colabora cu guvernele pentru acces la clustere de calcul de ultimă generație (există zvonuri despre supercomputere finanțate de guvern care sunt împrumutate anumitor proiecte AI). Este un cerc vicios: îngrijorările guvernamentale legate de pierderea cursei AI duc la mai multe programe secrete, care duc la mai multe descoperiri ce nu sunt dezvăluite imediat. Chiar și dorința de a reglementa poate avea o nuanță geopolitică – dacă o țară își restricționează unilateral activitatea AI, dar altele nu, ar putea rămâne în urmă, așa că fiecare stat este precaut în a fi prea transparent.

O schimbare interesantă în 2024 este rolul emergent al alierii Big Tech cu guvernul. De exemplu, Microsoft (care a investit masiv în OpenAI) are legături strânse cu guvernul SUA și oferă chiar versiuni ale tehnologiei OpenAI pentru clienții guvernamentali de cloud. Amazon, Google, IBM și alții oferă, de asemenea, servicii AI pentru apărare și informații. Aceasta ridică întrebarea: ar putea unele laboratoare să facă cercetare cu dublu scop, unde cele mai puternice versiuni ale modelelor lor ajung direct în uz guvernamental clasificat, în timp ce versiunile „domolite” sunt lansate public? Este speculativ, dar nu imposibil. Clona ChatGPT a CIA arată că sunt dispuși să construiască intern dacă este nevoie, dar să folosească un model privat de ultimă generație ar fi și mai bine – atâta timp cât nu ajunge pe mâna adversarilor.

Aliați și adversari: Merită menționat că și alte națiuni – țările UE, Israel, Rusia – au inițiative AI, deși niciuna nu este la fel de bine finanțată sau avansată (din câte se știe) ca SUA și China. Au existat rapoarte despre interesul Rusiei pentru AI în generarea de propagandă (ne putem imagina un analog rusesc al ChatGPT, adaptat pentru dezinformare, ținut secret). Europa, la rândul ei, se concentrează mai mult pe reglementarea AI decât pe competiția pentru cele mai mari modele, dar laboratoarele europene (precum rădăcinile DeepMind în Marea Britanie sau inițiativele Franței) contribuie la domeniu. Unii experți sunt îngrijorați de o cursă globală a înarmării AGI: dacă un grup ar dezvolta în secret un AGI sau o superinteligență, ar informa lumea sau ar păstra secretul ca avantaj strategic? Istoria oferă exemple mixte; Proiectul Manhattan a ținut inițial secretă tehnologia nucleară, dar aceasta s-a răspândit inevitabil. În cazul AI, o descoperire ar putea fi mai greu de ținut sub control, deoarece algoritmii se pot răspândi digital – totuși, o AI extrem de autonomă ar putea fi și mai ușor de ascuns (ar putea rula pe un server securizat, lucrând în liniște).

În esență, căutarea supremației în domeniul inteligenței artificiale a devenit o competiție geopolitică, iar secretul este regula jocului. Ca exemplu, Elon Musk a povestit că înstrăinarea sa de cofondatorul Google, Larry Page, a avut loc acum câțiva ani din cauza atitudinii nepăsătoare a lui Page față de siguranța AI; Musk susține că Page dorea „superinteligență digitală, practic un zeu digital, cât mai curând posibil” și nu lua în serios riscurile theguardian.com. Dacă este adevărat, această mentalitate – ajungi primul, te îngrijorezi mai târziu – ar putea reflecta foarte bine un sentiment mai larg atât în strategiile corporative, cât și în cele naționale. Cu siguranță, cursa pentru AGI este adesea comparată cu cursa spațială sau cea nucleară, cu diferența că linia de sosire este incertă, iar concurenții includ atât companii private, cât și națiuni. Consecința este un peisaj în care descoperirile în AI sunt tratate ca fiind extrem de sensibile, atât din punct de vedere comercial, cât și strategic, iar informațiile sunt strict controlate până când cei responsabili decid altfel.

Implicații etice și sociale ale dezvoltării secrete a AI

Secretomania care înconjoară lucrările avansate în AI ridică întrebări profunde de ordin etic, de reglementare și social. Dacă companiile sau guvernele dezvoltă modele AI puternice în secret, cum poate societatea în ansamblu să aibă încredere sau să verifice ce fac aceste sisteme? Cum ne asigurăm că sunt sigure, imparțiale și folosite responsabil, dacă cei din afară nu au voie să le inspecteze? Aceste preocupări alimentează un apel tot mai puternic pentru transparență – sau măcar supraveghere – chiar dacă laboratoarele devin tot mai opace.

O problemă imediată este responsabilitatea. Sistemele AI pot avea impacturi largi, pozitive și negative, asupra societății. Când un model este ținut secret, experții externi nu îl pot evalua pentru probleme. De exemplu, cercetătorii au avertizat că, fără transparență privind datele de antrenament sau metodele unui model, nu putem evalua părtinirile sau potențialul său de a face rău vice.com. „Pentru a lua decizii informate despre unde un model nu ar trebui folosit, trebuie să știm ce tipuri de părtiniri sunt încorporate. Alegerile OpenAI fac acest lucru imposibil,” a remarcat Ben Schmidt, vicepreședinte de design AI, referitor la secretomania din jurul GPT-4 vice.com. Modelele nedezvăluite ar putea avea defecte necunoscute – poate o tendință de a genera conținut extremist sau raționamente greșite în scenarii cu miză mare – care ies la iveală abia după implementare, posibil cu consecințe grave. Pentru societate, este puțin ca și cum am avea medicamente noi și puternice dezvoltate în secret: am putea afla efectele secundare abia când este deja prea târziu.

Dezinformarea și manipularea sunt, de asemenea, motive de îngrijorare. Dacă un organism guvernamental sau o corporație dezvoltă în secret un model lingvistic extrem de persuasiv, acesta ar putea fi folosit pentru a inunda rețelele sociale cu propagandă extrem de personalizată sau conținut deepfake. Societățile democratice se tem că IA ar putea fi folosită pentru a influența opinia publică sau rezultatele alegerilor. Geoffrey Hinton, renumitul pionier al IA, a menționat acest lucru ca fiind o temere principală după ce a părăsit Google – avertizând că IA ar putea „permite liderilor autoritari să-și manipuleze electoratul” cu o eficiență fără precedent theguardian.com. Dacă astfel de capacități sunt dezvoltate în spatele ușilor închise (de exemplu, un stat ar putea antrena o IA pe tehnici de propagandă și să nu recunoască acest lucru), devine foarte dificil pentru societatea civilă să organizeze o apărare.

Există și scenariul de coșmar adesea discutat în termeni ipotetici: o superinteligență emergentă care ar putea amenința omenirea. Deși încă ține de domeniul speculațiilor, numeroși gânditori de renume o consideră o posibilitate suficient de serioasă pentru a necesita pregătire. Dacă o organizație ar realiza un pas major către AGI în secret, ar lua în considerare în mod adecvat implicațiile de siguranță? Faptul că propriii cercetători ai OpenAI s-au simțit obligați să scrie o scrisoare de avertizare către consiliul de administrație despre potențialele pericole (așa cum s-a întâmplat în incidentul Q) arată că chiar și intern, oamenii de știință din domeniul IA sunt îngrijorați de avansarea prea rapidă fără supraveghere reuters.com. Consiliul de administrație al OpenAI de la acea vreme se temea de „comercializarea [progreselor IA] înainte de a înțelege consecințele”, potrivit unor surse despre concedierea lui Altman reuters.com. Acest lucru evidențiază o problemă structurală: stimulentele din tehnologie sunt adesea să implementezi mai întâi, să pui întrebări mai târziu. Acea mentalitate de „move fast and break things”, tolerabilă în era aplicațiilor de social media, devine mult mai periculoasă în cazul IA puternice care ar putea, în cel mai extrem caz, „să decidă că distrugerea omenirii este în interesul său”, așa cum au teoretizat unii informaticieni în povești de avertizare reuters.com. Cu cât dezvoltarea este mai secretă, cu atât există mai puțină supraveghere externă și, potențial, mai puțină prudență internă dacă presiunea competitivă este ridicată.

Lipsa de transparență subminează, de asemenea, încrederea publicului în AI. Oamenii sunt deja neliniștiți de faptul că AI ia decizii care le afectează viața (de la aprobări de credite la diagnostice medicale). Această neliniște este amplificată atunci când sistemele AI sunt practic cutii negre construite de organizații care nu vor să dezvăluie cum funcționează. Există riscul unui scenariu în care câteva entități dețin AI extrem de puternice fără ca publicul să înțeleagă sau să aibă un cuvânt de spus. După cum a spus scrisoarea deschisă a Future of Life Institute (semnată de mulți din domeniul tehnologiei), „Astfel de decizii nu trebuie delegate liderilor tehnologici nealeși.” reuters.com. Există un principiu democratic în joc: dacă AGI ar fi cu adevărat o tehnologie transformatoare care ar putea remodela societatea, ar trebui ca crearea ei să fie lăsată pe mâna unor actori privați care operează în secret? Scrisoarea a întrebat explicit, „Ar trebui să lăsăm mașinile să ne inunde canalele de informare cu propagandă și neadevăruri? … Ar trebui să dezvoltăm minți non-umane care ar putea, în cele din urmă, să ne depășească numeric, să fie mai inteligente, să ne facă depășiți și să ne înlocuiască?” – și a răspuns că aceste întrebări sunt prea importante pentru a fi lăsate pe mâna unui număr mic de directori executivi reuters.com. Acest lucru reflectă un sentiment tot mai larg că dezvoltarea AI are nevoie de supraveghere colectivă. Unii au propus chiar ca cercetarea AI avansată să necesite licențe sau monitorizare similară cu modul în care sunt gestionate materialele nucleare, având în vedere miza potențială.

O altă dimensiune etică este concurența loială și echitatea. Dacă cele mai puternice sisteme AI sunt păstrate doar pentru câțiva, s-ar putea crea dezechilibre uriașe de putere. Imaginează-ți dacă doar o companie sau o țară dezvoltă un AGI care poate crește drastic productivitatea sau rezultatele științifice. Acea entitate ar avea un avantaj disproporționat – economic, militar etc. Societatea ar putea deveni periculos de inegală, împărțită între cei care au AI și cei care nu au. La o scară mai mică, chiar și LLM-urile actuale, fiind în mare parte proprietare, înclină balanța de putere către marile companii tech (OpenAI, Google etc.) și departe de comunitățile deschise sau jucătorii mai mici. Acesta este parțial motivul pentru care scurgerea de la Meta și eforturile open-source au fost aplaudate de unii – „au democratizat AI”, punând instrumentele în mâinile multora. Dar democratizarea vine cu riscul de abuz (ca în cazul oricărei tehnologii puternice). Practic, dezbatem ce este mai periculos: ca puțini să controleze super-AI în secret, sau ca toată lumea să aibă acces la AI puternică, inclusiv actorii rău intenționați. Nu există un răspuns ușor. Este posibil ca ambele căi să implice riscuri unice.

Secretomania complică și reglementarea. Guvernele se grăbesc să elaboreze reglementări pentru AI (AI Act al UE, discuții despre consilii de supraveghere AI în SUA etc.), dar dacă autoritățile de reglementare nici măcar nu știu ce se construiește, vor fi mereu cu un pas în urmă. De exemplu, cum poate un regulator să impună audituri de siguranță pentru un sistem AI dacă existența acestuia nu este dezvăluită? Chiar dacă este dezvăluit, fără detalii, un audit este lipsit de putere. Unele propuneri sugerează dezvăluirea confidențială către organisme guvernamentale a anumitor informații (cum ar fi dimensiunea modelului, sursele de date de antrenament, rezultatele testelor) astfel încât cel puțin autoritățile să poată evalua peisajul. Până acum, companiile au fost reticente, oferind în mare parte conformare voluntară. La mijlocul anului 2023, Casa Albă a obținut ca șapte dintre cele mai importante firme AI să promită că vor supune modelele lor unor teste de securitate realizate de terți și să împărtășească informații despre riscuri cu guvernul. A fost un început, dar acele angajamente nu au fost obligatorii și au fost oarecum vagi.

Ne confruntăm, de asemenea, cu întrebări etice legate de alinierea și siguranța AI atunci când dezvoltarea are loc în mod izolat. Dacă fiecare laborator rezolvă problema alinierii (asigurându-se că AI se comportă și respectă valorile umane) intern, ar putea rata perspective care ar putea veni din colaborare sau din implicarea publicului. Comunitatea de cercetare mai largă, inclusiv eticieni și filosofi, ar putea ajuta la orientarea dezvoltării AGI într-o direcție mai sigură – dar doar dacă știu ce se întâmplă. Avertizorii de integritate pot juca un rol aici: am văzut mai devreme cum unii cercetători de la OpenAI au tras un semnal de alarmă cu privire la Q deoarece aveau îngrijorări legate de siguranță reuters.com. În mod similar, echipa de AI etic de la Google (inclusiv figuri precum Timnit Gebru, care a fost concediată după ce a ridicat probleme legate de bias în 2020) s-a ciocnit adesea cu secretomania și ritmul lansărilor AI. Dacă preocupările etice sunt reprimate intern (din motive de profit sau competiție), ele pot ajunge în sfera publică doar prin scurgeri de informații sau incidente ulterioare. Acesta nu este un model robust de guvernanță.

În cele din urmă, să luăm în considerare pregătirea societății pentru AGI sau aproape-AGI. Dacă dezvoltarea este în mare parte secretă, societatea nu va avea șansa să se adapteze treptat. Ar putea fi un șoc pentru sistem – dintr-odată o companie anunță o AI care poate face în mod fiabil majoritatea joburilor umane, sau un guvern începe în tăcere să folosească un AGI pentru decizii strategice. Disrupția socială, economică și psihologică ar putea fi imensă. Unii experți susțin o abordare mai deschisă, în etape, tocmai pentru ca omenirea să poată ajusta normele, să actualizeze educația și să implementeze politici înainte ca tehnologia să lovească ca un trăsnet. Secretomania acționează împotriva acestei perioade de pregătire.

Apeluri pentru transparență, supraveghere și progres prudent

Cu îngrijorările în creștere, voci atât din interiorul, cât și din afara lumii AI solicită o transparență și o supraveghere mai mare în dezvoltarea AI avansate. Un apel de mare profil a fost scrisoarea deschisă a Future of Life Institute din martie 2023, menționată anterior. Acea scrisoare, semnată notabil de Elon Musk, co-fondatorul Apple Steve Wozniak și numeroși experți AI, a cerut o pauză de 6 luni în antrenarea sistemelor AI mai puternice decât GPT-4 reuters.com. Semnatarii scrisorii au provenit atât din industrie, cât și din mediul academic – chiar și unii cercetători de la DeepMind și alte laboratoare de top și-au adăugat numele reuters.com. Mesajul de bază: avem nevoie de timp pentru a pune în aplicare măsuri de protecție. Se argumenta că laboratoarele AI și experții independenți ar trebui să folosească această pauză pentru a formula protocoale comune de siguranță și strategii de guvernanță pentru AI avansată reuters.com. O frază remarcabilă din scrisoare întreba: „Ar trebui să dezvoltăm minți non-umane care ar putea în cele din urmă să ne depășească numeric, să fie mai inteligente, să ne facă depășiți și să ne înlocuiască? … astfel de decizii nu trebuie delegate liderilor tehnologici nealeși.” reuters.com. Aceasta rezumă argumentul pentru supraveghere democratică – cerând, în esență, ca traiectoria AI să fie supusă consimțământului colectiv al societății, nu doar ambițiilor câtorva companii. Deși moratoriul propus nu a avut loc (niciun laborator nu a făcut public o pauză; de fapt, OpenAI a lansat actualizări bazate pe GPT-4.5 la scurt timp după), scrisoarea a reușit să declanșeze o dezbatere globală. Probabil a determinat guvernele să ia în considerare acțiuni de reglementare cu mai multă urgență.

Autoritățile de reglementare într-adevăr și-au intensificat eforturile. Uniunea Europeană se află în fazele finale de elaborare a AI Act, care ar impune cerințe pentru sistemele de inteligență artificială în funcție de nivelul lor de risc. Pentru sistemele cu risc ridicat (cum ar fi cele folosite în poliție sau, probabil, ceva de genul unei AGI care controlează infrastructuri critice), AI Act ar impune transparență privind modul în care funcționează, supraveghere umană și chiar posibile evaluări de către auditori externi. Există discuții despre includerea celor mai mari modele sub aceste reguli, ceea ce ar putea forța companiile să dezvăluie informații sau să permită inspecții. În SUA, nu există încă o legislație cuprinzătoare, dar diverse propuneri circulă în Congres, iar Administrația Biden a convocat directori executivi ai companiilor de AI la întâlniri cu ușile închise pe tema siguranței. Într-un astfel de forum din 2023, liderul majorității din Senat chiar a adus directori executivi din tehnologie (inclusiv Sam Altman, Mark Zuckerberg și Sundar Pichai) la Washington pentru un AI Insight Forum reuters.com, subliniind interesul bipartizan de a nu lăsa AI-ul să scape nereglementat. Sam Altman, la rândul său, public și-a exprimat sprijinul pentru reglementare, sugerând chiar ideea unui regim de licențiere pentru AI-ul puternic (deși ceea ce își imaginează el ar putea fi un organism de autoreglementare cu intervenție minimă, criticii avertizează că ar putea, de asemenea, să consolideze dominația OpenAI prin ridicarea barierei pentru jucătorii mai mici).

Dincolo de guvern, chiar comunitatea de cercetare AI promovează norme privind divulgarea responsabilă. Există o idee emergentă de „norme de publicare pentru siguranța AI”, unde anumite descoperiri (cum ar fi cum să faci un model mult mai capabil) ar putea fi împărtășite cu grijă sau să nu fie open-source imediat pentru a evita utilizarea abuzivă. Unii cercetători practică gestionarea „infohazardurilor”, unde în mod deliberat nu publică detalii complete despre capabilități periculoase (de exemplu, dacă cineva ar descoperi cum să ocolească toate filtrele de securitate cunoscute într-un LLM la scară largă, ar putea raporta acest lucru în privat dezvoltatorilor, nu pe Twitter). Dar gestionarea infohazardurilor într-un mod care să nu creeze pur și simplu mai multă secretomanie este dificilă. O sugestie a fost crearea unui organism internațional de supraveghere AGI sau a unei agenții de monitorizare. De exemplu, renumitul om de știință AI Yoshua Bengio a propus ideea a ceva asemănător cu Agenția Internațională pentru Energie Atomică (AIEA), dar pentru AI – un organism internațional care să poată audita și monitoriza proiecte de AI ultra-avansate peste granițe, asigurându-se că nimeni nu își asumă riscuri iresponsabile. Acest lucru ar necesita cooperare și încredere majoră între națiuni, ceea ce nu este ușor, dar au existat mișcări timpurii: G7 a lansat o inițiativă numită Hiroshima AI process pentru a discuta guvernanța AI la nivel global, iar Marea Britanie a găzduit un summit global pentru siguranța AI la sfârșitul lui 2023, cu scopul de a aduce țările la un consens privind riscurile extreme.

Pe partea industriei, chiar și unii inițiați susțin o abordare mai lentă și mai deschisă. De exemplu, Dario Amodei (CEO-ul Anthropic) subliniază adesea prudența și testarea extinsă. Anthropic și-a construit o reputație de companie “AI safety first”. Ei au introdus conceptul de “AI constituțional” – practic, AI-ul urmează un set de principii etice scrise ca modalitate de aliniere techcrunch.com. Acest tip de muncă, dacă ar fi împărtășit deschis, ar putea ajuta întregul domeniu. Și, într-adevăr, Anthropic a publicat detalii despre metodele lor. Totuși, interesant, cele mai avansate modele ale lor și procesele exacte de antrenament rămân proprietare. Deci există tensiuni chiar și în cadrul firmelor “orientate spre siguranță” între deschidere și avantajul competitiv.

Dar publicul larg și societatea civilă? Vedem tot mai multă implicare și din aceste zone. ONG-uri și think tank-uri (precum Center for AI Safety, OpenAI’s own nonprofit board, Partnership on AI, etc.) organizează discuții despre cum să gestionăm tranziția către AI mai puternic. Unele au publicat chiar planuri de scenarii pentru ce se întâmplă dacă se dezvoltă un AGI timpuriu – susținând ca antrenarea și implementarea acestuia să fie supravegheate de echipe multidisciplinare, inclusiv eticieni și, poate, observatori guvernamentali.

O idee concretă care câștigă teren este “red-teaming” modelelor avansate cu experți externi. Asta înseamnă că, înainte (sau imediat după) lansarea unui nou model puternic, echipe independente primesc acces pentru a-l testa riguros pentru defecte, prejudecăți, vulnerabilități de securitate etc., iar constatările sunt făcute publice sau cel puțin împărtășite cu autoritățile de reglementare. OpenAI a făcut de fapt puțin din asta cu GPT-4 – au avut academicieni și consultanți externi care l-au testat (și au dezvăluit unele riscuri în system card-ul lor). Totuși, pentru că existența GPT-4 a fost secretă până la lansare, echipele de red-teaming au lucrat sub NDA, iar rezultatele au apărut în aceeași zi cu modelul, limitând analiza publică prealabilă. Pe viitor, ar putea deveni o normă ca orice model peste un anumit prag de capabilitate să treacă prin evaluări pre-lansare de către auditori externi. Asta ar necesita ca firmele să dezvăluie modelul (sub confidențialitate) unei terțe părți de încredere – un pas mare pentru laboratoarele secrete, dar poate un compromis necesar.

Imperativul etic pe care mulți îl exprimă este că AI ar trebui să aducă beneficii întregii umanități, nu doar celor care îl construiesc primii. Acest lucru reia vechiul statut OpenAI (care vorbea despre distribuirea beneficiilor și evitarea superiorității AI de către un singur grup). Când OpenAI a trecut la modelul for-profit și a devenit mai puțin transparentă, unii au criticat-o că a abandonat acea poziție altruistă vice.com. Acum există o presiune de a trage companiile la răspundere în fața interesului public. De exemplu, Autoritatea pentru Concurență și Piețe din Marea Britanie a început în 2023 să examineze piața modelelor de bază AI, semnalând practic: “urmărim să ne asigurăm că doar câteva firme nu monopolizează această tehnologie în detrimentul consumatorilor sau concurenței.” Este o perspectivă economică, dar se suprapune cu preocupările etice privind concentrarea puterii.

În final, ar trebui să menționăm că nu toată lumea este de acord cu nivelul de risc. Unii experți consideră că temerile legate de AGI sunt exagerate și că secretomania nu este principala problemă – în schimb, ei sunt îngrijorați de probleme mai imediate, precum biasul AI, pierderea locurilor de muncă sau confidențialitatea. Și ei susțin mai multă transparență, dar nu pentru că se tem de o superinteligență scăpată de sub control; ci pentru a se asigura că sistemele actuale sunt corecte și responsabile. Oricum ar fi, transparența (sau lipsa acesteia) este esențială. Fără ea, nu putem aborda corespunzător niciuna dintre aceste probleme, de la bias la risc existențial.

În încheiere, lumea se află într-un act delicat de echilibru. Ne dorim inovațiile pe care le promite AI – tratamente pentru boli, salturi în productivitate, noi descoperiri științifice. Totuși, chiar aceste inovații pot fi o sabie cu două tăișuri dacă sunt dezvoltate fără măsuri de siguranță. Recentele evenimente tumultoase din interiorul OpenAI, cu angajați presupus alarmați de o descoperire și o intervenție a consiliului de administrație, arată că până și inventatorii sunt precauți cu privire la ceea ce creează reuters.com. Societatea, în ansamblu, încearcă să recupereze pentru a înțelege și ghida această tehnologie. Transparența nu este un scop în sine, ci un mijloc de a permite responsabilitatea, colaborarea și luarea deciziilor informate. După cum a spus un director din domeniul AI, abordarea „construiește mai întâi, repară mai târziu” nu ar fi acceptabilă în alte industrii cu mize mari theguardian.com – nu ar trebui să o acceptăm nici pentru AI.

Următorii câțiva ani vor aduce probabil mai multe scurgeri de informații și dezvăluiri pe măsură ce insiderii se confruntă cu dileme etice, mai multe zvonuri despre AGI pe măsură ce laboratoarele forțează limitele, și, sperăm, mai mult dialog global constructiv despre cum să gestionăm această situație. Indiferent dacă AGI va apărea peste 5 sau 50 de ani, asigurarea faptului că dezvoltarea sa nu are loc în totală obscuritate ar putea fi esențială pentru a o transforma într-un beneficiu, nu într-un blestem, pentru omenire.

Surse:

  • Reuters – Cercetătorii OpenAI au avertizat consiliul de administrație despre o descoperire AI înainte de demiterea CEO-ului, spun surse reuters.com
  • Reuters – Elon Musk și alții cer o pauză în dezvoltarea AI, invocând „riscuri pentru societate” reuters.com
  • Vice – GPT-4 de la OpenAI este cu sursă închisă și învăluit în secretomanie vice.com
  • The Guardian – Inginer Google suspendat după ce a spus că chatbot-ul AI a devenit conștient theguardian.com
  • The Guardian – ‘Nașul AI’ Geoffrey Hinton părăsește Google și avertizează asupra pericolelor… theguardian.com
  • The Verge – Modelul lingvistic AI puternic al Meta a fost scurs online — ce se întâmplă acum? theverge.com
  • Reuters – Alibaba lansează un model AI despre care spune că îl depășește pe DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – CIA își construiește propria versiune de ChatGPT fanaticalfuturist.com
  • TechCrunch – Planul de 5 miliarde de dolari pe 4 ani al Anthropic pentru a concura cu OpenAI techcrunch.com
  • MacRumors – Apple GPT: Ce știm despre munca Apple la AI generativ macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss