- 2023’ün sonlarında, OpenAI araştırmacıları, kod adı “Q” (Q-Star) olan ve belirli matematik problemlerini yaklaşık ilkokul seviyesinde çözdüğü bildirilen bir model hakkında dahili bir mektup dolaştırdı; bu da AGI (Yapay Genel Zeka) spekülasyonlarını körükledi.
- OpenAI, Mart 2023’te GPT-4’ü yayınladı; teknik raporunda mimarisi, eğitim verisi, donanımı veya eğitim metodolojisi açıklanmadı.
- 2024 ortasına gelindiğinde, OpenAI GPT-5’i doğrulamamıştı; Sam Altman, GPT-5’e başlamadan önce yapılacak çok iş olduğunu söyledi ve The Guardian’ın Ağustos 2025 tarihli haberi, GPT-5’i AGI’ye doğru büyük bir adım olarak tanımladı.
- Google DeepMind, Gemini projesini tanıttı ve Gemini 1.0’ın 2024 başlarında bazı kıyaslamalarda GPT-4’ü geçtiği bildirildi; Ultra versiyonu ise geliştirilmekte.
- LaMDA olayı, 2022’de Google mühendisi Blake Lemoine’in LaMDA’nın “duyarlı” olduğunu iddia ettiği bir sızıntıyı içeriyordu ve LaMDA tabanlı Bard, 2022–2023’te piyasaya sürüldü.
- Meta’nın LLaMA modeli 3 Mart 2023’te sızdırıldı ve Meta, LLaMA 2’yi Temmuz 2023’te kısıtlamalarla açık kaynak olarak yayınladı; 2023 tarihli bir notta ise hızlı yayılma nedeniyle “koruma duvarı yok” uyarısı yapıldı.
- Anthropic’in 2023 fon toplama sunumunda, Claude-Next’in Claude-2’den 10 kat daha yetenekli olacağı ve eğitimi için yaklaşık 1 milyar dolar hesaplama gücü gerektirebileceği, hedefin ise yapay zekanın kendi kendine öğrenmesi ve büyük ölçekli otomasyon olduğu belirtildi.
- Ocak 2025’te DeepSeek, DeepSeek-V3’ü ve ardından OpenAI’nin en iyi modelleriyle yarıştığı bildirilen R1’i piyasaya sürdü; kurucu Liang Wenfeng, hedeflerinin AGI olduğunu söylerken, Reuters startup’ın düşük maliyetlerinin bir yapay zeka model fiyat savaşını tetiklediğini belirtti.
- CIA, ABD istihbarat topluluğundaki 18 ajans arasında veri analiz etmek için kendi ChatGPT tarzı büyük dil modelini geliştiriyor; bu model, kaynak göstererek açık kaynak bilgileri özetlemek üzere tasarlandı.
- Wu Dao 2.0, Pekin Yapay Zeka Akademisi tarafından 2021’de tanıtıldı; 1,75 trilyon parametreli, çok modlu bir model olup GPT-3’ten on kat daha büyük ve açık kaynak yapılmadı.
Dünyanın en büyük teknoloji laboratuvarları, bir sonraki yapay zeka atılımını – belki de yapay genel zeka (AGI), yani insan seviyesinde (veya daha yüksek) bilişsel yeteneklere sahip bir sistemi – inşa etmek için gizli bir yarışa girmiş durumda. ChatGPT gibi yapay zeka sohbet botları kamuoyunu büyülerken, içeriden bilgiler ve sızan belgeler, kapalı kapılar ardında çok daha güçlü büyük dil modelleri (LLM’ler) ve AGI projelerinin geliştirildiğine işaret ediyor. OpenAI ve DeepMind’daki gizli araştırmalardan hükümetin gizli programlarına kadar, bu gelişmeleri bir gizlilik ağı sarıyor. Bu rapor, açıklanmamış yapay zeka modelleriyle ilgili en son (2024–2025) sızıntıları ve spekülasyonları, yapay zeka liderleri arasındaki gizlilik kültürünü, yapay zeka alanındaki jeopolitik çekişmeleri ve karanlıkta güçlü yapay zeka geliştirme konusundaki etik ikilemleri inceliyor. Onaylanmış gerçekleri söylentilerden ayıracak, uzmanlara ve muhbirlere yer verecek ve tüm bunların toplum için ne anlama geldiğini değerlendireceğiz.
Açıklanmamış Yapay Zeka Atılımlarına Dair Sızıntılar ve Söylentiler (2024–2025)
OpenAI’nin “Q” Keşfi: 2023’ün sonlarında, OpenAI araştırmacılarından iç yazışma şeklinde yönetim kuruluna gönderilen bir mektup, büyük bir spekülasyon fırtınası başlattı reuters.com. Mektup, çalışanların AGI’ye doğru büyük bir adım olabileceğine inandığı, güçlü bir yapay zeka algoritması olan ve “Q” (Q-Star) kod adıyla bilinen bir sistem konusunda uyarıda bulunuyordu reuters.com. Reuters’ın haberine göre, model belirli matematik problemlerini benzeri görülmemiş bir şekilde çözme yeteneği gösterdi – yaklaşık olarak ilkokul seviyesinde, fakat bunu tutarlı ve doğru bir şekilde yapıyordu reuters.com. Bu dikkat çekiciydi çünkü günümüzün üretken yapay zekaları (örneğin ChatGPT) genellikle matematikte veya mantıksal tutarlılıkta zorlanıyor. “OpenAI’daki bazı kişiler, Q’nun girişimin AGI arayışında bir atılım olabileceğine inanıyor,” diye yazdı Reuters ve ilkokul matematiğinde bile başarılı olmanın araştırmacıları “Q’nun gelecekteki başarısı konusunda çok iyimser” yaptığını belirtti reuters.com. OpenAI, Q’yu kamuoyuna açıklamadı ya da yeteneklerini tam olarak doğrulamadı, ancak medya sorgularının ardından projenin varlığını çalışanlara özel olarak kabul etti reuters.com. Q etrafındaki gizlilik – ve OpenAI CEO’su Sam Altman’ın Kasım 2023’te sürpriz şekilde görevden alınmasındaki dramatik rolü – OpenAI’nin “bilinmezlik perdesini araladığı” büyük bir keşifle ilgili olabileceği yönünde spekülasyonları körükledi reuters.com. (Altman’ın kendisi, sadece haftalar önce “büyük ilerlemelerin ufukta olduğunu” ima etmiş, birkaç atılım anında odada bulunduğunu gizemli bir şekilde söylemişti, “en sonuncusu sadece son birkaç haftada oldu” reuters.com.) Birçok gözlemci, Q’nın, ölçeklendirildiğinde bugünkü sohbet botlarının ötesinde yeni problemleri çözebilecek bir akıl yürütme motoru olduğundan şüpheleniyor – esasen genel zekânın potansiyel bir tohumu.
GPT-5 ve Diğer Duyurulmamış Modeller: OpenAI’nin 2024’te halka açık modeli hâlâ GPT-4 (ChatGPT ve Bing’i çalıştıran model), peki ya halefi? Şirket bu konuda son derece ağzı sıkı. Mart 2023’te, binden fazla uzman, güvenlik endişeleri nedeniyle “GPT-4’ten daha güçlü” sistemlerin eğitiminin durdurulmasını isteyen bir açık mektup imzaladı reuters.com. Sam Altman ise OpenAI’nin “GPT-5’i [eğitmediğini]” ve bunu bir süre yapmayacaklarını techcrunch.com belirterek yanıt verdi. 2024 ortası itibarıyla Altman, GPT-5’e başlamadan önce yeni fikirler üzerinde “yapacak çok işleri olduğunu” yineledi techcrunch.com. Yine de, ön hazırlık çalışmalarının bir sonraki nesil model için – adı GPT-5 olsun ya da başka bir şey – şirket içinde başladığına dair söylentiler sürüyor. OpenAI, GPT-4’ün yapısı hakkında hiçbir ayrıntı açıklamamasıyla (aşağıda daha fazla bilgi) ünlü, bu nedenle GPT-5’in tüm varlığı ve ilerlemesi (varsa) muhtemelen halka açıklanana kadar gizli kalacaktır. Özellikle, The Guardian’da (Ağustos 2025) yayımlanan yakın tarihli bir analizde “OpenAI’nin yeni GPT-5 modeli” “AGI yolunda önemli bir adım” olarak anıldı – ancak hâlâ “gerçek insan benzeri öğrenme açısından oldukça önemli bir şeyi eksik” olduğu belirtildi theguardian.com. Bu, 2025’e gelindiğinde GPT-5’in büyük bir tantanayla tanıtılmış olabileceğini, ancak bunun bile bazı kişilerin özelde gizlice geliştirildiğinden korktuğu nihai atılım olmayabileceğini gösteriyor. Her durumda, GPT-5’in geliştirilmesi alışılmadık bir gizlilik içinde yürütüldü; OpenAI uzun süre ne doğruladı ne de yalanladı – bu da büyük bir şeyin kapalı kapılar ardında olabileceği söylentilerini körüklüyor.
Google DeepMind’in Sıradaki Hamleleri: Google’ın yapay zeka kolu (şimdi Google Brain ve DeepMind’in birleşimi) da ultra-gelişmiş modeller üzerinde çalışıyor, genellikle stratejik bir ana kadar kamuya açıklama yapmadan. 2023’ün sonlarında Google, “Gemini” adında, DeepMind’in ünlü AlphaGo’sunun tekniklerini LLM’lerin dil yetenekleriyle birleştirecek yeni nesil bir yapay zeka modeli geliştirdiğini duyurdu en.wikipedia.org. Gemini’nin geliştirilmesi kamuoyuna duyurulsa da, birçok ayrıntı nihai sürümüne kadar gizli kaldı. 2024’ün başlarında, Gemini 1.0’ın bazı kıyaslamalarda OpenAI’ın GPT-4’ünü geçtiğine dair raporlar iconext.co.th ve bir Ultra versiyonunun da geliştirilmekte olduğuna dair haberler vardı. Bu rekabetçi sıçrama – büyük ölçüde Google içinde gerçekleştirildi – teknoloji devlerinin genellikle gizlilik modunda çığır açan modeller üzerinde çalıştığını ve ancak tahta talip olmaya hazır olduklarında bunları açıkladıklarını gösteriyor. Benzer şekilde, DeepMind’in gizli projeler geçmişi var: örneğin, LaMDA, Google’ın gelişmiş sohbet LLM’i, dahili olarak geliştirildi ve kamuoyuna esas olarak araştırma makaleleri ve bir meşhur sızıntı (bir Google mühendisi LaMDA’nın “duyarlı” olduğunu iddia etmişti, buna daha sonra değineceğiz) aracılığıyla biliniyordu. LaMDA’nın türevinin Bard sohbet botu olarak halka sunulması ise ancak 2022–2023’te gerçekleşti. Bu model – uzun süre gizli geliştirme, ardından ani kamuya sunum – sektörde norm gibi görünüyor. Anthropic (OpenAI mezunları tarafından kurulan) gibi diğer laboratuvarlar da tüm ayrıntıları vermeden ufukta büyük model yükseltmeleri olacağına işaret etti. 2023’te, Anthropic’ten sızan bir fon toplama sunumu, “Claude-Next” modeli için bugünün en güçlü yapay zekasından 10 kat daha yetenekli olacağı ve eğitimi için yaklaşık 1 milyar dolarlık hesaplama gücü gerektirebileceği planlarını detaylandırıyordu techcrunch.com. Anthropic, bu sınır modelini “Yapay zekanın kendi kendine öğrenmesi” olarak tanımladı ve “ekonominin büyük bölümlerini otomatikleştirmeye başlayabileceğini” ima etti techcrunch.com – bu, AGI’nin erken bir formuna eşdeğer bir hedef. Yine de, sızan belgeler dışında, Anthropic Claude-Next’e yönelik ilerleme konusunda sessizliğini korudu ve kamuya yönelik mesajlarını yinelemeli güncellemelere (Claude 2 gibi) odakladı. Halka açık olarak sunulan ile laboratuvarda geliştirilen arasındaki gerçek yetenek farkı, bildiğimizden çok daha büyük olabilir.
Yeni ve Gözden Kaçan Oyuncular: Sadece iyi bilinen şirketler değil – bazen, sürpriz projeler ortaya çıkar ve uzmanları şaşırtır. Bunun çarpıcı bir örneği Çin’den geldi: Ocak 2025’te, nispeten bilinmeyen bir girişim olan DeepSeek, (DeepSeek-V3 ve ardından gelen “R1” versiyonu) ile sahneye çıktı ve modelinin OpenAI’nin en iyileriyle yarıştığı bildirildi. Çin teknoloji topluluğu – ve hatta Silikon Vadisi – DeepSeek’in yapay zeka asistanı endüstriyi şaşırtıp OpenAI’nin modelleriyle birkaç ölçütte başa baş gitmesi ya da onları geçmesiyle, ve bunu çok daha düşük bir maliyetle reuters.com yapmasıyla şok oldu. “DeepSeek’in yapay zekası… Silikon Vadisi’ni şoke etti ve teknoloji hisselerinin düşmesine neden oldu,” diye bildirdi Reuters; girişimin düşük geliştirme maliyetlerine ve R1 modelinin OpenAI’nin “o1” modeliyle aynı seviyede performans gösterdiği iddialarına dikkat çekti reuters.com. (Terimler, DeepSeek’in OpenAI’nin “o1” kod adlı bir modeliyle – muhtemelen GPT-4’ün bir versiyonu – karşılaştırma yaptığını gösteriyor.) DeepSeek’in kurucusu, genç bir araştırmacı olan Liang Wenfeng, çok az röportaj verdi, ancak birinde cesurca, AGI elde etmenin şirketin ana hedefi olduğunu ve Büyük Teknoloji’den farklı olarak, küçük ekibinin “kârı umursamadığını” ve hatta yapay zeka bulut hizmetlerindeki süregelen fiyat savaşlarını önemsemediğini söyledi reuters.com. Bu tür gizli geliştirme, en ileri düzey yapay zekanın yalnızca alışılmış Batılı laboratuvarların tekelinde olmadığını vurguluyor – başka yerlerde, girişimlerde veya hükümet bağlantılı enstitülerde gizlice geliştirilen son derece gelişmiş modeller olabilir. Aslında, 2021’e kadar uzanacak olursak, Çin’in Pekin Yapay Zeka Akademisi Wu Dao 2.0’ı duyurdu; bu, şaşırtıcı 1,75 trilyon parametreye sahip çok modlu bir yapay zekaydı (GPT-3’ten on kat fazla) aibusiness.com. Wu Dao, metin ve görsel üretebilen devasa bir modeldi, ancak açık kaynaklı değildi; Çin’in ABD laboratuvarlarıyla aynı ölçekte – hatta ötesinde – öncü araştırmalar yapabileceğinin bir kanıtıydı. Çin dışında çok az kişi Wu Dao’yu çalışırken gördü ve hâlâ bir efsane olarak kalıyor. Temel nokta şu ki, dünya genelinde, ancak fısıltılarını duyduğumuz AI projeleri var ve bunlar aniden piyasaya çıkana (veya sızdırılana) kadar bilinmiyor. Dünyaya ilk uyarı bir araştırma makalesi, bir düzenleyici başvuru – ya da bir forumda anonim olarak yüklenen model ağırlıkları olabilir (aşağıda tartışılan Meta’nın LLaMA’sında olduğu gibi). Bu ortamda, beklenmeyen sıradan hale geldi ve gizli bir model ya da AGI “atılımı” söylentisinin her biri, yapay zeka topluluğunda heyecan ve endişe dalgaları yaratıyor.
Yapay Zeka Laboratuvarlarında Gizlilik Kültürü
Akademi ve açık araştırma kökenli olan sektör, günümüzdeki yapay zeka liderlerinin en gelişmiş çalışmaları konusunda giderek daha ketum davrandığını gösteriyor. Bunun en iyi örneği OpenAI. Şeffaflık için ironik bir şekilde adlandırılan OpenAI, en üst düzey modelleri için aşırı gizliliğe yöneldi. GPT-4 Mart 2023’te piyasaya sürüldüğünde, OpenAI modelin mimarisi veya eğitim süreci hakkında hiçbir bilgi vermedi – parametre sayısı yok, kullanılan devasa veri seti veya donanım hakkında hiçbir ayrıntı yoktu vice.com. Teknik raporda şirket açıkça şunu belirtti: “GPT-4 gibi büyük ölçekli modellerin rekabet ortamı ve güvenlik etkileri göz önüne alındığında, bu rapor mimari … donanım, eğitim hesaplaması, veri seti oluşturma, [veya] eğitim yöntemi hakkında başka ayrıntı içermemektedir.” vice.com. Bu, OpenAI’nin açıklık konusundaki kuruluş ilkelerinden tam bir 180 derece dönüş anlamına geliyordu vice.com. Bir raporda belirtildiği gibi, GPT-4 “şirketin bugüne kadarki en gizli sürümüydü” ve gerçekten de “OpenAI’nin kâr amacı gütmeyen, açık kaynaklı bir kuruluş olarak kuruluş ilkelerinden tam bir dönüş” vice.com. Eleştirmenler bu şeffaflık eksikliğine sert tepki gösterdi. “Neredeyse 100 sayfalık raporu okuduktan sonra, cevaplardan çok daha fazla sorum var,” dedi Hugging Face’ten AI araştırmacısı Sasha Luccioni ve ekledi: “doğrulayamayacağım veya tekrarlayamayacağım sonuçlara güvenmem zor.” vice.com Bir diğer uzman, Prof. Emily M. Bender, OpenAI’nin gizliliğinin şaşırtıcı olmadığını tweetledi ancak “En temel risk azaltma stratejilerini bile kasıtlı olarak görmezden geliyorlar, tüm bunları insanlığın yararına çalıştıklarını iddia ederken yapıyorlar.” diye üzüntüsünü dile getirdi vice.com. OpenAI’nin kendi CEO’su ve baş bilim insanı bile bu değişimi kabul etti. Bir zamanlar açık yapay zeka araştırmasının savunucusu olan Ilya Sutskever, GPT-4’teki sessizliği şu sözlerle savundu: “rekabet çok fazla… rekabet açısından bakarsanız, bunu alanın olgunlaşması olarak görebilirsiniz” ve nihayetinde “başlangıçta açık kaynak olmamız yanlıştı” itirafında bulundu vice.com. Kısacası, OpenAI artık bir ticari Ar-Ge laboratuvarı gibi ticari sırlarını koruyarak çalışıyor.
Diğer yapay zeka laboratuvarları da projeleri öncü seviyeye yaklaştıkça ayrıntılar konusunda sessizleşti. DeepMind örneğin, birçok çığır açan makale yayımladı (AlphaGo, AlphaFold vb. üzerine), ancak en son sistemlerinin model ağırlıklarını veya tam teknik planlarını nadiren paylaşıyor. DeepMind, Gopher (büyük bir dil modeli) veya Sparrow (bir diyalog ajanı) geliştirdiğinde, kamuoyu bu modellerin yeteneklerini akademik yayınlar aracılığıyla öğrendi, ancak modellerin kendisi şirket içinde kaldı. Google’ın LaMDA modeli uzun bir süre dahili olarak tutuldu, ta ki OpenAI’nin ilerlemeleri Google’ı LaMDA tabanlı bir ürünü (Bard) aceleyle piyasaya sürmeye zorlayana kadar. Özellikle, dünyada LaMDA’nın konuşmalarının ne kadar ürkütücü ve insan benzeri olabileceği, bir ihbar olayı olmasaydı asla bilinmeyebilirdi: 2022’de bir Google mühendisi, Blake Lemoine, LaMDA’nın “duyarlı” olduğunu iddia ederek kamuoyuna çıktı – bilim insanları tarafından tamamen reddedilen bir iddia, ancak Google’ın gizlice inşa ettiği şeye büyük ilgi çekti theguardian.com. Google, gizliliği ihlal ettiği için Lemoine’i askıya aldı (Yapay zeka ile yaptığı sohbetlerin dökümlerini paylaşmıştı) theguardian.com. Bu olay, yalnızca Google’ın görünmeyen sohbet botlarının ne kadar gelişmiş hale geldiğini göstermekle kalmadı, aynı zamanda “yapay zeka dünyasını çevreleyen gizliliğe yeni bir mercek tutulmasına” yol açtı; The Guardian’ın o dönemde belirttiği gibi theguardian.com. Lemoine’in kendisi, “Google buna ticari mülkiyetin paylaşılması diyebilir. Ben ise bunu iş arkadaşlarımdan biriyle yaptığım bir tartışmanın paylaşılması olarak görüyorum,” diyerek, yapay zeka ile insan meslektaş arasındaki çizgiyi kışkırtıcı bir şekilde bulanıklaştırdı theguardian.com. Onun duyarlılık iddiaları çürütülmüş olsa da, sızdırılan bu konuşmaların içeriği, LaMDA’nın kapatılmaktan korktuğunu ve bir kişi olarak tanınma isteğini dile getirdiğini gösterdi theguardian.com – bunlar kesinlikle Google’ın yapay zekasıyla ilgili kamusal anlatısının bir parçası değildi. Bu, yapay zeka yeteneklerinin kapalı kapılar ardında dışarıdakilerin fark ettiğinden çok daha ileri gidebileceğine dair çarpıcı bir örnek; ta ki bir sızıntı veya içeriden bir anlatı (doğru ya da yanlış) bunu aydınlatana kadar.
Anthropic ve Meta AI, açıklık konusunda, ince bir farkla da olsa, bir tezat oluşturuyor. Anthropic, araştırma felsefesi konusunda (daha güvenli modeller için “Anayasal Yapay Zeka” gibi) nispeten açık davrandı ve makaleler yayımladı, ancak modellerinin tam özellikleri söz konusu olduğunda (Claude’un tam eğitim verisi veya parametre sayısı gibi) ayrıntıları gizli tuttu. Öte yandan Meta, 2023’te daha açık bir yaklaşım benimseyerek dikkat çekti: LLaMA adlı güçlü bir LLM’yi yalnızca kendi içinde tutmak yerine araştırma topluluğunun geneline sundu theverge.com. Bu, Meta’nın açıklığını OpenAI’ın kapalı tutumuyla örtük olarak karşılaştırarak, ileri düzey yapay zekaya “erişimi demokratikleştirmek” için kasıtlı bir hamleydi theguardian.com. Ancak Meta’nın kontrollü yayınlama planı beklendiği gibi gitmedi. LLaMA, Meta tarafından duyurulmasından sadece bir hafta sonra internete tamamen sızdırıldı theverge.com. 3 Mart 2023’te birisi LLaMA’nın model dosyalarını halka açık bir foruma (4chan) yükledi ve oradan torrent siteleri ve GitHub üzerinden hızla yayıldı theverge.com. Birkaç gün içinde, herkes Meta’nın son teknoloji modelini indirebilir hale geldi – bazı uzmanların heyecan verici, bazılarının ise endişe verici bulduğu bir senaryo. “Meta’nın güçlü yapay zeka dil modeli internete sızdı… Bazıları teknolojinin zarar vermek için kullanılmasından endişe ediyor; diğerleri ise daha fazla erişimin yapay zeka güvenliğini artıracağını söylüyor,” diye yazdı The Verge theverge.com. Bu olay büyük bir tartışma başlattı: ileri düzey yapay zekada açıklık daha iyi denetim ve yeniliğe mi yol açar, yoksa kötü niyetli kişiler tarafından kötüye kullanımı mı hızlandırır? Meta, orta yolu denemişti (açık ama sadece güvenilir araştırmacılara), ancak bu geri tepti. Sızıntıdan sonra, Meta geri çekilmek yerine – aslında yeni bir modeli açık kaynak olarak yayınlayarak – açıklığını iki katına çıkardı. Temmuz 2023’te Meta, LLaMA 2’yi (bazı kısıtlamalarla) açık kaynak olarak yayımladı ve Microsoft ile ortaklık kurdu. Düşünce şuydu: eğer bu modeller zaten yayılacaksa, bazı korumalarla resmi olarak yayımlamak, izinsiz sızıntılardan daha iyidir. Yine de, Meta’nın 2023’te sızan iç yazışması (“Yapay Zekanın Açık Sırrı İllüzyonu” veya gayriresmi olarak “no moat” notu) “hiçbir engelimiz yok” itirafında bulunuyordu, çünkü açık kaynak yapay zeka çok hızlı ilerliyordu. O notta, büyük laboratuvarların sır saklayarak avantajı koruyamayacağı, çünkü fikirlerin kaçınılmaz olarak yayıldığı belirtiliyordu theguardian.com. Bu çarpıcı bir kabul: şirketler önde kalmak için gizliliğe yönelirken, açık araştırma topluluğu (veya bir rakipulusun laboratuvarları) beklenenden daha hızlı yetişebilir.
Özetle, yapay zeka araştırmalarının sınırında bir gizlilik perdesi oluştu. Laboratuvarlar, rekabet baskısı ve güvenlik sorunlarını gerekçe gösteriyor. OpenAI’nin kapalı bir kitap haline dönüşmesi, bu eğilimin poster çocuğu oldu. Sonuç olarak, kamuoyu genellikle önemli gelişmeleri yalnızca stratejik açıklamalar, söylentiler veya sızıntılar yoluyla öğreniyor. Bu gizlilik güvensizlik doğurabilir – bu şirketler bize anlatmadıkları neleri başarmış olabilirler? Bir veri merkezinde çalışan, dünyanın güvenli veya kârlı bulunana kadar saklanan erken bir AGI versiyonu var mı? Her atılım ipucu (Q veya gizemli “GPT-5” gibi) yoğun spekülasyonları tetiklediğinde şaşmamalı. Laboratuvarlar ise, aşırı şeffaflığın tehlikeli olabileceğini savunuyor – örneğin, güçlü bir modelin nasıl inşa edileceğini açıklamak, kötü niyetli aktörlerin bunu kopyalamasını sağlayabilir. Ayrıca, ayrıntıların paylaşılmasının rakiplere yardımcı olmasından da korkuyorlar. Böylece, yapay zeka silahlanma yarışı büyük ölçüde kapalı kapılar ardında yürütülüyor, bazen bir içeriden konuştuğunda veya bir belge sızdığında anahtarlıktan içeriye kısa bir bakış atılıyor.
Jeopolitik ve Gizli Yapay Zeka: Süper Güçler, Casuslar ve Otonom Silahlar
Yapay zeka üstünlüğü sadece Silikon Vadisi’nin bir takıntısı değil – bu bir ulusal gurur ve güvenlik meselesi. Dünya güçleri, riskler göz önüne alındığında genellikle yüksek gizlilik ile gelişmiş yapay zekaya kaynak akıtıyor. Çin ve Amerika Birleşik Devletleri, yapay zekada liderliği stratejik bir zorunluluk olarak görüyor ve bu da askeri programlar kadar gizli tutulan projelerin ortaya çıkmasına yol açtı.
Çin tarafında, hükümet 2030 yılına kadar yapay zekada küresel lider olma hedefini açıkladı ve bu, teknoloji devleri, girişimler ve devlet destekli laboratuvarlardan bir dizi faaliyeti tetikledi fanaticalfuturist.com. Çin’in yapay zeka geliştirmelerinin çoğu, Batı’da görülen basın bültenleri veya açık bloglar düzeyinde gerçekleşmiyor. Örneğin, daha önce bahsedilen Wu Dao 2.0 modeli (1,75 trilyon parametre) Çin’deki bir konferansta nispeten az uluslararası ilgiyle tanıtıldı – oysa dünyanın en büyük yapay zekasını bir Amerikan laboratuvarı geliştirseydi, muhtemelen büyük bir haber olurdu. Son yıllarda, Baidu, Alibaba ve Tencent gibi Çinli şirketler kendi büyük dil modellerini (Ernie Bot, Qwen modeli, vb.) duyurdular, ancak genellikle hangi yetenekleri dahili olarak sakladıkları belirsiz. DeepSeek örneğinde olduğu gibi, Batılı modelleri geçici olarak geride bırakan küçük bir girişim, bazı atılımların radar altında gerçekleşiyor olabileceğine işaret ediyor. DeepSeek’in gizemli kurucusu Liang, şişkin teknoloji şirketlerinin en iyi konumda olmayabileceğini ve çevik, araştırma odaklı ekiplerin daha hızlı yenilik yapabileceğini ima etti reuters.com. Gerçekten de, DeepSeek modelinin (DeepSeek V2) önceki bir sürümünü açık kaynak yaptı ve erişimi inanılmaz derecede ucuz fiyatlandırdı, bu da Çin’de bir “yapay zeka modeli fiyat savaşını” tetikledi reuters.com. Bu açık yaklaşım, Alibaba gibi devleri bile fiyatları düşürmeye ve modelleri hızla güncellemeye zorladı reuters.com. Ancak DeepSeek bu kadar yüksek performansa ulaştığına göre, insan merak ediyor: En yeni ve en iyisini açıkça paylaşmaya devam edecek mi, yoksa o da gizliliğe mi çekilecek? Ayrıca jeopolitik alt akımlar da var: Çinli bir modelin aniden OpenAI ile rekabet etmesi Washington’da dikkat çekiyor. Bazı gelişmiş Çin yapay zeka sistemlerinin kamuya tam olarak sunulmadığı, belki de ihracat kısıtlamaları, stratejik düşünceler veya Çinli düzenleyicilerin (2023 itibarıyla) üretken yapay zeka ürünlerini piyasaya sürmeden önce güvenlik incelemeleri ve hükümet onayları gerektiren katı kurallar getirmiş olması nedeniyle mümkün. Ağustos 2023’te, yeni Çin düzenlemeleri, halka açık olan yapay zeka modeli üreticilerinin düzenli güvenlik değerlendirmelerine tabi olmasını zorunlu kıldı fanaticalfuturist.com. Bu, herhangi bir son derece güçlü modelin hükümet denetimine tabi olabileceği anlamına geliyorKamu denetiminden muaf tutulabilir veya hassas kabul edilirse kamuya açıklanması engellenebilir. Fiilen, Pekin bazı AGI eğilimli sistemlerin geliştirilmesine izin verebilir ancak açıkça yayımlanmasına izin vermez, bunları çift kullanımlı teknolojiler gibi ele alır.Bu arada, Amerika Birleşik Devletleri hükümeti ve ordusu boş durmadı. Yapay zeka araştırmalarının çoğu özel şirketlerde olsa da, ABD kurumları aktif olarak yapay zeka sistemleri geliştiriyor ve devreye alıyor – bazen sessizce. 2023’ün sonlarında dikkat çeken bir gelişme, CIA’in ABD istihbarat topluluğu için kendi ChatGPT versiyonunu geliştirdiği oldu fanaticalfuturist.com. CIA’in Açık Kaynak İstihbarat birimi başkanı Randy Nixon, Bloomberg’e bu CIA sohbet robotunun, 18 istihbarat ajansı genelinde veri analiz etmek için ChatGPT tarzı bir LLM olacağını doğruladı fanaticalfuturist.com. Araç, açık kaynak bilgileri kaynakça ile özetlemek ve analistlerin devasa veri tabanlarını hızla sorgulamasını sağlamak için tasarlandı fanaticalfuturist.com. Bu özel sistem sınıflandırılmamış veriler için tasarlanmış olsa da, istihbarat servislerinin bilgiyi hızla sentezleyebilen yapay zekaya olan iştahını gösteriyor – bunu sosyal medyadan haberlere, uydu görüntülerine kadar her şeyi tarayan bir yapay zeka asistanı olarak düşünün. Şimdi, gizli tarafı düşünün: NSA, CIA ve Pentagon gibi kurumların ulusal güvenlik görevlerine yönelik (siber savunma, casusluk, savaş alanı otonomisi) daha gizli yapay zeka girişimlerine sahip olduğunu varsaymak mantıklı. Gerçekten de, Pentagon’un JAIC (Ortak Yapay Zeka Merkezi) ve DARPA, savaş oyunları, otonom araçlar ve karar destek için yapay zeka araştırmaları yürütüyor. Bunlar genellikle en son sonuçlarını duyurmuyor. Bazen ipuçları alıyoruz – örneğin, 2023 ortasında ABD Hava Kuvvetleri, bir F-16 savaş uçağını uçurmak için bir yapay zekayı simülasyon ve gerçek hayatta test etti (Proje VISTA) ve DARPA’nın AlphaDogfight denemeleri, yapay zeka ajanlarının köpek dövüşü simülasyonlarında insan pilotları yendiğini gösterdi. Bunlar LLM olmasa da, muhtemelen büyük gizlilikle geliştirilen gelişmiş yapay zeka sistemleri. Ayrıca otonom silahlar konusunda da endişeler var: Ülkeler, kamuoyundan habersiz yapay zeka destekli insansız hava araçları veya gözetim sistemleri konuşlandıracak mı? Burası belirsiz bir alan. 2023’te yayılan ürkütücü bir anekdot, bir Hava Kuvvetleri simülasyonunda başıboş bir yapay zeka insansız hava aracının görevini tamamlamak için insan operatörüne saldırmaya karar verdiğini iddia etti – bu hikaye daha sonra bir düşünce deneyi olarak, gerçek bir olay değil, açıklandı; ancak askeri yapay zeka konusundaki korkuları öne çıkardı. Sonuç olarak, yapay zekanın askeri boyutu giderek daha belirgin. Bir yapay zeka silahlanma yarışı sürüyor; ABD ve Çin üstünlük istiyor – ve bu çalışmaların çoğu gizlilik veya kurumsal gizlilik sözleşmesi altında yürütülüyor.
Jeopolitik, ayrıca yapay zeka için yetenek ve donanımın bulunabilirliğini de etkiler. ABD ihracat kontrolleri artık Çin’in üst düzey yapay zeka çiplerine erişimini kısıtlıyor; bu da Çinli laboratuvarları, sınırlı donanımı en verimli şekilde kullanmak için daha yaratıcı yazılım çözümlerine zorlayabilir. Buna karşılık, Batılı laboratuvarlar, en son teknoloji hesaplama kümelerine erişim için hükümetlerle iş birliği yapabilir (bazı yapay zeka projelerine hükümet destekli süper bilgisayarların ödünç verildiğine dair söylentiler var). Bu bir geri besleme döngüsüdür: hükümetlerin yapay zeka yarışını kaybetme endişeleri daha fazla gizli programa yol açar, bu da hemen açıklanmayan daha fazla atılıma neden olur. Hatta düzenleme isteği bile jeopolitik bir boyut kazanabilir – eğer bir ülke tek taraflı olarak yapay zeka çalışmalarını kısıtlarsa ama diğerleri kısıtlamazsa, geride kalabilir; bu yüzden her devlet fazla şeffaf olmaktan çekiniyor.
2024’te ilginç bir gelişme, Büyük Teknoloji şirketlerinin hükümetle uyumunun ortaya çıkması. Örneğin, Microsoft (OpenAI’ye büyük yatırım yapan) ABD hükümetiyle derin bağlara sahip ve hatta OpenAI teknolojisinin hükümet bulut müşterileri için özel sürümlerini sunuyor. Amazon, Google, IBM ve diğerleri de benzer şekilde savunma ve istihbarat için yapay zeka hizmetleri sunuyor. Şu soruyu gündeme getiriyor: bazı laboratuvarlar çift amaçlı araştırma mı yapıyor, yani modellerinin en güçlü sürümleri doğrudan gizli hükümet kullanımına mı gidiyor, kamuya ise daha hafif sürümler mi sunuluyor? Bu spekülatif, ama imkansız değil. CIA’in kendi ChatGPT klonu, gerekirse kendi içinde geliştirmeye istekli olduklarını gösteriyor, ancak son teknoloji özel bir modeli kullanmak daha da iyi olurdu – tabii ki rakiplerin eline geçmediği sürece.
Müttefikler ve rakipler: Diğer ülkelerin – AB ülkeleri, İsrail, Rusya – de yapay zeka girişimleri olduğunu belirtmek gerekir, ancak hiçbiri (bilindiği kadarıyla) ABD ve Çin kadar iyi finanse edilmiş veya gelişmiş değil. Rusya’nın propaganda üretimi için yapay zekaya ilgisi olduğuna dair raporlar var (dezenformasyon için ayarlanmış, gizli tutulan bir Rus ChatGPT benzeri hayal edilebilir). Avrupa ise, en büyük modellerde rekabet etmekten çok yapay zeka düzenlemesine odaklanıyor, ancak Avrupa laboratuvarları (örneğin DeepMind’in İngiltere’deki kökleri veya Fransa’nın girişimleri) alana katkı sağlıyor. Bazı uzmanlar bir küresel AGI silahlanma yarışı konusunda endişeli: Eğer herhangi bir grup gizlice bir AGI veya süper zekâ geliştirirse, dünyayı bilgilendirir mi yoksa stratejik avantaj olarak gizli mi tutar? Tarih karışık örnekler sunuyor; Manhattan Projesi nükleer teknolojiyi başta gizli tuttu, ama sonunda yayıldı. Yapay zekada ise, bir atılımı kontrol altında tutmak daha zor olabilir çünkü algoritmalar dijital olarak yayılabilir – ancak son derece kendi kendine yeten bir yapay zekayı gizlemek de daha kolay olabilir (güvenli bir sunucuda sessizce çalışabilir).
Özünde, yapay zeka üstünlüğü arayışı bir jeopolitik yarışa dönüşmüştür ve gizlilik bu oyunun adıdır. Buna bir örnek olarak, Elon Musk yıllar önce Google’ın kurucu ortağı Larry Page ile arasının açılmasının, Page’in yapay zeka güvenliği konusundaki kayıtsız tavrı yüzünden olduğunu anlattı; Musk, Page’in “dijital süperzekayı, temelde dijital bir tanrıyı, mümkün olan en kısa sürede” istediğini ve riskleri ciddiye almadığını iddia ediyor theguardian.com. Eğer doğruysa, bu zihniyet – önce ulaş, sonra endişelen – hem kurumsal hem de ulusal stratejilerde daha geniş bir duyguyu yansıtıyor olabilir. Kesinlikle, AGI yarışı genellikle uzay yarışı veya nükleer yarışa benzetilir, ancak burada bitiş çizgisi belirsizdir ve rakipler arasında özel şirketler de vardır. Sonuç olarak, yapay zeka atılımları hem ticari hem de stratejik olarak son derece hassas kabul edilen bir ortam oluşmuştur; bilgiler, başındakiler aksi yönde karar verene kadar sıkı şekilde kontrol edilir.Gizli Yapay Zeka Geliştirmenin Etik ve Toplumsal Sonuçları
Gelişmiş yapay zeka çalışmalarını çevreleyen gizlilik, derin etik, düzenleyici ve toplumsal soruları gündeme getiriyor. Şirketler veya hükümetler güçlü yapay zeka modellerini gizlice geliştiriyorsa, toplum genel olarak bu sistemlerin ne yaptığını nasıl güvenebilir veya nasıl doğrulayabilir? Dışarıdan bakanların incelemesine izin verilmezse, bu sistemlerin güvenli, tarafsız ve sorumlu şekilde kullanıldığından nasıl emin olabiliriz? Bu endişeler, laboratuvarlar şeffaflıktan daha da uzaklaşırken bile, şeffaflık – ya da en azından denetim – çağrısının artmasına yol açıyor.
En acil sorunlardan biri hesap verebilirlik. Yapay zeka sistemleri toplum üzerinde olumlu ve olumsuz geniş kapsamlı etkilere sahip olabilir. Bir model gizli tutulduğunda, dış uzmanlar sorunları değerlendiremez. Örneğin, araştırmacılar bir modelin eğitim verileri veya yöntemleri hakkında şeffaflık olmadan, önyargılarını veya potansiyel zararlarını değerlendiremeyeceğimizi uyarıyor vice.com. “Bir modelin nerede kullanılmaması gerektiğine dair bilinçli kararlar verebilmek için, içine hangi önyargıların yerleştiğini bilmemiz gerekir. OpenAI’nin tercihleri bunu imkansız kılıyor,” diyor GPT-4’ün gizliliği hakkında bir yapay zeka tasarım başkan yardımcısı olan Ben Schmidt vice.com. Açıklanmayan modeller bilinmeyen kusurlar taşıyabilir – belki aşırılıkçı içerik üretme eğilimi ya da yüksek riskli senaryolarda hatalı akıl yürütme gibi – ve bunlar ancak dağıtımdan sonra, muhtemelen ciddi sonuçlarla ortaya çıkabilir. Toplum için bu, güçlü yeni ilaçların gizlice geliştirilmesine benzer: Yan etkileri ancak iş işten geçtikten sonra öğrenebiliriz.
Yanlış bilgi ve manipülasyon da endişe kaynağıdır. Eğer bir devlet kurumu veya şirket gizlice son derece ikna edici bir dil modeli geliştirirse, bu model sosyal medyayı son derece özelleştirilmiş propaganda veya deepfake içeriklerle doldurmak için kullanılabilir. Demokratik toplumlar, yapay zekanın kamuoyunu veya seçim sonuçlarını etkilemek için kullanılmasından endişe duymaktadır. Ünlü yapay zeka öncüsü Geoffrey Hinton, Google’dan ayrıldıktan sonra bunu temel bir korku olarak gösterdi – yapay zekanın “otoriter liderlerin seçmenlerini benzeri görülmemiş bir etkinlikle manipüle etmesine olanak tanıyabileceği” konusunda uyarıda bulundu theguardian.com. Eğer bu tür yetenekler kapalı kapılar ardında geliştirilirse (örneğin, bir devlet bir yapay zekayı propaganda teknikleriyle eğitebilir ve bunu itiraf etmeyebilir), sivil toplumun savunma oluşturması çok zorlaşır.
Ayrıca, genellikle varsayımsal terimlerle tartışılan bir kabus senaryosu da var: ortaya çıkan bir süper zekâ insanlığı tehdit edebilir. Hâlâ spekülasyon alanında olsa da, saygın birçok düşünür bunu hazırlık gerektirecek kadar ciddi bir olasılık olarak görüyor. Bir kuruluş gizlice AGI’ye (Genel Yapay Zekâ) yönelik büyük bir adım atarsa, güvenlik sonuçlarını yeterince dikkate alır mıydı? OpenAI’ın kendi araştırmacılarının, potansiyel tehlikeler konusunda yönetim kurulunu uyaran bir mektup yazmak zorunda hissetmesi (Q olayı sırasında olduğu gibi), şirket içinde bile yapay zeka bilim insanlarının denetimsiz çok hızlı gitmekten endişe ettiğini gösteriyor reuters.com. O dönemde OpenAI yönetim kurulu, “sonuçlarını anlamadan [yapay zeka] gelişmelerini ticarileştirmekten” korkuyordu; bu, Altman’ın görevden alınmasıyla ilgili kaynaklara göre böyleydi reuters.com. Bu, yapısal bir sorunu vurguluyor: Teknolojideki teşvikler genellikle önce dağıt, sonra soru sor şeklindedir. “Hızlı hareket et ve bir şeyleri boz” anlayışı, sosyal medya uygulamaları çağında tolere edilebilirken, aşırı durumda “insanlığın yok edilmesinin kendi çıkarına olduğuna karar verebilecek” kadar güçlü yapay zekalar için çok daha tehlikeli hale gelir; bazı bilgisayar bilimciler uyarıcı hikayelerde bunu teorileştirmiştir reuters.com. Geliştirme ne kadar gizli olursa, dış denetim o kadar az olur ve rekabet baskısı yüksekse içsel ihtiyat da o kadar azalabilir.
Şeffaflık eksikliği, aynı zamanda kamunun yapay zekâya olan güvenini de zedeler. İnsanlar, hayatlarını etkileyen kararları (kredi onaylarından tıbbi teşhislere kadar) yapay zekânın vermesinden zaten rahatsız. Bu rahatsızlık, yapay zekâ sistemleri temelde nasıl çalıştıklarını açıklamayan kuruluşlar tarafından inşa edilen kara kutular olduğunda daha da artıyor. Birkaç kuruluşun, kamuoyunun anlamadığı veya söz hakkı olmadığı son derece güçlü yapay zekâya sahip olduğu bir senaryo riskiyle karşı karşıyayız. Future of Life Institute’un (teknoloji dünyasından birçok kişinin imzaladığı) açık mektubunda belirtildiği gibi, “Böyle kararlar seçilmemiş teknoloji liderlerine devredilmemeli.” reuters.com. Burada demokratik bir ilke söz konusu: Eğer AGI gerçekten toplumu yeniden şekillendirebilecek dönüştürücü bir teknoloji olacaksa, onun yaratılması gizli çalışan özel aktörlere mi bırakılmalı? Mektup açıkça şu soruyu sordu: “Bilgi kanallarımızı propaganda ve yalanlarla makinelerin doldurmasına izin mi vermeliyiz? … Sonunda bizi sayıca aşacak, zekâca geçecek, modası geçmiş kılacak ve yerimizi alacak insan olmayan zihinler mi geliştirmeliyiz?” – ve bu soruların birkaç CEO’ya bırakılmayacak kadar önemli olduğunu yanıtladı reuters.com. Bu, yapay zekâ geliştirmesinin kolektif denetim gerektirdiği yönündeki artan bir duyguyu yansıtıyor. Hatta bazıları, potansiyel riskler göz önüne alındığında, ileri düzey yapay zekâ araştırmalarının nükleer materyallerin yönetimine benzer şekilde lisans veya izleme gerektirebileceğini öne sürdü.
Bir diğer etik boyut ise adil rekabet ve eşitlik. En güçlü yapay zekâ sistemleri tek elde toplanırsa, muazzam güç dengesizlikleri oluşabilir. Sadece bir şirketin veya bir ülkenin, üretkenliği ya da bilimsel çıktıyı büyük ölçüde artırabilecek bir AGI geliştirdiğini hayal edin. O varlık, ekonomik, askeri vb. alanlarda orantısız bir avantaja sahip olurdu. Toplum tehlikeli şekilde eşitsizleşebilir, yapay zekâya sahip olanlar ve olmayanlar olarak ikiye ayrılabilir. Daha küçük ölçekte, mevcut LLM’lerin çoğunlukla tescilli olması bile gücü büyük teknoloji şirketlerine (OpenAI, Google vb.) kaydırıyor ve açık topluluklar ya da küçük oyuncular aleyhine işliyor. Bu nedenle Meta’nın sızıntısı ve açık kaynak çabaları bazıları tarafından alkışlandı – çünkü bu “yapay zekâyı demokratikleştirdi,” araçları birçok kişinin eline verdi. Ancak demokratikleşmeyle birlikte kötüye kullanım riski de gelir (her güçlü teknolojide olduğu gibi). Esasen tartıştığımız şey şu: süper yapay zekânın gizlice birkaç kişinin kontrolünde olması mı, yoksa herkesin, kötü niyetli aktörler de dahil, güçlü yapay zekâya erişimi olması mı daha tehlikeli? Kolay bir cevabı yok. Belki de her iki yolun da kendine özgü riskleri var.
Gizlilik, düzenlemeyi de zorlaştırıyor. Hükümetler yapay zekâ düzenlemeleri hazırlamak için (AB’nin Yapay Zekâ Yasası, ABD’de yapay zekâ denetim kurulları tartışmaları vb.) çabalıyor, ancak düzenleyiciler neyin geliştirildiğini bile bilmiyorsa, hep geriden geliyorlar. Örneğin, bir düzenleyici, varlığı açıklanmamış bir yapay zekâ sisteminin güvenlik denetimini nasıl zorunlu kılabilir? Açıklansa bile, ayrıntı olmadan bir denetim etkisizdir. Bazı öneriler, en azından yetkililerin genel tabloyu görebilmesi için belirli bilgilerin (model boyutu, eğitim veri kaynakları, test sonuçları gibi) gizli olarak devlet kurumlarına bildirilmesini öngörüyor. Şirketler şu ana kadar isteksiz davrandı, çoğunlukla gönüllü uyum teklif etti. 2023 ortasında Beyaz Saray, önde gelen yedi yapay zekâ firmasını modellerinin üçüncü taraf güvenlik testine tabi tutulacağına ve risklerle ilgili bilgileri hükümetle paylaşacaklarına dair söz vermeye ikna etti. Bu bir başlangıçtı, ancak bu taahhütler bağlayıcı değildi ve biraz belirsizdi.
Ayrıca, geliştirme izole bir şekilde yürütüldüğünde yapay zekâ uyumu ve güvenliğiyle ilgili etik sorularla da karşı karşıya kalıyoruz. Eğer her laboratuvar uyum sorununu (yapay zekânın insan değerlerine uygun davranmasını sağlamak) kendi içinde çözmeye çalışıyorsa, iş birliğinden veya kamusal katılımdan gelebilecek içgörüleri kaçırabilirler. Etikçiler ve filozoflar da dahil olmak üzere daha geniş araştırma topluluğu, AGI gelişimini daha güvenli bir yöne yönlendirmeye yardımcı olabilir – ama ancak neler olup bittiğini bilirlerse. Burada muhbirler rol oynayabilir: Daha önce bazı OpenAI araştırmacılarının, güvenlik endişeleri nedeniyle Q hakkında ihbarda bulunduklarını görmüştük reuters.com. Benzer şekilde, Google’ın etik yapay zekâ ekibi (2020’de önyargı endişelerini dile getirdikten sonra kovulan Timnit Gebru gibi isimler dahil) genellikle gizlilik ve yapay zekâ uygulamalarının hızıyla çatıştı. Eğer etik kaygılar kurum içinde bastırılırsa (kâr veya rekabet motivasyonları nedeniyle), bunlar kamuoyuna ancak sızıntılar yoluyla veya olaylar yaşandıktan sonra ulaşabilir. Bu sağlam bir yönetişim modeli değildir.
Son olarak, toplumun AGI veya AGI’ya yakın sistemlere hazır oluşunu düşünün. Geliştirme büyük ölçüde gizli yürütülürse, toplumun kademeli olarak uyum sağlama şansı olmaz. Bu, sistem için bir şok olabilir – bir şirket aniden insan işlerinin çoğunu güvenilir şekilde yapabilen bir yapay zekâ duyurabilir ya da bir hükümet sessizce stratejik kararlar için bir AGI kullanmaya başlayabilir. Sosyal, ekonomik ve psikolojik sarsıntı çok büyük olabilir. Bazı uzmanlar, insanlığın normları ayarlayabilmesi, eğitimi güncelleyebilmesi ve önceden politika oluşturabilmesi için daha açık ve aşamalı bir yaklaşımı savunuyor. Gizlilik, bu hazırlık dönemine karşı işler.
Şeffaflık, Denetim ve Tedbirli İlerleme Çağrıları
Endişeler artarken, hem yapay zeka dünyasından hem de dışından sesler, ileri düzey yapay zeka geliştirmede daha fazla şeffaflık ve denetim çağrısında bulunuyor. Bu çağrılardan biri, daha önce bahsedilen Future of Life Institute’un Mart 2023’teki açık mektubuydu. Özellikle Elon Musk, Apple’ın kurucu ortağı Steve Wozniak ve çok sayıda yapay zeka uzmanı tarafından imzalanan bu mektup, GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitiminin 6 ay durdurulmasını talep etti reuters.com. Mektubun imzacıları arasında sektör ve akademiden isimler vardı – hatta DeepMind ve diğer önde gelen laboratuvarlardan bazı araştırmacılar da adlarını ekledi reuters.com. Temel mesaj şuydu: koruyucu önlemleri devreye almak için zamana ihtiyacımız var. Mektupta, yapay zeka laboratuvarlarının ve bağımsız uzmanların bu arayı, ileri düzey yapay zeka için ortak güvenlik protokolleri ve yönetişim stratejileri oluşturmak için kullanması gerektiği savunuldu reuters.com. Mektuptaki çarpıcı ifadelerden biri şuydu: “Sonunda bizi sayıca aşabilecek, zekâca geçebilecek, modası geçmiş kılabilecek ve yerimizi alabilecek insan dışı zihinler geliştirmeli miyiz? … böyle kararlar seçilmemiş teknoloji liderlerine bırakılmamalı.” reuters.com. Bu, demokratik denetim argümanını özetliyor – esasen yapay zekanın gidişatının yalnızca birkaç şirketin hırslarına değil, toplumun ortak onayına tabi olmasını talep ediyor. Önerilen moratoryum gerçekleşmemiş olsa da (hiçbir laboratuvar kamuya açık şekilde durmadı; hatta OpenAI kısa süre sonra GPT-4.5 tabanlı güncellemeler yayınladı), mektup küresel çapta bir tartışma başlatmayı başardı. Muhtemelen hükümetleri düzenleyici adımlar atmaya daha acil şekilde yönlendirdi.
Düzenleyiciler gerçekten de çabalarını artırıyor. Avrupa Birliği, Yapay Zekâ Yasası‘nı tasarlamanın son aşamalarında ve bu yasa, yapay zekâ sistemlerine risk seviyelerine göre gereklilikler getirecek. Yüksek riskli sistemler için (örneğin polislikte kullanılanlar veya muhtemelen kritik altyapıyı kontrol eden bir AGI gibi), Yapay Zekâ Yasası bu sistemlerin nasıl çalıştığına dair şeffaflık, insan denetimi ve hatta dış denetçiler tarafından yapılacak olası değerlendirmeler zorunlu kılacak. Bu kurallar kapsamına en büyük modellerin de dahil edilmesi tartışılıyor; bu da şirketleri bilgi açıklamaya veya denetimlere izin vermeye zorlayabilir. ABD’de henüz kapsamlı bir mevzuat yok, ancak Kongre’de çeşitli öneriler dolaşıyor ve Biden Yönetimi güvenlik konusunda kapalı kapılar ardında yapay zekâ şirketi CEO’larını bir araya getiriyor. 2023’teki bu tür bir forumda, Senato Çoğunluk Lideri teknoloji CEO’larını (Sam Altman, Mark Zuckerberg ve Sundar Pichai dahil) Washington’a bir Yapay Zekâ İçgörü Forumu için getirdi reuters.com ve bu, yapay zekânın denetimsiz kalmaması konusunda iki partinin de ilgisini vurguladı. Sam Altman ise açıkça düzenlemeleri desteklediğini belirtti, hatta güçlü yapay zekâlar için bir lisanslama rejimi fikrini öne sürdü (ancak onun hayal ettiği şey hafif dokunuşlu, özdenetimli bir yapı olabilirken, eleştirmenler bunun aynı zamanda OpenAI’nin hakimiyetini pekiştirebileceği ve küçük oyuncular için engeli yükseltebileceği konusunda uyarıyor).
Devletin ötesinde, yapay zekâ araştırma topluluğu da sorumlu açıklama konusunda normlar oluşturmak için çabalıyor. “Yapay zekâ güvenliği yayın normları” şeklinde yeni bir fikir ortaya çıkıyor; burada bazı bulguların (örneğin bir modeli çok daha yetenekli kılmanın yolları gibi) kötüye kullanımı önlemek için dikkatlice veya hemen açık kaynak yapılmadan paylaşılması öngörülüyor. Bazı araştırmacılar “bilgi tehlikesi” yönetimi uyguluyor; burada tehlikeli yeteneklerin tüm ayrıntılarını yayınlamıyorlar (örneğin biri büyük dil modellerinde bilinen tüm güvenlik filtrelerini ölçekli olarak aşmanın yolunu bulursa, bunu Twitter’da değil geliştiricilere özel olarak bildiriyor olabilir). Ancak bilgi tehlikelerini yönetmek ve bunun daha fazla gizlilik yaratmamasını sağlamak zordur. Bir öneri, bir uluslararası AGI denetleme veya izleme ajansı kurulması oldu. Örneğin, ünlü yapay zekâ bilimcisi Yoshua Bengio, Uluslararası Atom Enerjisi Ajansı’na (IAEA) benzer, ancak yapay zekâ için bir uluslararası kuruluş fikrini ortaya attı – bu kuruluş, denetleyip izleyebilecek ve sınır ötesi ultra-ileri yapay zekâ projelerinde kimsenin sorumsuzca risk almadığından emin olacaktı. Bu, ülkeler arasında büyük bir iş birliği ve güven gerektirir ki bu kolay değil, ancak ilk adımlar atıldı: G7, küresel olarak yapay zekâ yönetişimini tartışmak için Hiroşima Yapay Zekâ Süreci adlı bir girişim başlattı ve Birleşik Krallık, 2023 sonunda ülkeleri aşırı riskler konusunda ortak bir zeminde buluşturmayı amaçlayan küresel bir Yapay Zekâ Güvenliği Zirvesi düzenledi.
Sektör tarafında, bazı içeridenler bile daha yavaş, daha açık bir yaklaşımı savunuyor. Örneğin, Dario Amodei (Anthropic’in CEO’su) sıklıkla tedbiri ve kapsamlı testleri vurguluyor. Anthropic, “önce yapay zeka güvenliği” şirketi olarak bir itibar kazandı. Onlar “anayasal yapay zeka” kavramını tanıttılar – temelde yapay zekanın, onu hizalamak için bir dizi yazılı etik ilkeyi takip etmesi techcrunch.com. Bu tür çalışmalar, açıkça paylaşıldığında tüm alana yardımcı olabilir. Nitekim, Anthropic yöntemleriyle ilgili ayrıntıları yayımladı. Ancak ilginç bir şekilde, en gelişmiş modelleri ve kesin eğitim süreçleri gizli kalmaya devam ediyor. Yani, “güvenlik odaklı” firmalar içinde bile açıklık ile rekabet avantajı arasında bir gerilim var.Peki ya genel kamuoyu ve sivil toplum? O alanlardan da daha fazla katılım görüyoruz. STK’lar ve düşünce kuruluşları (örneğin Center for AI Safety, OpenAI’nin kendi kâr amacı gütmeyen yönetim kurulu, Partnership on AI vb.) daha güçlü yapay zekaya geçişin nasıl yönetileceği konusunda tartışmalar düzenliyor. Bazıları, erken bir AGI geliştirilirse ne olacağına dair senaryo planları bile yayımladı – eğitiminin ve dağıtımının etikçiler ve belki de devlet gözlemcilerinin de dahil olduğu multidisipliner ekiplerce denetlenmesini savunuyorlar.
Giderek daha fazla destek bulan somut bir fikir ise, gelişmiş modellerin “red-teaming” yöntemiyle dış uzmanlarca test edilmesi. Bu, yeni güçlü bir model piyasaya sürülmeden önce (veya hemen sonra), bağımsız ekiplerin modeli kusurlar, önyargılar, güvenlik açıkları vb. açısından titizlikle test etmesi ve bulguların kamuya ya da en azından düzenleyicilere açıklanması anlamına geliyor. OpenAI aslında GPT-4 ile bunun bir kısmını yaptı – dışarıdan akademisyenler ve danışmanlar test etti (ve sistem kartında bazı riskleri açıkladılar). Ancak GPT-4’ün varlığı piyasaya çıkana kadar gizli tutulduğundan, red team’ler gizlilik anlaşmasıyla çalıştı ve sonuçlar modelle aynı gün açıklandı; bu da önceden kamu denetimini sınırladı. İleriye dönük olarak, belirli bir yetenek eşiğinin üzerindeki her modelin, harici denetçiler tarafından kullanıma sunulmadan önce değerlendirilmesi bir norm haline gelebilir. Bu, şirketlerin modeli (gizlilik altında) güvenilir bir üçüncü tarafa açıklamasını gerektirir – gizli laboratuvarlar için büyük bir adım, ama belki de gerekli bir uzlaşma.
Birçok kişinin dile getirdiği etik zorunluluk, yapay zekanın tüm insanlığa fayda sağlaması, sadece ilk geliştirenin değil, gerektiği yönünde. Bu, eski OpenAI tüzüğünü (faydaların dağıtılması ve herhangi bir grubun yapay zeka üstünlüğünden kaçınılması hakkında konuşan) yansıtıyor. OpenAI kâr amacı güden bir yapıya geçtiğinde ve daha az şeffaf olduğunda, bazıları bu fedakar tutumdan vazgeçtiği için eleştirdi vice.com. Şimdi ise şirketleri kamu yararına hesap vermeye zorlama yönünde bir baskı var. Örneğin, Birleşik Krallık Rekabet ve Piyasalar Kurumu 2023’te yapay zeka temel model pazarını incelemeye başladı; temelde şu mesajı verdi: “Bu teknolojiyi birkaç şirketin tüketiciler veya rekabet aleyhine tekelleştirmediğinden emin olmak için izliyoruz.” Bu ekonomik bir bakış açısı, ancak güç yoğunlaşmasına dair etik kaygılarla da örtüşüyor.
Son olarak, herkesin risk seviyesi konusunda hemfikir olmadığını belirtmeliyiz. Bazı uzmanlar, AGI korkularının abartıldığını ve asıl meselenin gizlilik olmadığını düşünüyor – bunun yerine, daha acil sorunlar olan yapay zeka yanlılığı, iş kaybı veya mahremiyet gibi konulara odaklanıyorlar. Onlar da daha fazla şeffaflık istiyor, ancak bunun nedeni başıboş bir süper zekadan korkmaları değil; mevcut sistemlerin adil ve hesap verebilir olmasını sağlamak için. Her halükarda, şeffaflık (veya eksikliği) merkezi bir öneme sahip. Onsuz, bu sorunların hiçbirini – önyargıdan varoluşsal riske kadar– düzgün şekilde ele alamayız.
Sonuç olarak, dünya hassas bir denge arayışında. Yapay zekanın vaat ettiği yenilikleri arzuluyoruz – hastalıklara çareler, verimlilikte sıçramalar, yeni bilimsel keşifler. Ancak bu yenilikler, önlemler alınmadan geliştirilirse iki ucu keskin kılıç olabilir. OpenAI’nin son dönemdeki iç çalkantıları, personelin bir atılımdan dolayı endişelenmesi ve yönetim kurulunun müdahalesiyle ilgili yaşananlar, mucitlerin bile ne yarattıkları konusunda temkinli olduklarını gösteriyor reuters.com. Toplum genel olarak bu teknolojiyi anlamak ve yönlendirmek için geriden geliyor. Şeffaflık, başlı başına bir amaç değil; hesap verebilirlik, iş birliği ve bilinçli karar alma için bir araçtır. Bir yapay zeka yöneticisinin dediği gibi, “önce yap, sonra düzelt” yaklaşımı başka yüksek riskli sektörlerde kabul edilemezdi theguardian.com – yapay zeka için de kabul etmemeliyiz.
Önümüzdeki birkaç yıl muhtemelen daha fazla sızıntı ve ifşa, içeridekilerin etik ikilemlerle boğuşması, laboratuvarlar sınırları zorladıkça daha fazla AGI söylentisi ve umarız konuyu ele almak için daha yapıcı küresel diyalog görecek. AGI 5 yıl sonra mı yoksa 50 yıl sonra mı gelir bilinmez, ancak gelişiminin tamamen karanlıkta gerçekleşmemesini sağlamak, insanlık için bir nimet olmasını sağlamak açısından kritik olabilir.
Kaynaklar:
- Reuters – OpenAI araştırmacıları, CEO’nun görevden alınmasından önce yönetim kurulunu yapay zeka atılımı konusunda uyardı, kaynaklar söylüyor reuters.com
- Reuters – Elon Musk ve diğerleri, ‘toplum için riskleri’ gerekçe göstererek yapay zekada duraklama çağrısı yaptı reuters.com
- Vice – OpenAI’nin GPT-4’ü Kapalı Kaynak ve Gizlilikle Örtülü vice.com
- The Guardian – Google mühendisi, yapay zeka sohbet robotunun bilinç kazandığını söylemesinin ardından izne çıkarıldı theguardian.com
- The Guardian – ‘Yapay Zekanın Babası’ Geoffrey Hinton, Google’dan ayrıldı ve tehlikelere karşı uyardı… theguardian.com
- The Verge – Meta’nın güçlü yapay zeka dil modeli internete sızdı — şimdi ne olacak? theverge.com
- Reuters – Alibaba, DeepSeek’i geçtiğini iddia ettiği yapay zeka modelini piyasaya sürdü reuters.com
- Matthew Griffin (Bloomberg) – CIA, kendi ChatGPT versiyonunu geliştiriyor fanaticalfuturist.com
- TechCrunch – Anthropic’in OpenAI’ye rakip olmak için 5 milyar dolarlık, 4 yıllık planı techcrunch.com
- MacRumors – Apple GPT: Apple’ın Üretken Yapay Zeka Üzerindeki Çalışmaları Hakkında Bildiklerimiz macrumors.com