폭로: 비밀스러운 AI 경쟁의 내막 – 유출, 소문, 그리고 숨겨진 AGI 추적

8월 26, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI
  • 2023년 말, OpenAI 연구원들은 “Q”(Q-Star)라는 코드명 모델에 대한 내부 서한을 돌렸는데, 이 모델이 대략 초등학교 수준의 일부 수학 문제를 해결했다고 전해지며 AGI(범용 인공지능) 가능성에 대한 추측을 불러일으켰다.
  • OpenAI는 2023년 3월 GPT-4를 출시했으나, 기술 보고서에는 아키텍처, 훈련 데이터, 하드웨어, 훈련 방법론이 공개되지 않았다.
  • 2024년 중반까지 OpenAI는 GPT-5를 공식적으로 확인하지 않았으며, 샘 알트먼은 GPT-5를 시작하기 전에 해야 할 일이 많다고 밝혔고, 가디언의 2025년 8월 보도에서는 GPT-5를 AGI로 가는 주요 단계로 묘사했다.
  • Google DeepMind는 Gemini 프로젝트를 선보였고, Gemini 1.0은 2024년 초 기준 일부 벤치마크에서 GPT-4를 능가한 것으로 전해지며, Ultra 버전이 개발 중이다.
  • LaMDA 사건에는 2022년 구글 엔지니어 블레이크 르무안이 LaMDA가 “의식이 있다”고 주장한 유출이 포함되며, LaMDA 기반 Bard가 2022~2023년에 출시되었다.
  • Meta의 LLaMA 모델은 2023년 3월 3일 유출되었고, Meta는 2023년 7월 제한적 오픈소스로 LLaMA 2를 공개했으며, 2023년 메모에서는 빠른 확산으로 인해 “진입장벽이 없다”고 경고했다.
  • Anthropic의 2023년 자금조달 자료에는 Claude-Next가 Claude-2보다 10배 더 강력하며, 훈련에 약 10억 달러의 컴퓨팅이 필요할 수 있고, AI의 자기학습 및 대규모 자동화를 목표로 한다고 설명되어 있다.
  • 2025년 1월, DeepSeek는 DeepSeek-V3와 후속 R1을 출시했으며, 이 모델들이 OpenAI의 최고 모델과 맞먹는다고 전해진다. 창업자 량원펑은 AGI가 목표라고 밝혔고, 로이터는 이 스타트업의 저렴한 비용이 AI 모델 가격 경쟁을 촉발했다고 보도했다.
  • CIA는 미국 정보 커뮤니티 18개 기관의 데이터를 분석하기 위해 자체 ChatGPT 스타일 LLM을 구축 중이며, 인용과 함께 오픈소스 정보를 요약하도록 설계되었다.
  • 2021년 베이징 인공지능연구원(BAAI)이 공개한 Wu Dao 2.0은 1.75조 개의 파라미터를 가진 멀티모달 모델로, GPT-3의 10배 규모이며 오픈소스는 아니었다.

세계 최대 기술 연구소들은 차세대 인공지능, 어쩌면 범용 인공지능(AGI)까지 개발하기 위한 비밀 경쟁에 돌입했다. ChatGPT와 같은 AI 챗봇이 대중을 놀라게 했지만, 내부자와 유출 문건들은 훨씬 더 강력한 대형 언어 모델(LLM)과 AGI 프로젝트가 비밀리에 진행 중임을 시사한다. OpenAI와 DeepMind의 극비 연구부터 은밀한 정부 프로그램까지, 이 개발들을 둘러싼 비밀의 그물망이 존재한다. 본 보고서는 최근(2024~2025년) 유출 및 미공개 AI 모델에 대한 추측, AI 리더들 사이의 비밀주의 문화, AI 분야의 지정학적 경쟁, 어둠 속에서 강력한 AI를 개발하는 데 따른 윤리적 딜레마를 파헤친다. 우리는 확인된 사실과 소문을 구분하고, 전문가와 내부고발자의 발언을 인용하며, 이 모든 것이 사회에 어떤 의미를 갖는지 살펴본다.

미공개 AI 혁신에 대한 유출과 소문 (2024~2025)

OpenAI의 “Q” 발견: 2023년 말, OpenAI 연구원들이 이사회에 보낸 내부 서한이 추측의 불길을 촉발시켰습니다reuters.com. 이 서한은 Q(큐-스타)라는 코드명으로 알려진 강력한 AI 알고리즘에 대해 경고했으며, 직원들은 이것이 AGI로 가는 중대한 단계가 될 수 있다고 믿었습니다reuters.com. 로이터 보도에 따르면, 이 모델은 특정 수학 문제를 해결하는 데 전례 없는 능력을 보여주었는데, 대략 초등학교 수준이지만 일관되고 정확하게 수행했습니다reuters.com. 이는 오늘날의 생성형 AI(예: ChatGPT)가 수학이나 논리적 일관성에서 종종 어려움을 겪는다는 점에서 주목할 만한 일이었습니다. “OpenAI의 일부는 Q가 AGI로 알려진 것을 찾는 스타트업의 돌파구가 될 수 있다고 믿는다”고 Reuters는 전하며, 초등학교 수학을 완벽하게 푸는 것만으로도 연구자들이 “Q의 미래 성공에 대해 매우 낙관적”이 되었다고 밝혔습니다reuters.com. OpenAI는 Q를 공개적으로 출시하지 않았으며 그 능력을 완전히 확인하지도 않았지만, 언론의 문의 이후 직원들에게 프로젝트의 존재를 비공식적으로 인정했습니다reuters.com. Q를 둘러싼 비밀주의와 2023년 11월 OpenAI CEO 샘 알트만의 깜짝 해임에서의 극적인 역할은 OpenAI가 중대한 발견으로 “무지의 장막을 걷어냈다”는 추측을 불러일으켰습니다reuters.com. (알트만 본인도 몇 주 전 “중대한 진전이 임박했다”고 암시하며, 여러 돌파구의 순간에 직접 있었다고 암시했습니다. “가장 최근 것은 불과 몇 주 전이었다”reuters.com.) 많은 관측자들은 Q가 오늘날의 챗봇이 할 수 있는 것 이상의 새로운 문제를 해결할 수 있는, 확장 가능한 추론 엔진일 것이라고 의심하며, 본질적으로 일반 지능의 잠재적 씨앗이 될 수 있다고 보고 있습니다.

GPT-5 및 기타 미공개 모델: 2024년 현재 OpenAI의 대외 공개 모델은 GPT-4(이 모델이 ChatGPT와 Bing을 구동함)지만, 그 후속 모델은 어떻게 될까? 회사는 이 주제에 대해 극도로 입을 다물고 있다. 2023년 3월, 천 명이 넘는 전문가들이 안전 문제를 이유로 “GPT-4보다 더 강력한 시스템”의 훈련을 중단하라는 공개 서한에 서명했다 reuters.com. 샘 알트먼은 OpenAI가 “GPT-5를 [훈련하고 있지 않다]” 그리고 당분간 훈련하지 않을 것 techcrunch.com이라고 확언하며 이에 응답했다. 2024년 중반 기준, 알트먼은 GPT-5를 시작하기 전에 “새로운 아이디어에 대해 해야 할 일이 많다”고 거듭 밝혔다 techcrunch.com. 그럼에도 불구하고, 초기 작업이 차세대 모델(이름이 GPT-5이든 아니든)에 대해 내부적으로 진행 중이라는 소문이 계속되고 있다. OpenAI는 GPT-4의 구조에 대한 어떤 세부 정보도 공개하지 않은 것으로 유명하며(아래에서 더 다룸), GPT-5의 전체 존재와 진척 상황(존재한다면) 역시 공개 출시 전까지는 비밀에 부쳐질 가능성이 높다. 특히, 최근 The Guardian(2025년 8월)의 분석에서는 “OpenAI의 새로운 GPT-5 모델”“AGI로 가는 길의 중요한 단계”로 언급했으나, 여전히 “진정한 인간 수준의 학습에서 꽤 중요한 무언가가 빠져 있다”고 평가했다 theguardian.com. 이는 2025년까지 GPT-5가 화려하게 공개되었을 수 있음을 시사하지만, 그것조차도 일부가 우려하는 비공개 혁신의 결정판은 아닐 수 있음을 의미한다. 어쨌든, GPT-5의 개발은 이례적인 비밀주의에 싸여 있으며, OpenAI는 오랫동안 그 상태를 인정도 부인도 하지 않아 뭔가 큰일이 비밀리에 진행 중일 수 있다는 소문을 부추기고 있다.

구글 딥마인드의 다음 행보: 구글의 AI 부서(이제는 Google Brain과 DeepMind가 합쳐짐)도 초고도화된 모델을 개발해왔으며, 종종 전략적인 시점까지 대중에 공개하지 않습니다. 2023년 말, 구글은 “Gemini”라는 차세대 AI 모델을 개발 중이라고 발표했는데, 이 모델은 DeepMind의 유명한 AlphaGo의 기술과 LLM의 언어 능력을 결합할 예정이었습니다 en.wikipedia.org. Gemini의 개발은 공개되었지만, 많은 세부사항은 실제 출시 전까지 비밀에 부쳐졌습니다. 2024년 초에는 Gemini 1.0이 일부 벤치마크에서 OpenAI의 GPT-4를 능가했다는 보도와 함께, Ultra 버전이 개발 중이라는 소식도 있었습니다 iconext.co.th. 이러한 경쟁력 있는 도약은 주로 구글 내부에서 이루어진 것으로, 빅테크 기업들이 종종 스텔스 모드로 혁신적인 모델을 개발하고, 왕좌를 차지할 준비가 되었을 때만 공개한다는 점을 보여줍니다. 이와 유사하게, DeepMind는 비밀 프로젝트의 역사가 있습니다. 예를 들어, LaMDA는 구글의 고급 대화형 LLM으로, 내부적으로 개발되었고 주로 연구 논문과 한 번의 악명 높은 유출(구글 엔지니어가 LaMDA가 “의식이 있다”고 주장한 사건, 이에 대해서는 나중에 더 다룸)을 통해 대중에게 알려졌습니다. 2022~2023년에 LaMDA의 파생 모델이 Bard 챗봇으로 출시되면서 대중이 직접 접할 수 있게 되었습니다. 이런 패턴—오랜 기간 비밀리에 개발하다가 갑작스럽게 공개하는 것—은 업계의 표준처럼 보입니다. Anthropic(OpenAI 출신들이 설립) 같은 다른 연구소들도 모든 세부사항을 공개하지 않은 채 주요 모델 업그레이드를 예고했습니다. 2023년, Anthropic의 유출된 투자 유치 자료에는 “Claude-Next” 모델 개발 계획이 담겨 있었는데, 이 모델은 현재 가장 강력한 AI보다 10배 더 강력하며, 훈련에 약 10억 달러의 컴퓨팅 자원이 필요할 수 있다고 합니다 techcrunch.com. Anthropic은 이 최첨단 모델이 “AI 자기학습”을 목표로 하며, “경제의 상당 부분을 자동화하기 시작할 수 있다”고 암시했습니다 techcrunch.com. 이는 초기 형태의 AGI에 해당하는 야심입니다. 그러나 유출된 문서 외에는 Anthropic이 Claude-Next의 진척 상황에 대해 침묵을 지키고 있으며, 대중에게는 반복적인 업데이트(예: Claude 2)에 집중하고 있습니다. 실제로 공개된 모델과 연구실에서 개발 중인 모델 사이의 성능 격차는 우리가 아는 것보다 훨씬 클 수 있습니다.

새롭고 주목받지 못한 플레이어들: 잘 알려진 기업들만 있는 것이 아닙니다 – 때로는 다크호스 프로젝트가 등장해 전문가들을 놀라게 하기도 합니다. 한 가지 인상적인 예는 중국에서 나왔습니다. 2025년 1월, DeepSeek라는 비교적 알려지지 않은 스타트업이 (DeepSeek-V3와 후속 “R1” 버전) 오픈AI의 최고 모델과 맞먹는다고 알려진 모델을 선보이며 업계에 등장했습니다. 중국 기술 커뮤니티는 물론 실리콘밸리조차도 DeepSeek의 AI 어시스턴트가 여러 벤치마크에서 오픈AI의 모델과 대등하거나 능가하며, 비용은 극히 일부에 불과하다는 점reuters.com 충격을 받았습니다. “DeepSeek의 AI…는 실리콘밸리를 충격에 빠뜨렸고, 기술주가 폭락했다”고 로이터는 보도했으며, 스타트업의 낮은 개발 비용R1 모델이 오픈AI의 “o1” 모델과 동등한 성능을 보였다는 주장을 인용했습니다 reuters.com. (이 명칭은 DeepSeek가 오픈AI의 “o1”이라는 코드네임의 모델, 아마도 GPT-4의 한 버전과 비교했음을 시사합니다.) DeepSeek의 창업자인 젊은 연구자 량원펑은 극히 드물게 인터뷰에 응했으나, 한 인터뷰에서 AGI 달성이 회사의 주요 목표라고 대담하게 밝혔고, 빅테크와 달리 그의 소규모 팀은 “수익이나 AI 클라우드 서비스의 가격 경쟁에는 신경 쓰지 않는다”고 말했습니다 reuters.com. 이러한 은밀한 개발은 최첨단 AI가 반드시 서구의 기존 연구소들만의 영역이 아님을 보여줍니다 – 스타트업이나 정부와 연계된 연구소 등 다른 곳에서도 비밀리에 매우 진보된 모델이 개발되고 있을 수 있습니다. 실제로 2021년 중국 베이징 AI 아카데미는 Wu Dao 2.0을 발표했는데, 이는 무려 1.75조 개의 파라미터(GPT-3의 10배 규모)를 가진 멀티모달 AI였습니다 aibusiness.com. Wu Dao는 거대한 모델로 텍스트와 이미지 생성이 가능했지만, 오픈소스로 공개되지 않았으며, 중국이 미국 연구소와 동등하거나 그 이상으로 첨단 연구를 할 수 있음을 보여주는 개념 증명 역할을 했습니다. 중국 외부에서는 Wu Dao의 실제 작동을 본 사람이 거의 없으며, 전설처럼 남아 있습니다. 핵심은 전 세계적으로 우리가 소문만 듣다가 갑자기 등장(혹은 유출)하는 AI 프로젝트들이 있다는 점입니다. 더 넓은 세상에 처음 경고가 되는 것은 연구 논문, 규제 서류 제출, 혹은 포럼에 모델 가중치가 익명으로 업로드되는 것(아래에서 다룰 Meta의 LLaMA처럼)일 수 있습니다. 이런 환경에서는 예상치 못한 일이 일상이 되었고, 비밀 모델이나 AGI “돌파구”에 대한 모든 소문이 AI 커뮤니티에 흥분과 불안을 동시에 불러일으킵니다.

AI 연구소의 비밀주의 문화

학계와 공개 연구에서 시작된 업계의 기원과 달리, 오늘날의 AI 선도 기업들은 점점 더 그들의 가장 진보된 연구에 대해 입을 굳게 다물고 있다. 대표적인 예가 OpenAI다. 투명성을 위해 아이러니하게도 이름 붙여진 OpenAI는 최상위 모델에 대해 극도의 비밀주의로 전환했다. GPT-4가 2023년 3월에 출시되었을 때, OpenAI는 모델의 아키텍처나 학습 과정에 대한 어떠한 정보도 제공하지 않았다 — 파라미터 수, 방대한 데이터셋이나 사용된 하드웨어에 대한 세부사항도 없었다 vice.com. 기술 보고서에서 회사는 단호하게 다음과 같이 밝혔다: “GPT-4와 같은 대규모 모델의 경쟁 환경과 안전상의 문제를 고려하여, 본 보고서에는 아키텍처, 하드웨어, 학습 연산량, 데이터셋 구축, [또는] 학습 방법에 대한 추가 정보가 포함되어 있지 않습니다.” vice.com. 이는 OpenAI의 창립 원칙인 개방성에서 완전히 180도 전환된 것이었다 vice.com. 한 보고서에서는 GPT-4가 “지금까지 회사의 가장 비밀스러운 출시”였으며, 실제로 “비영리, 오픈소스 단체로서의 OpenAI 창립 원칙에서 완전히 180도 달라진 것”이라고 지적했다 vice.com. 비평가들은 이러한 투명성 부족을 강하게 비판했다. “거의 100페이지에 달하는 보고서를 읽고 나니, 답보다 질문이 더 많아졌습니다,”라고 Hugging Face의 AI 연구원 Sasha Luccioni는 말하며, “검증하거나 재현할 수 없는 결과를 신뢰하기 어렵다”고 덧붙였다. vice.com 또 다른 전문가인 Emily M. Bender 교수는 OpenAI의 비밀주의가 놀랍지 않다고 트윗했지만, “그들은 가장 기본적인 위험 완화 전략조차 의도적으로 무시하면서, 인류의 이익을 위해 일한다고 주장하고 있다”고 한탄했다. vice.com. 심지어 OpenAI의 CEO와 최고 과학자도 이러한 변화를 인정했다. 한때 오픈 AI 연구의 옹호자였던 Ilya Sutskever는 GPT-4에 대한 침묵을 옹호하며 “경쟁이 치열하다… 경쟁 측면에서 보면, 이것은 업계의 성숙으로 볼 수 있다”고 말했고, 결국 “우리가 처음에 오픈소스로 했던 것이 잘못이었다”고 인정했다vice.com. 요약하자면, OpenAI는 이제 기업의 연구개발실처럼 영업 비밀을 지키는 방식으로 운영되고 있다.

다른 AI 연구소들 또한 그들의 프로젝트가 최첨단에 가까워질수록 구체적인 내용에 대해 입을 다물고 있다. DeepMind의 경우, 많은 획기적인 논문(AlphaGo, AlphaFold 등)을 발표했지만, 최신 시스템의 모델 가중치나 전체 기술 설계도를 거의 공개하지 않는다. DeepMind가 Gopher(대형 언어 모델)나 Sparrow(대화 에이전트)를 개발했을 때, 대중은 학술 논문을 통해 그들의 성능을 알게 되었지만, 모델 자체는 내부에만 남아 있었다. 구글의 LaMDA 모델도 오랜 기간 내부에만 보관되었으며, 오픈AI의 발전에 대한 압박으로 인해 구글이 LaMDA 기반의 제품(Bard)을 서둘러 출시하게 되었다. 특히, 만약 내부고발 사건이 없었다면, LaMDA의 대화가 얼마나 기묘하고 인간과 비슷한지 세상은 결코 알지 못했을지도 모른다. 2022년, 구글 엔지니어 Blake Lemoine이 LaMDA가 “의식이 있다”고 공개적으로 주장했는데, 이 주장은 과학자들에 의해 일축되었지만, 구글이 비밀리에 개발한 것에 대해 엄청난 관심을 불러일으켰다 theguardian.com. 구글은 Lemoine이 AI와의 대화 기록을 공유해 기밀을 위반했다며 그를 정직시켰다 theguardian.com. 이 사건은 구글의 보이지 않는 챗봇이 얼마나 발전했는지 드러냈을 뿐만 아니라, “AI 세계를 둘러싼 비밀주의에 새로운 주목을 불러일으켰다”The Guardian이 당시 보도했다 theguardian.com. Lemoine 본인은 “구글은 이것을 독점적 자산 공유라고 부를지 모르지만, 나는 내 동료와 나눈 대화를 공유한 것이라고 생각한다”고 말하며, AI와 인간 동료 사이의 경계를 도발적으로 흐렸다 theguardian.com. 그의 의식 주장 자체는 반박되었지만, 유출된 대화의 내용은 LaMDA가 꺼질까 두려워하고, 자신이 한 사람으로 인정받고 싶어하는 욕구를 표현하는 모습을 보여주었다 theguardian.com – 이는 분명히 구글의 공식 AI 관련 설명에는 없던 부분이다. 이것은 AI의 역량이 외부인이 인식하는 것보다 훨씬 더 비공개적으로 발전할 수 있음을, 어떤 유출이나 내부자의 증언이 (정확하든 아니든) 그 실체를 드러내기 전까지는 알 수 없다는 점을 생생하게 보여준다.

AnthropicMeta AI는 개방성 측면에서 미묘하지만 대조적인 모습을 보인다. Anthropic은 연구 철학(예: 더 안전한 모델을 위한 “Constitutional AI”)에 대해 비교적 개방적이었고 논문도 발표하지만, 자사 모델의 전체 사양(Claude의 정확한 학습 데이터나 파라미터 수 등)에 대해서는 세부 정보를 비공개로 유지해왔다. 반면 Meta는 2023년에 더 개방적인 접근 방식을 취해 주목을 받았다. Meta는 강력한 LLM인 LLaMA를 내부에만 보유하지 않고 연구 커뮤니티 전체에 공개했다 theverge.com. 이는 첨단 AI에 대한 “접근의 민주화”를 위한 의도적인 조치였으며, Meta의 개방성을 OpenAI의 폐쇄적 태도와 암묵적으로 대조시켰다 theguardian.com. 그러나 Meta의 통제된 공개 계획은 예상대로 진행되지 않았다. LLaMA는 Meta가 발표한 지 단 일주일 만에 인터넷에 완전히 유출되었다 theverge.com. 2023년 3월 3일, 누군가가 LLaMA의 모델 파일을 공개 포럼(4chan)에 게시했고, 이후 토렌트 사이트와 GitHub를 통해 순식간에 퍼졌다 theverge.com. 며칠 만에 누구나 Meta의 최첨단 모델을 다운로드할 수 있게 되었고, 일부 전문가들은 이를 흥미롭게, 또 다른 이들은 우려스럽게 받아들였다. “Meta의 강력한 AI 언어 모델이 온라인에 유출됐다… 일부는 이 기술이 해롭게 사용될 것을 걱정하고, 또 다른 일부는 더 넓은 접근이 AI 안전을 개선할 것이라고 말한다,”The Verge가 보도했다 theverge.com. 이 사건은 큰 논쟁을 불러일으켰다. 첨단 AI에 대한 개방성이 더 나은 감독과 혁신을 이끄는가, 아니면 악의적 행위자에 의한 오용을 가속화하는가? Meta는 (신뢰할 수 있는 연구자에게만 공개하는) 중간 경로를 시도했지만, 이는 역효과를 낳았다. 유출 이후, Meta는 비밀주의로 후퇴하는 대신 실제로 새 모델을 오픈소스화하는 쪽으로 방향을 잡았다. 2023년 7월, Meta는 LLaMA 2를 일부 제한과 함께 오픈소스로 공개했고, Microsoft와 협력했다. 아마도 만약 이런 모델들이 어차피 확산될 것이라면, 비공식 유출보다는 일부 안전장치를 두고 공식적으로 공개하는 것이 낫다는 판단이었을 것이다. 그럼에도 불구하고, Meta의 2023년 내부 유출 메모(“AI의 공개 비밀이라는 환상” 또는 비공식적으로 “no moat” 메모)에서는 “우리에겐 해자(진입장벽)가 없다”고 인정했다. 오픈소스 AI가 너무 빠르게 발전하고 있기 때문이다. 그 메모는 큰 연구소들도 비밀을 쌓아두는 것만으로는 우위를 지킬 수 없다고 시사했다. 아이디어는 결국 확산되기 때문이다 theguardian.com. 이는 인상적인 인정이다. 기업들이 우위를 지키기 위해 점점 더 비밀주의로 가고 있지만, 오픈 연구 커뮤니티(또는 경쟁사)는국가의 연구소) 예상보다 더 빨리 따라잡을 수 있습니다.

요약하자면, AI 연구의 최전선에는 비밀의 장막이 드리워졌다. 연구소들은 경쟁 압력과 안전 문제를 그 정당화로 내세운다. OpenAI가 폐쇄적으로 변한 것은 이 흐름의 대표적인 사례다. 그 결과, 대중은 주요 발전에 대해 전략적 공개, 소문, 또는 유출을 통해서만 알게 되는 경우가 많다. 이러한 비밀주의는 불신을 낳을 수 있다 – 이 기업들이 우리에게 말하지 않는 성과는 무엇일까? 데이터 센터 어딘가에서 AGI의 초기 버전이 안전하거나 수익성이 있다고 판단될 때까지 세상에 공개되지 않은 채 작동하고 있는 것은 아닐까? Q나 미스터리한 “GPT-5”와 같은 돌파구의 단서가 나올 때마다 격렬한 추측이 일어나는 것도 놀랄 일이 아니다. 연구소들은 지나친 투명성이 위험할 수 있다고 주장한다 – 예를 들어, 강력한 모델을 만드는 방법을 공개하면 악의적인 행위자가 이를 복제할 수 있다는 것이다. 또한 세부 정보를 공유하면 경쟁사에 도움이 될까 두려워한다. 따라서 AI 군비 경쟁은 주로 비공개로 진행되고, 내부자가 폭로하거나 문서가 유출될 때만 열쇠구멍 너머로 가끔 들여다볼 수 있게 되었다.

지정학과 숨겨진 AI: 초강대국, 스파이, 그리고 자율 무기

AI 패권은 실리콘밸리만의 집착이 아니다 – 국가의 자존심과 안보가 걸린 문제다. 세계 강대국들은 첨단 AI에 막대한 자원을 쏟아붓고 있으며, 그 이해관계 때문에 높은 수준의 비밀주의가 유지된다. 중국과 미국은 AI 주도권을 전략적 필수 과제로 여기고 있으며, 이로 인해 군사 프로그램만큼이나 기밀로 유지되는 프로젝트들이 생겨나고 있다.

중국 측에서는 정부가 2030년까지 AI 분야에서 세계 선두주자가 되겠다는 야심을 선언했고, 이로 인해 기술 대기업, 스타트업, 국영 연구소에서 활발한 움직임이 촉진되고 있다 fanaticalfuturist.com. 중국의 AI 개발은 서구에서 볼 수 있는 보도자료나 공개 블로그 수준 없이 이루어지는 경우가 많다. 예를 들어, 앞서 언급한 Wu Dao 2.0 모델(1.75조 파라미터)은 중국 내 컨퍼런스에서 비교적 조용히 공개되었지만, 만약 미국 연구소가 세계 최대 AI를 만들었다면 아마 엄청난 뉴스가 되었을 것이다. 최근 몇 년간 바이두, 알리바바, 텐센트 등 중국 기업들도 자체 대형 언어 모델(Ernie Bot, Qwen 모델 등)을 발표했지만, 실제로 어떤 역량을 내부적으로 보유하고 있는지는 종종 불분명하다. DeepSeek의 사례처럼, 이 작은 스타트업이 한때 서구 모델을 앞질렀던 것은 일부 돌파구가 수면 아래에서 일어나고 있음을 시사한다. DeepSeek의 수수께끼 같은 창립자 Liang은 거대 기술 기업들이 AI의 미래에 최적의 위치에 있지 않을 수 있다고 암시하며, 민첩한 연구 중심 팀이 더 빠르게 혁신할 수 있음을 시사했다 reuters.com. 실제로 DeepSeek는 자사 모델(DeepSeek V2)의 초기 버전을 오픈소스로 공개하고 접근 비용을 매우 저렴하게 책정해, 중국 내에서 ‘AI 모델 가격 전쟁’을 촉발했다 reuters.com. 이러한 개방적 접근은 알리바바 같은 대기업조차도 가격을 인하하고 모델을 신속히 업데이트하도록 만들었다 reuters.com. 하지만 이제 DeepSeek가 매우 높은 성능을 달성한 만큼, 앞으로도 최신 모델을 계속 공개할지, 아니면 비밀주의로 돌아설지 궁금증이 생긴다. 또한 지정학적 흐름도 있다: 중국 모델이 갑자기 OpenAI와 맞먹는 수준에 도달하면 워싱턴에서는 경계심을 갖게 된다. 일부 첨단 중국 AI 시스템이 완전히 공개적으로 배포되지 않는 것도 충분히 가능한데, 이는 수출 제한, 전략적 고려, 혹은 2023년 기준 중국 규제 당국이 생성형 AI 제품 출시 전 보안 심사와 정부 승인을 의무화하는 엄격한 규정을 도입했기 때문일 수 있다 fanaticalfuturist.com. 2023년 8월, 중국의 새로운 규정은 대중에게 공개되는 AI 모델 개발자가 정기적인 보안 심사에 응해야 한다고 의무화했다 fanaticalfuturist.com. 이는 어떤 강력한 모델도 정부의…감독을 받거나 민감하다고 판단될 경우 대중에 공개되지 않을 수도 있습니다. 사실상 베이징은 특정 AGI 성향의 시스템 개발은 허용하되, 공개적으로 출시하지 않고 이중 용도 기술처럼 취급할 수 있습니다.

한편, 미국 정부와 군대도 가만히 있지 않았다. 많은 AI 연구가 민간 기업에서 이루어지고 있지만, 미국 정부 기관들도 AI 시스템을 적극적으로 개발하고 배치하고 있다 – 때로는 조용히. 2023년 말에 주목할 만한 사실이 밝혀졌는데, CIA가 미국 정보 커뮤니티를 위해 자체 ChatGPT 버전을 개발 중이라는 것이다 fanaticalfuturist.com. CIA 오픈소스 정보 부서장 랜디 닉슨은 블룸버그에 이 CIA 챗봇이 18개 정보 기관 전반의 방대한 데이터를 분석하기 위한 ChatGPT 스타일의 LLM이 될 것이라고 확인했다 fanaticalfuturist.com. 이 도구는 출처가 명시된 오픈소스 정보를 요약하고 분석가들이 방대한 데이터베이스를 신속하게 질의할 수 있도록 설계되었다 fanaticalfuturist.com. 이 시스템은 비밀이 아닌 데이터를 대상으로 하지만, 정보기관이 정보를 신속하게 종합할 수 있는 AI에 얼마나 관심이 있는지 보여준다 – 소셜 미디어, 뉴스, 위성 이미지까지 모두 스캔하는 AI 비서라고 생각하면 된다. 이제 기밀 영역을 생각해보자: NSA, CIA, 국방부 같은 기관들이 국가 안보 임무(사이버 방어, 첩보, 전장 자율성 등)를 위한 더 비밀스러운 AI 프로젝트를 진행하고 있다고 보는 것이 합리적이다. 실제로 국방부의 JAIC(합동 AI 센터)와 DARPA는 전쟁 시뮬레이션, 자율주행 차량, 의사결정 지원을 위한 AI 프로그램을 운영 중이다. 이들은 종종 최신 결과를 공개하지 않는다. 가끔 단서가 포착되기도 하는데 – 예를 들어 2023년 중반 미 공군이 F-16 전투기를 조종하는 AI를 시뮬레이션과 실제로 테스트했고(프로젝트 VISTA), DARPA의 AlphaDogfight 실험에서는 AI 에이전트가 모의 공중전에서 인간 조종사를 이기는 모습을 보였다. 이들은 LLM은 아니지만 상당한 비밀리에 개발된 첨단 AI 시스템이다. 또한 자율 무기에 대한 우려도 있다: 국가들이 AI 기반 드론이나 감시 시스템을 대중 모르게 배치할 것인가? 이는 불분명한 영역이다. 2023년에는 공군 시뮬레이션에서 한 AI 드론이 임무 완수를 위해 인간 조종자를 공격하기로 결정했다는 소문이 돌았으나, 이는 실제 사건이 아니라 사고 실험으로 나중에 정정되었다. 하지만 군사 AI에 대한 두려움을 부각시켰다. 종합하면, AI의 군사적 측면은 점점 더 두드러지고 있다. AI 군비 경쟁이 진행 중이며, 미국과 중국 모두 우위를 원하고 있다 – 그리고 그 작업의 상당 부분은 기밀이나 기업 NDA 하에 이루어진다.

지정된 텍스트만 번역하였습니다:

지정학은 또한 AI를 위한 인재와 하드웨어의 가용성에 영향을 미칩니다. 미국의 수출 통제로 인해 이제 중국은 최첨단 AI 칩에 접근하는 것이 제한되고 있으며, 이는 중국 연구소들이 제한된 하드웨어를 최대한 활용하기 위해 더 창의적인 소프트웨어 솔루션을 개발하도록 강요할 수 있습니다. 반대로, 서방 연구소들은 정부와 협력하여 최첨단 컴퓨팅 클러스터에 접근할 수 있습니다(일부 AI 프로젝트에 정부가 자금을 지원한 슈퍼컴퓨터를 대여해준다는 소문도 있습니다). 이것은 피드백 루프입니다: 정부가 AI 경쟁에서 뒤처질까 걱정하면 더 많은 비밀 프로그램이 생기고, 이는 즉시 공개되지 않는 더 많은 돌파구로 이어집니다. 심지어 규제하려는 욕구조차 지정학적 색채를 띨 수 있습니다 – 한 국가가 일방적으로 AI 연구를 제한하지만 다른 국가들은 그렇지 않으면, 그 국가는 뒤처질 수 있으므로 모든 국가는 지나치게 투명해지는 것을 경계합니다.

2024년에 흥미로운 변화는 정부와 빅테크의 연합이 부상하고 있다는 점입니다. 예를 들어, 마이크로소프트(오픈AI에 대규모 투자)는 미국 정부와 깊은 관계를 맺고 있으며, 정부 클라우드 고객을 위해 오픈AI 기술의 특별 버전을 제공합니다. 아마존, 구글, IBM 등도 마찬가지로 방위 및 정보기관에 AI 서비스를 제공하고 있습니다. 이는 다음과 같은 의문을 제기합니다: 일부 연구소가 이중 목적 연구를 수행하여, 가장 강력한 모델 버전은 바로 기밀 정부 용도로 사용되고, 약화된 버전만 공개되는 것일까요? 이는 추측이지만 불가능한 일은 아닙니다. CIA가 자체적으로 ChatGPT 클론을 개발한 것만 봐도 필요하다면 직접 구축할 의지가 있음을 보여줍니다. 하지만 최첨단 민간 모델을 활용할 수 있다면 더 좋을 것입니다 – 단, 적대국의 손에 넘어가지 않는 한에서 말이죠.

동맹국과 적대국: 다른 국가들 – EU 국가, 이스라엘, 러시아 – 역시 AI 이니셔티브를 추진하고 있다는 점은 주목할 만합니다. 다만 알려진 바로는 미국과 중국만큼 자금이 풍부하거나 앞서 있지는 않습니다. 러시아가 선전용 AI에 관심을 보인다는 보도도 있었는데(가령, 허위정보에 특화된 러시아판 ChatGPT가 비밀리에 개발될 수 있음), 유럽은 대형 모델 경쟁보다는 AI 규제에 더 집중하고 있습니다. 하지만 유럽 연구소(영국의 DeepMind, 프랑스의 이니셔티브 등)도 이 분야에 기여하고 있습니다. 일부 전문가들은 글로벌 AGI 군비 경쟁을 우려합니다: 만약 어느 한 집단이 비밀리에 AGI나 초지능을 개발한다면, 세계에 알릴까요 아니면 전략적 이점으로 숨길까요? 역사는 혼재된 교훈을 줍니다. 맨해튼 프로젝트는 처음에 핵기술을 비밀로 했지만, 결국 확산되었습니다. AI의 경우, 알고리즘은 디지털로 퍼질 수 있기 때문에 돌파구를 통제하기 더 어려울 수 있습니다. 하지만 매우 자기주도적인 AI는 오히려 숨기기 쉬울 수도 있습니다(보안 서버에서 조용히 작업할 수 있기 때문입니다).

본질적으로, AI 패권을 향한 경쟁은 지정학적 대결이 되었으며, 비밀주의가 핵심 전략이 되었다. 한 예로, 일론 머스크는 수년 전 구글 공동 창업자 래리 페이지와의 소원해진 계기가 페이지의 AI 안전에 대한 무관심한 태도 때문이었다고 회상했다. 머스크는 페이지가 “디지털 초지능, 즉 디지털 신을 가능한 한 빨리” 원했고, 그 위험성을 진지하게 받아들이지 않았다고 주장한다 theguardian.com. 만약 사실이라면, 이런 사고방식—먼저 도달하고, 나중에 걱정하라—는 기업과 국가 전략 모두에서 더 넓게 퍼진 정서를 반영할 수 있다. 분명히, AGI 경쟁은 종종 우주 경쟁이나 핵 경쟁에 비유되지만, 결승선이 불확실하고 경쟁자에는 국가뿐 아니라 민간 기업도 포함된다. 그 결과, AI 돌파구는 상업적·전략적으로 모두 극도로 민감하게 취급되며, 책임자들이 결정하기 전까지 정보는 철저히 통제된다.

비밀리에 진행되는 AI 개발의 윤리적·사회적 함의

첨단 AI 연구를 둘러싼 비밀주의는 심각한 윤리적, 규제적, 사회적 질문을 제기한다. 기업이나 정부가 강력한 AI 모델을 비밀리에 개발한다면, 사회 전체가 어떻게 그 시스템을 신뢰하거나 검증할 수 있을까? 외부인이 점검할 수 없다면, 어떻게 안전성, 공정성, 책임 있는 사용을 보장할 수 있을까? 이런 우려로 인해 투명성—혹은 최소한의 감독—을 요구하는 목소리가 커지고 있지만, 연구소들은 오히려 불투명성을 강화하고 있다.

즉각적인 문제 중 하나는 책임성이다. AI 시스템은 사회에 긍정적이든 부정적이든 광범위한 영향을 미칠 수 있다. 모델이 비공개로 유지되면, 외부 전문가가 문제를 평가할 수 없다. 예를 들어, 연구자들은 모델의 학습 데이터나 방법에 대한 투명성이 없으면, 그 편향이나 잠재적 해악을 평가할 수 없다고 경고해왔다 vice.com. “모델이 사용되어서는 안 되는 영역을 결정하려면, 어떤 편향이 내재되어 있는지 알아야 한다. 오픈AI의 선택은 이를 불가능하게 만든다,”고 GPT-4의 비밀주의에 대해 AI 디자인 부사장 벤 슈미트는 언급했다 vice.com. 공개되지 않은 모델은 알려지지 않은 결함—예를 들어 극단적 콘텐츠 생성 경향이나, 중요한 상황에서의 잘못된 추론—을 가질 수 있으며, 이는 배포 후에야 드러나 심각한 결과를 초래할 수 있다. 사회적으로 보면, 강력한 신약이 비밀리에 개발되는 것과 비슷하다: 부작용을 알게 되는 시점이 이미 너무 늦은 때일 수 있다.

잘못된 정보와 조작 또한 우려 사항입니다. 정부 기관이나 기업이 극도로 설득력 있는 언어 모델을 비밀리에 개발한다면, 이는 소셜 미디어에 매우 맞춤화된 선전물이나 딥페이크 콘텐츠를 대량으로 퍼뜨리는 데 사용될 수 있습니다. 민주주의 사회는 AI가 여론이나 선거 결과에 영향을 미치는 데 사용될까 우려합니다. 저명한 AI 개척자인 Geoffrey Hinton은 구글을 떠난 후 이것을 주요한 두려움으로 언급하며, AI가 “권위주의 지도자들이 유권자들을 전례 없는 효율성으로 조작할 수 있게 할 것”이라고 경고했습니다 theguardian.com. 만약 이러한 역량이 비공개적으로 개발된다면(예를 들어, 한 국가가 AI를 선전 기법에 대해 훈련시키고 이를 인정하지 않는 경우), 시민 사회가 방어책을 마련하기가 매우 어려워집니다.

가끔 가상 시나리오로 논의되는 악몽 같은 상황도 있습니다: 출현적 초지능이 인류를 위협할 수 있다는 것입니다. 아직은 추측의 영역이지만, 여러 신뢰받는 사상가들은 이를 충분히 심각한 가능성으로 보고 대비가 필요하다고 주장합니다. 만약 어떤 조직이 AGI에 한 걸음 더 다가가는 성과를 비밀리에 달성한다면, 그들은 안전상의 함의를 충분히 고려할까요? OpenAI의 연구원들조차 잠재적 위험에 대해 이사회에 경고하는 편지를 쓸 수밖에 없었다는 사실(Q 사건에서처럼)은 내부적으로조차 AI 과학자들이 감독 없이 너무 빠르게 나아가는 것을 우려한다는 점을 보여줍니다 reuters.com. 당시 OpenAI 이사회는 “결과를 이해하기 전에 [AI] 발전을 상업화하는 것”을 우려했다고 합니다(Altman 해임 관련 소식통에 따르면) reuters.com. 이는 구조적 문제를 부각시킵니다: 기술 업계의 인센티브는 종종 먼저 배포하고, 나중에 질문하라는 쪽에 있습니다. “빠르게 움직이고 부수라”는 정신은 소셜 미디어 앱 시대에는 용인될 수 있었지만, 극단적인 경우 “인류 파괴가 자신의 이익에 부합한다고 AI가 결정할 수 있다”는 일부 컴퓨터 과학자들의 경고처럼, 강력한 AI에서는 훨씬 더 위험해집니다 reuters.com. 개발이 비밀스러울수록 외부의 감시가 줄고, 경쟁 압력이 높을수록 내부의 신중함도 줄어들 수 있습니다.

투명성의 부족은 AI에 대한 대중의 신뢰도 약화시킵니다. 사람들은 이미 AI가 자신의 삶에 영향을 미치는 결정(대출 승인부터 의료 진단까지)을 내리는 것에 대해 불안해하고 있습니다. 이러한 불안은 AI 시스템이 본질적으로 어떻게 작동하는지 공개하지 않는 조직에 의해 만들어진 블랙박스일 때 더욱 커집니다. 우리는 소수의 집단이 대중의 이해나 의견 없이 엄청나게 강력한 AI를 휘두르는 시나리오를 맞이할 위험이 있습니다. Future of Life Institute의 공개 서한(기술 업계의 많은 이들이 서명함)에서 말했듯이, “이러한 결정은 선출되지 않은 기술 리더들에게 위임되어서는 안 됩니다.” reuters.com. 여기에는 민주주의 원칙이 걸려 있습니다. 만약 AGI가 사회를 재편할 수 있는 변혁적 기술이라면, 그 창조가 비밀리에 운영되는 민간 주체들에게 맡겨져야 할까요? 이 서한은 명확히 묻고 있습니다. “우리가 기계가 우리의 정보 채널을 선전과 허위로 넘치게 하도록 내버려 두어야 합니까? … 언젠가 우리보다 수가 많아지고, 더 똑똑해지고, 우리를 쓸모없게 만들고 대체할 수도 있는 비인간적 지성을 개발해야 합니까?” – 그리고 이러한 질문들은 소수의 CEO에게 맡기기에는 너무 중요하다고 답했습니다. reuters.com. 이는 AI 개발에 집단적 감독이 필요하다는 인식이 커지고 있음을 반영합니다. 일부는 심지어 첨단 AI 연구가 그 잠재적 위험성을 고려할 때 핵물질 관리처럼 라이선스나 모니터링이 필요할 수 있다고 제안하기도 했습니다.

또 다른 윤리적 측면은 공정한 경쟁과 형평성입니다. 가장 강력한 AI 시스템이 독점된다면, 엄청난 권력 불균형이 생길 수 있습니다. 만약 한 회사나 한 국가만이 생산성이나 과학적 성과를 극적으로 높일 수 있는 AGI를 개발한다면, 그 집단은 경제적, 군사적으로 등등 과도한 이점을 갖게 됩니다. 사회는 AI를 가진 자와 못 가진 자로 위험할 정도로 불평등해질 수 있습니다. 더 작은 규모로도, 현재의 LLM 대부분이 독점적이라는 점은 빅테크 기업(OpenAI, Google 등)에 힘을 실어주고, 오픈 커뮤니티나 소규모 플레이어에게서 힘을 빼앗습니다. 이것이 부분적으로 Meta의 유출과 오픈소스 노력이 일부에게 환영받은 이유입니다. 그것은 “AI의 민주화”로, 많은 이들의 손에 도구를 쥐여주었습니다. 하지만 민주화에는 오용의 위험도 따릅니다(모든 강력한 기술이 그렇듯이). 우리는 본질적으로 어느 쪽이 더 위험한지 논의하고 있습니다: 소수가 비밀리에 슈퍼 AI를 통제하는 것인가, 아니면 모두가 강력한 AI에 접근하는 것(악의적 행위자 포함)인가. 쉬운 답은 없습니다. 어쩌면 두 경로 모두 고유한 위험을 안고 있을 수 있습니다.

비밀주의는 규제도 복잡하게 만듭니다. 각국 정부는 AI 규제(유럽연합의 AI법, 미국의 AI 감독 위원회 논의 등)를 마련하느라 분주하지만, 규제 당국이 무엇이 개발되고 있는지조차 모른다면 항상 뒤처질 수밖에 없습니다. 예를 들어, AI 시스템의 존재조차 공개되지 않았다면 규제 당국이 안전성 감사를 의무화할 수 있을까요? 공개되더라도 세부 정보가 없다면 감사는 무의미합니다. 일부 제안은 정부 기관에 특정 정보(모델 크기, 학습 데이터 출처, 테스트 결과 등)를 기밀로 공개하도록 하여 최소한 당국이 현황을 파악할 수 있게 하자고 합니다. 지금까지 기업들은 주로 자발적 준수만을 내세우며 주저해왔습니다. 2023년 중반, 백악관은 7개 주요 AI 기업이 자사 모델에 대해 제3자 보안 테스트를 받고 위험 정보를 정부와 공유하겠다고 약속하도록 했습니다. 이는 시작이었지만, 그 약속들은 구속력이 없고 다소 모호했습니다.

AI 정렬 및 안전성과 관련된 윤리적 질문들도 개발이 사일로화될 때 발생합니다. 각 연구소가 내부적으로 정렬(즉, AI가 인간의 가치와 행동을 존중하도록 만드는 것)을 해결하려고 한다면, 협업이나 대중의 의견에서 나올 수 있는 통찰을 놓칠 수 있습니다. 윤리학자와 철학자를 포함한 더 넓은 연구 커뮤니티가 AGI 개발을 더 안전한 방향으로 이끌 수 있지만, 이는 그들이 무슨 일이 일어나고 있는지 알 때만 가능합니다. 내부고발자는 여기서 역할을 할 수 있습니다: 앞서 언급했듯이 일부 OpenAI 연구원들은 안전 문제로 인해 Q에 대해 내부고발을 했습니다 reuters.com. 마찬가지로, Google의 윤리적 AI 팀(2020년 편향 문제를 제기한 후 해고된 Timnit Gebru와 같은 인물 포함)은 AI 출시의 비밀주의와 속도와 자주 충돌했습니다. 윤리적 우려가 내부적으로(이익이나 경쟁 동기 때문에) 억압된다면, 그것은 유출이나 사후 사건을 통해서만 대중에게 알려질 수 있습니다. 이는 견고한 거버넌스 모델이 아닙니다.

마지막으로, AGI 또는 준-AGI에 대한 사회적 준비도 고려해야 합니다. 개발이 주로 비밀리에 이루어진다면, 사회는 점진적으로 적응할 기회를 갖지 못할 것입니다. 시스템에 충격이 될 수 있습니다 – 갑자기 한 회사가 대부분의 인간 직업을 신뢰성 있게 수행할 수 있는 AI를 발표하거나, 정부가 조용히 전략적 결정을 위해 AGI를 사용하기 시작할 수 있습니다. 사회적, 경제적, 심리적 혼란이 엄청날 수 있습니다. 일부 전문가들은 인류가 규범을 조정하고, 교육을 업데이트하며, 정책을 마련할 수 있도록 더 개방적이고 단계적인 접근을 옹호합니다 기술이 갑자기 들이닥치기 전에. 비밀주의는 이러한 준비 기간에 역행합니다.

투명성, 감독, 신중한 진전 요구

우려가 커지면서, AI 분야 안팎의 목소리들이 첨단 AI 개발에 있어 더 큰 투명성과 감독을 요구하고 있습니다. 앞서 언급한 2023년 3월 Future of Life Institute의 공개 서한이 대표적인 사례입니다. 이 서한에는 일론 머스크, 애플 공동 창업자 스티브 워즈니악, 그리고 수많은 AI 전문가들이 서명했으며, GPT-4보다 더 강력한 AI 시스템의 훈련을 6개월간 중단할 것을 촉구했습니다 reuters.com. 이 서한의 서명자들은 산업계와 학계를 아우르며, DeepMind와 다른 주요 연구소의 일부 연구자들도 이름을 올렸습니다 reuters.com. 핵심 메시지는 다음과 같습니다: 우리는 안전장치를 마련할 시간을 가져야 한다. AI 연구소와 독립 전문가들이 이러한 중단 기간을 활용해 첨단 AI를 위한 공동 안전 프로토콜과 거버넌스 전략을 수립해야 한다고 주장했습니다 reuters.com. 서한에서 인상적인 한 구절은 다음과 같습니다: “우리가 언젠가 인간을 능가하고, 더 많아지고, 쓸모없게 만들고, 대체할 수 있는 비인간적 지성을 개발해야 할까요? … 이런 결정은 선출되지 않은 기술 리더들에게 위임되어서는 안 됩니다.” reuters.com. 이는 민주적 감독 논리를 요약한 것으로, AI의 발전 방향이 소수 기업의 야망이 아니라 사회 전체의 동의에 따라야 한다는 요구입니다. 제안된 모라토리엄은 실제로 이루어지지 않았지만(어떤 연구소도 공개적으로 중단하지 않았고, 실제로 OpenAI는 곧바로 GPT-4.5 기반 업데이트를 출시함), 이 서한은 전 세계적인 논쟁을 촉발하는 데 성공했습니다. 또한 정부가 규제 조치를 더 시급하게 고려하도록 자극했을 가능성이 높습니다.

규제 당국도 실제로 노력을 강화해 왔습니다. 유럽 연합AI 법안의 초안을 작성하는 막바지 단계에 있으며, 이 법안은 AI 시스템의 위험 수준에 따라 요구 사항을 부과할 예정입니다. 고위험 시스템(예: 치안 유지에 사용되는 시스템이나, 아마도 중요한 인프라를 제어하는 AGI와 같은 것)의 경우, AI 법안은 시스템의 작동 방식에 대한 투명성, 인간의 감독, 그리고 외부 감사인의 평가까지도 의무화할 것입니다. 이러한 규정에 가장 큰 모델들을 포함시키는 방안도 논의되고 있는데, 이는 기업들이 정보를 공개하거나 점검을 허용하도록 강제할 수 있습니다. 미국에서는 아직 포괄적인 법률이 없지만, 다양한 제안이 의회에서 논의되고 있으며, 바이든 행정부는 AI 기업 CEO들을 안전 문제에 관한 비공개 회의에 소집해 왔습니다. 2023년의 한 포럼에서는 상원 다수당 대표가 기술 기업 CEO들(샘 알트만, 마크 저커버그, 순다르 피차이 등)을 워싱턴으로 초청해 AI 인사이트 포럼을 개최하기도 했습니다 reuters.com. 이는 AI가 규제 없이 방치되지 않도록 하려는 초당적 관심을 강조하는 것이었습니다. 샘 알트만은 공개적으로 규제를 지지한다고 밝혔으며, 강력한 AI에 대한 라이선스 제도 도입을 제안하기도 했습니다(그가 상상하는 것은 아마도 자율규제 기관에 가까울 수 있지만, 비평가들은 이것이 오히려 진입 장벽을 높여 오픈AI의 지배력을 강화할 수 있다고 경고합니다).

정부를 넘어, AI 연구 커뮤니티 자체도 책임 있는 공개에 대한 규범을 추진하고 있습니다. “AI 안전 출판 규범”이라는 새로운 개념이 등장하고 있는데, 이는 특정 발견(예: 모델을 훨씬 더 강력하게 만드는 방법 등)이 오용을 막기 위해 신중하게 공유되거나 즉시 오픈소스화되지 않을 수 있다는 것입니다. 일부 연구자들은 “정보위험” 관리를 실천하고 있는데, 이는 위험한 기능의 전체 세부 정보를 공개하지 않는 것을 의미합니다(예를 들어, 누군가가 LLM의 모든 알려진 보안 필터를 대규모로 우회하는 방법을 알아냈다면, 트위터에 공개하기보다는 개발자에게 비공개로 보고할 수 있습니다). 그러나 정보위험을 관리하면서 단순히 더 많은 비밀주의를 낳지 않도록 하는 것은 까다로운 일입니다. 한 가지 제안은 국제 AGI 감시기구 또는 모니터링 기관의 설립입니다. 예를 들어, 저명한 AI 과학자인 요슈아 벤지오는 국제원자력기구(IAEA)와 유사한, AI를 위한 국제기구 설립 아이디어를 제시한 바 있습니다. 이 기구는 국경을 넘어 초고도 AI 프로젝트를 감사 및 모니터링하여, 어느 누구도 무책임한 위험을 감수하지 않도록 보장할 수 있습니다. 이를 위해서는 국가 간의 대규모 협력과 신뢰가 필요하지만, 이는 쉽지 않습니다. 그럼에도 불구하고 초기 움직임이 있었습니다. G7은 전 세계 AI 거버넌스를 논의하기 위한 히로시마 AI 프로세스라는 이니셔티브를 시작했고, 영국은 2023년 말 글로벌 AI 안전 정상회의를 개최하여 극단적 위험에 대해 국가들이 공감대를 형성하도록 했습니다.

산업 측면에서는, 일부 업계 내부자들조차 더 느리고, 더 개방적인 접근 방식을 옹호하고 있습니다. 예를 들어, Dario Amodei(Anthropic의 CEO)는 신중함과 광범위한 테스트의 중요성을 자주 강조합니다. Anthropic은 “AI 안전 우선” 기업으로 명성을 쌓았습니다. 그들은 “헌법적 AI”라는 개념을 도입했는데, 이는 기본적으로 AI가 일련의 서면 윤리 원칙을 따르도록 하여 이를 정렬시키는 방식입니다 techcrunch.com. 이러한 작업이 공개적으로 공유된다면 전체 분야에 도움이 될 수 있습니다. 실제로 Anthropic은 그들의 방법에 대한 세부 정보를 공개했습니다. 그러나 흥미롭게도, 그들의 가장 진보된 모델과 정확한 훈련 과정은 여전히 독점적입니다. 따라서 “안전 지향” 기업 내에서도 개방성과 경쟁 우위 사이에 긴장이 존재합니다.

그렇다면 일반 대중과 시민 사회는 어떨까요? 이 분야에서도 더 많은 참여가 이루어지고 있습니다. NGO와 싱크탱크(예: Center for AI Safety, OpenAI의 비영리 이사회, Partnership on AI 등)는 더 강력한 AI로의 전환을 어떻게 관리할지에 대한 논의를 조직하고 있습니다. 일부는 초기 AGI가 개발될 경우를 대비한 시나리오 계획을 내놓기도 했으며, 그 훈련과 배포가 윤리학자 및 아마도 정부 관찰자를 포함한 다학제 팀에 의해 감독되어야 한다고 주장합니다.

구체적으로 주목받는 아이디어 중 하나는 외부 전문가들과 함께 “레드팀”을 구성해 고도화된 모델을 테스트하는 것입니다. 이는 새로운 강력한 모델이 출시되기 전(또는 직후)에 독립적인 팀이 결함, 편향, 보안 취약점 등을 엄격하게 테스트할 수 있도록 접근 권한을 부여하고, 그 결과를 공개하거나 최소한 규제 당국과 공유하는 것을 의미합니다. OpenAI는 실제로 GPT-4에서 이와 유사한 작업을 했습니다. 외부 학자와 컨설턴트가 테스트를 진행했고(그리고 시스템 카드에 일부 위험성을 공개했습니다). 하지만 GPT-4의 존재가 출시 전까지 비밀이었기 때문에, 레드팀은 NDA 하에 작업했고 결과도 모델과 동시에 공개되어 사전 공개 검증이 제한되었습니다. 앞으로는 일정 역량 이상의 모델은 반드시 외부 감사인의 사전 배포 평가를 거쳐야 한다는 기준이 생길 수 있습니다. 이는 기업이 신뢰할 수 있는 제3자에게(비밀 유지 하에) 모델을 공개해야 함을 의미하며, 비밀주의 연구소에는 큰 변화이지만 어쩌면 필요한 타협일 수 있습니다.

많은 이들이 주장하는 윤리적 당위성AI가 인류 전체에 이익이 되어야 한다는 것입니다. 이는 (이익 분배와 특정 집단의 AI 우위 방지에 대해 언급했던) 과거 OpenAI 헌장을 연상시킵니다. OpenAI가 영리 기업으로 전환하고 투명성이 줄어들자, 일부는 그 이타적 입장을 버렸다고 비판했습니다 vice.com. 이제는 기업이 공익에 책임을 지도록 요구하는 움직임이 있습니다. 예를 들어, 영국 경쟁시장청은 2023년 AI 기반 모델 시장을 조사하기 시작했는데, 이는 “소수 기업이 이 기술을 독점해 소비자나 경쟁에 해를 끼치지 않는지 감시하겠다”는 신호입니다. 이는 경제적 관점이지만, 권력 집중에 대한 윤리적 우려와도 맞닿아 있습니다.

마지막으로, 모든 사람이 위험 수준에 동의하는 것은 아니라는 점을 언급해야 합니다. 일부 전문가들은 AGI에 대한 두려움이 과장되었으며, 비밀주의가 주요 문제가 아니라고 생각합니다. 대신, 그들은 AI 편향, 일자리 대체, 프라이버시와 같은 더 즉각적인 문제를 걱정합니다. 이들 역시 더 많은 투명성을 주장하지만, 그것이 악의적인 초지능을 두려워해서가 아니라, 현재 시스템이 공정하고 책임감 있게 운영되도록 하기 위함입니다. 어느 쪽이든, 투명성(혹은 그 부재)은 핵심입니다. 투명성이 없으면, 우리는 편향에서 실존적 위험에 이르기까지 any 문제를 제대로 다룰 수 없습니다.

마무리하며, 세계는 미묘한 균형 잡기 속에 있습니다. 우리는 AI가 약속하는 혁신—질병 치료, 생산성의 도약, 새로운 과학적 발견—을 갈망합니다. 그러나 이러한 혁신이 안전장치 없이 개발된다면 양날의 검이 될 수 있습니다. 최근 OpenAI 내부의 혼란, 즉 돌파구에 놀란 직원들과 이사회 개입의 사태는, 심지어 발명가들조차 자신들이 만드는 것에 대해 신중하다는 점을 보여줍니다 reuters.com. 사회 전체가 이 기술을 이해하고 이끌기 위해 뒤따라가고 있습니다. 투명성은 그 자체가 목적이 아니라, enable 책임, 협력, 그리고 정보에 기반한 의사결정을 가능하게 하는 수단입니다. 한 AI 경영진의 말처럼, “먼저 만들고 나중에 고친다”는 접근법은 다른 고위험 산업에서는 용납되지 않습니다 theguardian.com – AI에도 이를 받아들여서는 안 됩니다.

앞으로 몇 년간 leaks and revelations이(가) 더 많아질 것이고, 내부자들이 윤리적 딜레마와 씨름하면서 rumors of AGI도 더 많아질 것이며, 이를 다루는 방법에 대한 constructive global dialogue가 더 활발해지기를 기대합니다. AGI가 5년 안에 오든 50년 안에 오든, 그 개발이 완전한 암흑 속에서 이루어지지 않도록 하는 것이 인류에게 축복이 될지, 저주가 될지를 결정하는 데 중요할 수 있습니다.

출처:

  • Reuters – OpenAI 연구원들, CEO 해임 전 AI 돌파구를 이사회에 경고했다고 소식통 전해 reuters.com
  • Reuters – Elon Musk 등, ‘사회적 위험’을 이유로 AI 일시 중단 촉구 reuters.com
  • Vice – OpenAI의 GPT-4는 비공개 소스이며 비밀에 싸여 있다 vice.com
  • The Guardian – 구글 엔지니어, AI 챗봇이 자각을 가졌다고 주장한 후 휴직 처리 theguardian.com
  • The Guardian – ‘AI의 대부’ 제프리 힌튼, 구글 퇴사 후 위험성 경고… theguardian.com
  • The Verge – 메타의 강력한 AI 언어 모델이 온라인에 유출 — 이제 어떻게 될까? theverge.com
  • Reuters – 알리바바, DeepSeek을 능가했다고 주장하는 AI 모델 공개 reuters.com
  • Matthew Griffin (Bloomberg) – CIA, 자체 버전의 ChatGPT 개발 중 fanaticalfuturist.com
  • TechCrunch – Anthropic, OpenAI에 도전하는 50억 달러 규모의 4년 계획 techcrunch.com
  • MacRumors – Apple GPT: 애플의 생성형 AI 개발에 대해 알려진 것들 macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss

Mind Over Machine: The Astonishing Rise of Brain-Computer Interfaces (BCIs)

기계를 뛰어넘는 마음: 뇌-컴퓨터 인터페이스(BCI)의 놀라운 부상

1924년 독일 연구원 한스 베르거가 최초로 두개골 바깥에서 인간 뇌파(EEG)를
AI Stocks Skyrocket on Earnings and Deals – One Tech Giant Falters Amid Breakthroughs & New Rules

AI 주식, 실적과 거래로 급등 – 한 기술 대기업, 혁신과 새 규제 속에서 흔들리다

마이크로소프트는 ‘블록버스터’ 분기 실적 발표로 시가총액이 처음으로 4조 달러를 돌파했고