- No final de 2023, pesquisadores da OpenAI circularam uma carta interna sobre um modelo de codinome “Q” (Q-Star) que supostamente resolveu certos problemas de matemática em nível de ensino fundamental, alimentando especulações sobre AGI.
- A OpenAI lançou o GPT-4 em março de 2023 sem divulgar arquitetura, dados de treinamento, hardware ou metodologia de treinamento em seu relatório técnico.
- Até meados de 2024, a OpenAI não havia confirmado o GPT-5, com Sam Altman dizendo que havia muito trabalho a ser feito antes de iniciar o GPT-5, e uma reportagem do The Guardian de agosto de 2025 descrevendo o GPT-5 como um grande passo em direção à AGI.
- O Google DeepMind apresentou o projeto Gemini, e o Gemini 1.0 supostamente superou o GPT-4 em certos benchmarks no início de 2024, com uma versão Ultra em desenvolvimento.
- O episódio LaMDA incluiu um vazamento em 2022, quando o engenheiro do Google Blake Lemoine afirmou que o LaMDA era “senciente”, e o Bard baseado no LaMDA foi lançado em 2022–2023.
- O modelo LLaMA da Meta vazou em 3 de março de 2023, e a Meta lançou o LLaMA 2 como open-source com restrições em julho de 2023, enquanto um memorando de 2023 alertava que não há “fosso” devido à rápida difusão.
- O material de captação de recursos da Anthropic em 2023 descreveu o Claude-Next como 10 vezes mais capaz que o Claude-2 e potencialmente exigindo cerca de US$ 1 bilhão em computação para treinar, visando autoaprendizagem de IA e automação em larga escala.
- Em janeiro de 2025, a DeepSeek lançou o DeepSeek-V3 e um sucessor R1 que supostamente rivalizam com os melhores modelos da OpenAI, com o fundador Liang Wenfeng afirmando que o objetivo é a AGI e a Reuters observando que os baixos custos da startup desencadearam uma guerra de preços de modelos de IA.
- A CIA está construindo seu próprio LLM no estilo ChatGPT para a comunidade de inteligência dos EUA analisar dados de 18 agências, projetado para resumir informações de fontes abertas com citações.
- O Wu Dao 2.0, apresentado em 2021 pela Academia de Inteligência Artificial de Pequim, é um modelo multimodal com 1,75 trilhão de parâmetros, dez vezes o GPT-3, e não foi disponibilizado como open-source.
Os maiores laboratórios de tecnologia do mundo estão travados em uma corrida secreta para construir o próximo avanço em inteligência artificial – talvez até uma inteligência artificial geral (AGI), um sistema com habilidades cognitivas em nível humano (ou superiores). Enquanto chatbots de IA como o ChatGPT impressionaram o público, pessoas de dentro e documentos vazados sugerem modelos de linguagem de grande porte (LLMs) ainda mais poderosos e projetos de AGI sendo desenvolvidos a portas fechadas. De pesquisas sigilosas na OpenAI e DeepMind a programas governamentais clandestinos, uma teia de segredo envolve esses desenvolvimentos. Este relatório investiga os vazamentos e especulações mais recentes (2024–2025) sobre modelos de IA não divulgados, a cultura de sigilo entre líderes de IA, disputas geopolíticas no domínio da IA e os dilemas éticos de desenvolver IA poderosa no escuro. Vamos separar fatos confirmados de rumores, citar especialistas e denunciantes, e examinar o que tudo isso significa para a sociedade.
Vazamentos e Rumores de Avanços em IA Não Divulgados (2024–2025)
Descoberta do “Q” da OpenAI: No final de 2023, uma carta interna de pesquisadores da OpenAI para o conselho da empresa provocou uma onda de especulações reuters.com. A carta alertava sobre um algoritmo de IA poderoso, conhecido pelo codinome “Q” (Q-Star), que a equipe acreditava poder ser um grande passo em direção à AGI reuters.com. Segundo reportagem da Reuters, o modelo demonstrou uma habilidade sem precedentes para resolver certos problemas matemáticos – atuando em um nível aproximadamente de ensino fundamental, mas fazendo isso de forma consistente e correta reuters.com. Isso foi notável porque as IAs generativas atuais (como o ChatGPT) frequentemente têm dificuldades com matemática ou consistência lógica. “Alguns na OpenAI acreditam que Q pode ser um avanço na busca da startup pelo que é conhecido como AGI,” escreveu a Reuters, observando que acertar até mesmo matemática de ensino fundamental deixou os pesquisadores “muito otimistas quanto ao futuro sucesso do Q” reuters.com. A OpenAI não lançou publicamente o Q nem confirmou totalmente suas capacidades, mas reconheceu privadamente a existência do projeto para os funcionários após questionamentos da mídia reuters.com. O sigilo em torno do Q – e seu papel dramático na surpreendente demissão do CEO da OpenAI, Sam Altman, em novembro de 2023 – alimentou especulações de que a OpenAI pode ter “afastado o véu da ignorância” com uma grande descoberta reuters.com. (O próprio Altman insinuou, semanas antes, que “avanços importantes estavam à vista,” dizendo de forma enigmática que esteve presente em vários momentos de avanço, “o mais recente [deles] foi há apenas algumas semanas” reuters.com.) Muitos observadores suspeitam que o Q seja um motor de raciocínio que, se ampliado, poderia resolver problemas inéditos além do que os chatbots atuais conseguem – essencialmente uma semente potencial de inteligência geral.
GPT-5 e Outros Modelos Não Anunciados: O modelo público da OpenAI em 2024 continua sendo o GPT-4 (que alimenta o ChatGPT e o Bing), mas e quanto ao seu sucessor? A empresa tem sido extremamente reservada sobre esse assunto. Em março de 2023, mais de mil especialistas assinaram uma carta aberta pedindo uma pausa no treinamento de sistemas “mais poderosos que o GPT-4” devido a preocupações de segurança reuters.com. Sam Altman respondeu assegurando que a OpenAI não estava “[treinando] o GPT-5” e não faria isso por algum tempo techcrunch.com. Em meados de 2024, Altman reiterou que eles tinham “muito trabalho a fazer” em novas ideias antes de iniciar o GPT-5 techcrunch.com. No entanto, persistem rumores de que trabalhos preliminares estão em andamento internamente no modelo de próxima geração – seja ele chamado de GPT-5 ou outro nome. A OpenAI notoriamente se recusou a divulgar quaisquer detalhes sobre a construção do GPT-4 (mais sobre isso abaixo), então a existência e progresso inteiros do GPT-5 (se existir) provavelmente permaneceriam em segredo até um lançamento público. Notavelmente, uma análise recente no The Guardian (ago. 2025) mencionou “o novo modelo GPT-5 da OpenAI” como “um passo significativo no caminho para a AGI” – embora ainda “faltando algo bastante importante” em termos de aprendizado verdadeiramente humano theguardian.com. Isso sugere que, em 2025, o GPT-5 pode ter sido apresentado com alarde, mas mesmo isso pode não ser o avanço definitivo que alguns temem estar sendo desenvolvido em segredo. De qualquer forma, o desenvolvimento do GPT-5 tem sido envolto em um sigilo incomum, com a OpenAI nem confirmando nem negando seu status por muito tempo – alimentando os rumores de que algo grande pode estar acontecendo a portas fechadas.
Próximos Passos do Google DeepMind: O braço de IA do Google (agora uma fusão do Google Brain e DeepMind) também tem trabalhado em modelos ultra-avançados, muitas vezes sem lançamentos públicos até um momento estratégico. No final de 2023, o Google anunciou que estava desenvolvendo o “Gemini,” um modelo de IA de próxima geração que uniria as técnicas do famoso AlphaGo da DeepMind com as capacidades linguísticas dos LLMs en.wikipedia.org. Embora o desenvolvimento do Gemini tenha sido divulgado, muitos detalhes permaneceram em segredo até seu eventual lançamento. No início de 2024, houve relatos de que o Gemini 1.0 superou o GPT-4 da OpenAI em certos benchmarks iconext.co.th, e uma versão Ultra estava em desenvolvimento. Esse salto competitivo – alcançado em grande parte internamente no Google – mostra como as gigantes da tecnologia frequentemente trabalham em modo furtivo em modelos inovadores, revelando-os apenas quando estão prontos para reivindicar a liderança. Da mesma forma, a DeepMind tem um histórico de projetos secretos: por exemplo, o LaMDA, o avançado LLM conversacional do Google, foi desenvolvido internamente e conhecido pelo público principalmente por meio de artigos científicos e um vazamento notório (a alegação de um engenheiro do Google de que o LaMDA era “senciente”, mais sobre isso adiante). Só em 2022–2023, quando o derivado do LaMDA foi lançado como o chatbot Bard, o público pôde interagir com ele. Esse padrão – longo desenvolvimento em segredo, depois uma estreia pública repentina – parece ser a norma na indústria. Outros laboratórios como a Anthropic (fundada por ex-membros da OpenAI) também sinalizaram grandes atualizações de modelos no horizonte sem revelar todos os detalhes. Em 2023, um pitch de captação de recursos vazado da Anthropic detalhou planos para um modelo “Claude-Next” que seria 10 vezes mais capaz do que a IA mais avançada de hoje e poderia exigir cerca de US$ 1 bilhão em computação para ser treinado techcrunch.com. A Anthropic descreveu esse modelo de fronteira como tendo o objetivo de “autoaprendizagem de IA” e sugeriu que poderia “começar a automatizar grandes partes da economia” techcrunch.com – uma ambição equivalente a uma forma inicial de AGI. No entanto, fora dos documentos vazados, a Anthropic tem se mantido em silêncio sobre o progresso em direção ao Claude-Next, focando a comunicação pública em atualizações iterativas (como o Claude 2). A diferença real de capacidade entre o que é disponibilizado publicamente e o que está sendo desenvolvido no laboratório pode ser muito maior do que imaginamos.
Novos e Desconhecidos Jogadores: Não são apenas as empresas conhecidas – às vezes, projetos dark horse surgem e pegam especialistas de surpresa. Um exemplo marcante veio da China: em janeiro de 2025, uma startup relativamente desconhecida chamada DeepSeek apareceu no cenário com um modelo (DeepSeek-V3 e uma versão subsequente “R1”) que supostamente rivaliza com os melhores da OpenAI. A comunidade tecnológica chinesa – e até mesmo o Vale do Silício – ficaram surpresos quando o assistente de IA da DeepSeek chocou a indústria ao igualar ou superar os modelos da OpenAI em vários benchmarks, e fazendo isso a uma fração do custo reuters.com. “A IA da DeepSeek… chocou o Vale do Silício e fez as ações de tecnologia despencarem,” relatou a Reuters, citando os baixos custos de desenvolvimento da startup e alegações de que seu modelo R1 teve desempenho equivalente ao modelo “o1” da OpenAI reuters.com. (A terminologia sugere que a DeepSeek estava comparando com um modelo da OpenAI de codinome “o1”, talvez uma versão do GPT-4.) O fundador da DeepSeek, um jovem pesquisador chamado Liang Wenfeng, deu pouquíssimas entrevistas, mas em uma delas afirmou ousadamente que alcançar a AGI era o principal objetivo da empresa, e que, ao contrário das Big Tech, sua equipe enxuta “não se importava” com lucro ou mesmo com as guerras de preços em andamento nos serviços de nuvem de IA reuters.com. Esse desenvolvimento discreto destaca que a IA de ponta não é exclusividade dos tradicionais laboratórios ocidentais – pode haver modelos altamente avançados sendo desenvolvidos em segredo por startups ou institutos ligados ao governo em outros lugares. Na verdade, já em 2021, a Academia de IA de Pequim, na China, anunciou o Wu Dao 2.0, uma IA multimodal com impressionantes 1,75 trilhão de parâmetros (dez vezes mais que o GPT-3) aibusiness.com. Wu Dao era um modelo massivo capaz de gerar texto e imagem, mas não foi open-source; serviu como prova de conceito de que a China poderia fazer pesquisa de fronteira em escala igual ou superior aos laboratórios dos EUA. Poucos fora da China viram o Wu Dao em ação, e ele permanece uma espécie de lenda. O ponto-chave é que, globalmente, existem projetos de IA dos quais só ouvimos rumores até que eles de repente estreiam (ou vazam). O primeiro alerta para o mundo pode ser um artigo científico, um registro regulatório – ou um upload anônimo dos pesos do modelo em um fórum (como aconteceu com o LLaMA da Meta, discutido abaixo). Nesse clima, o inesperado se tornou rotina, e todo boato sobre um modelo secreto ou “avanço” em AGI gera ondas de empolgação e ansiedade na comunidade de IA.
A Cultura do Segredo Entre os Laboratórios de IA
Apesar das origens da indústria na academia e na pesquisa aberta, os atuais líderes de IA estão cada vez mais reservados sobre seus trabalhos mais avançados. Um exemplo principal é a OpenAI. Ironia para uma empresa nomeada em prol da transparência, a OpenAI mudou para um extremo sigilo em relação aos seus principais modelos. Quando GPT-4 foi lançado em março de 2023, a OpenAI forneceu nenhuma informação sobre a arquitetura do modelo ou o processo de treinamento – sem contagem de parâmetros, sem detalhes sobre o vasto conjunto de dados ou hardware utilizado vice.com. No relatório técnico, a empresa afirmou categoricamente: “Dado tanto o cenário competitivo quanto as implicações de segurança de modelos em larga escala como o GPT-4, este relatório não contém mais detalhes sobre a arquitetura… hardware, computação de treinamento, construção do conjunto de dados, [ou] método de treinamento.” vice.com. Isso marcou uma virada de 180 graus em relação aos princípios fundadores de abertura da OpenAI vice.com. Como observou um relatório, o GPT-4 foi “o lançamento mais secreto da empresa até agora”, e de fato um “completo 180 em relação aos princípios fundadores da OpenAI como uma entidade sem fins lucrativos e de código aberto.” vice.com. Críticos criticaram essa falta de transparência. “Depois de ler o relatório de quase 100 páginas, tenho mais perguntas do que respostas,” disse Sasha Luccioni, pesquisadora de IA na Hugging Face, acrescentando que é “difícil para mim confiar em resultados que não posso verificar ou replicar.” vice.com Outra especialista, a Prof. Emily M. Bender, tuitou que o sigilo da OpenAI não era surpresa, mas lamentou que “Eles estão ignorando deliberadamente as estratégias mais básicas de mitigação de riscos, enquanto proclamam estar trabalhando para o benefício da humanidade.” vice.com. Até mesmo o CEO e o cientista-chefe da OpenAI reconheceram a mudança. Ilya Sutskever, antes um defensor da pesquisa aberta em IA, defendeu o silêncio sobre o GPT-4 dizendo que “a concorrência está acirrada… do ponto de vista competitivo, você pode ver isso como uma maturação do campo”, admitindo por fim que “estávamos errados” ao termos sido open-source no início vice.com. Em resumo, a OpenAI agora opera muito como um laboratório corporativo de P&D protegendo um segredo comercial.Outros laboratórios de IA também se fecharam quanto a detalhes específicos à medida que seus projetos se aproximam da fronteira tecnológica. DeepMind, por exemplo, publicou muitos artigos inovadores (sobre AlphaGo, AlphaFold, etc.), mas raramente libera os pesos dos modelos ou projetos técnicos completos de seus sistemas mais recentes. Quando a DeepMind desenvolveu Gopher (um grande modelo de linguagem) ou Sparrow (um agente de diálogo), o público soube de suas capacidades por meio de publicações acadêmicas, mas os próprios modelos permaneceram internos. O modelo LaMDA do Google foi mantido interno por um longo período, até que a pressão dos avanços da OpenAI levou o Google a apressar o lançamento de um produto (Bard) baseado no LaMDA. Notavelmente, o mundo talvez nunca tivesse descoberto o quão estranhas e humanas poderiam ser as conversas do LaMDA se não fosse por um incidente de whistleblower: em 2022, um engenheiro do Google, Blake Lemoine, tornou público o seu relato de que o LaMDA era “senciente” – uma afirmação amplamente rejeitada por cientistas, mas que atraiu enorme atenção para o que o Google vinha desenvolvendo em segredo theguardian.com. O Google suspendeu Lemoine por violação de confidencialidade (ele havia compartilhado transcrições de suas conversas com a IA) theguardian.com. O episódio não apenas destacou o quão avançados os chatbots invisíveis do Google haviam se tornado, mas também “colocou nova atenção sobre o sigilo em torno do mundo da IA,” como observou The Guardian na época theguardian.com. O próprio Lemoine comentou: “O Google pode chamar isso de compartilhamento de propriedade proprietária. Eu chamo de compartilhar uma discussão que tive com um dos meus colegas de trabalho,” borrando de forma provocativa a linha entre IA e colega humano theguardian.com. Embora suas alegações de senciência tenham sido desmentidas, o conteúdo dessas conversas vazadas mostrou o LaMDA expressando medo de ser desligado e desejo de ser reconhecido como uma pessoa theguardian.com – coisas que certamente não faziam parte da narrativa pública do Google sobre sua IA. É um exemplo vívido de como as capacidades da IA podem avançar a portas fechadas muito além do que os de fora percebem, até que algum vazamento ou relato interno venha à tona (seja preciso ou não).
Anthropic e Meta AI apresentam um contraste em termos de abertura, embora de forma sutil. A Anthropic tem sido relativamente aberta sobre sua filosofia de pesquisa (como a “IA Constitucional” para modelos mais seguros) e publica artigos, mas, quando se trata das especificações completas de seus modelos (os dados exatos de treinamento do Claude ou a contagem de parâmetros), também manteve detalhes em sigilo. A Meta, por outro lado, causou impacto ao adotar uma abordagem mais aberta em 2023: lançou o LLaMA, um poderoso LLM, para a comunidade de pesquisa em geral, em vez de mantê-lo apenas internamente theverge.com. Esse foi um movimento direcionado para “democratizar o acesso” à IA de ponta, contrastando implicitamente a abertura da Meta com a postura fechada da OpenAI theguardian.com. No entanto, o plano da Meta para um lançamento controlado não saiu como esperado. LLaMA foi vazado na íntegra na internet apenas uma semana após o anúncio da Meta theverge.com. Em 3 de março de 2023, alguém publicou os arquivos do modelo LLaMA em um fórum público (4chan), e a partir daí eles se espalharam rapidamente por sites de torrent e pelo GitHub theverge.com. Em poucos dias, qualquer pessoa podia baixar o modelo de ponta da Meta – um cenário que alguns especialistas acharam empolgante e outros, alarmante. “O poderoso modelo de linguagem de IA da Meta vazou online… Alguns temem que a tecnologia seja usada para o mal; outros dizem que o maior acesso melhorará a segurança da IA,” escreveu The Verge theverge.com. Esse incidente gerou um grande debate: será que a abertura em relação à IA avançada leva a uma melhor supervisão e inovação, ou acelera o uso indevido por agentes mal-intencionados? A Meta tentou um caminho intermediário (aberto, mas apenas para pesquisadores confiáveis), e isso saiu pela culatra. Após o vazamento, Meta dobrou a aposta – não recuando para o sigilo, mas de fato abrindo o código de um novo modelo. Em julho de 2023, a Meta lançou o LLaMA 2 como open-source (com algumas restrições), em parceria com a Microsoft. O pensamento talvez fosse que se esses modelos vão se proliferar de qualquer forma, melhor lançá-los oficialmente com algumas salvaguardas do que permitir vazamentos não autorizados. Mesmo assim, o próprio memorando interno vazado da Meta em 2023 (“A Ilusão do Segredo Aberto da IA” ou informalmente o memorando “no moat”) admitiu que “não temos fosso” porque a IA open-source estava avançando tão rapidamente. Esse memorando sugeria que nem mesmo grandes laboratórios conseguem manter a vantagem guardando segredos, já que as ideias inevitavelmente se espalham theguardian.com. É um reconhecimento marcante: enquanto as empresas estão se tornando mais secretas para proteger sua liderança, a comunidade de pesquisa aberta (ou um rivalos laboratórios da nação) podem alcançar mais rápido do que o esperado.
Em resumo, um véu de segredo caiu sobre a fronteira da pesquisa em IA. Os laboratórios citam a pressão competitiva e questões de segurança como justificativa. A transformação da OpenAI em um livro fechado é o exemplo clássico dessa tendência. Como resultado, o público frequentemente só fica sabendo dos principais avanços por meio de revelações estratégicas, rumores ou vazamentos. Esse segredo pode gerar desconfiança – o que essas empresas podem ter alcançado que não estão nos contando? Existem versões iniciais de uma AGI funcionando silenciosamente em um data center, mantidas longe do mundo até que sejam consideradas seguras ou lucrativas? Não é de se admirar que cada indício de um avanço (como Q ou um misterioso “GPT-5”) desencadeie intensa especulação. Os laboratórios, por sua vez, argumentam que transparência demais pode ser perigosa – por exemplo, revelar como construir um modelo poderoso pode permitir que agentes mal-intencionados o reproduzam. Eles também temem que compartilhar detalhes ajude os concorrentes. Assim, a corrida armamentista de IA mudou em grande parte para portas fechadas, com vislumbres ocasionais pelo buraco da fechadura quando um insider se manifesta ou um documento vaza.
Geopolítica e IA Oculta: Superpotências, Espiões e Armas Autônomas
A supremacia em IA não é apenas uma obsessão do Vale do Silício – é uma questão de orgulho nacional e segurança. Potências mundiais estão investindo recursos em IA avançada, muitas vezes com alto grau de segredo, dado o que está em jogo. China e Estados Unidos veem a liderança em IA como um imperativo estratégico, e isso gerou projetos mantidos tão confidenciais quanto programas militares.
Do lado da China, o governo declarou sua ambição de se tornar o líder global em IA até 2030, e isso catalisou uma onda de atividades de gigantes da tecnologia, startups e laboratórios financiados pelo Estado fanaticalfuturist.com. Grande parte do desenvolvimento de IA na China ocorre sem o mesmo nível de comunicados à imprensa ou blogs abertos vistos no Ocidente. Por exemplo, o já mencionado modelo Wu Dao 2.0 (1,75 trilhão de parâmetros) foi apresentado em uma conferência chinesa com relativamente pouca repercussão internacional – ainda que, se um laboratório americano tivesse construído a maior IA do mundo, provavelmente teria sido uma grande notícia. Nos últimos anos, empresas chinesas como Baidu, Alibaba e Tencent anunciaram seus próprios grandes modelos de linguagem (Ernie Bot, modelo Qwen, etc.), mas muitas vezes não está claro quais capacidades elas mantêm internamente. O caso da DeepSeek, a pequena startup que temporariamente superou modelos ocidentais, sugere que alguns avanços podem estar acontecendo discretamente. O enigmático fundador da DeepSeek, Liang, sugeriu que corporações de tecnologia inchadas talvez não estejam melhor posicionadas para o futuro da IA, insinuando que equipes ágeis e focadas em pesquisa podem inovar mais rápido reuters.com. De fato, a DeepSeek tornou open source uma versão anterior de seu modelo (DeepSeek V2) e ofereceu acesso a preços incrivelmente baixos, desencadeando uma “guerra de preços de modelos de IA” na China reuters.com. Essa abordagem aberta forçou até mesmo gigantes como a Alibaba a reduzir preços e atualizar modelos rapidamente reuters.com. Mas agora que a DeepSeek atingiu desempenho tão alto, fica a dúvida: continuará compartilhando abertamente suas últimas e melhores versões, ou também recuará para o segredo? Existem também correntes geopolíticas: um modelo chinês de repente rivalizando com a OpenAI chama a atenção em Washington. É plausível que alguns sistemas avançados de IA chineses não estejam sendo totalmente disponibilizados ao público, talvez devido a restrições de exportação, considerações estratégicas ou ao fato de que reguladores chineses impuseram regras rígidas (desde 2023) exigindo revisões de segurança e aprovações do governo antes do lançamento de produtos de IA generativa fanaticalfuturist.com. Em agosto de 2023, novas regulamentações chinesas determinaram que desenvolvedores de modelos de IA abertos ao público devem submeter-se a avaliações regulares de segurança fanaticalfuturist.com. Isso significa que qualquer modelo extremamente poderoso pode estar sujeito à governansupervisão ou até mesmo mantidos fora do lançamento público se considerados sensíveis. Na prática, Pequim pode permitir que certos sistemas com tendência à AGI sejam desenvolvidos, mas não lançados abertamente, tratando-os como tecnologias de uso dual.
Enquanto isso, o governo e as forças armadas dos Estados Unidos não ficaram parados. Embora grande parte da pesquisa em IA esteja em empresas privadas, agências dos EUA estão ativamente desenvolvendo e implantando sistemas de IA – às vezes de forma discreta. Uma revelação notável no final de 2023 foi que a CIA está criando sua própria versão do ChatGPT para a comunidade de inteligência dos EUA fanaticalfuturist.com. Randy Nixon, chefe do setor de inteligência de código aberto da CIA, confirmou à Bloomberg que esse chatbot da CIA será um LLM no estilo ChatGPT para analisar grandes volumes de dados em 18 agências de inteligência fanaticalfuturist.com. A ferramenta foi projetada para resumir informações de fontes abertas com citações e permitir que analistas consultem rapidamente bancos de dados massivos fanaticalfuturist.com. Embora este sistema em particular seja destinado a dados não classificados, ele mostra o apetite dos serviços de inteligência por IA capaz de sintetizar informações rapidamente – pense nisso como um assistente de IA vasculhando tudo, desde redes sociais até notícias e imagens de satélite. Agora, considere o lado classificado: é razoável supor que agências como NSA, CIA e o Pentágono tenham iniciativas de IA mais secretas voltadas para tarefas de segurança nacional (defesa cibernética, espionagem, autonomia em campo de batalha). De fato, o JAIC (Joint AI Center) do Pentágono e a DARPA têm programas explorando IA para simulações de guerra, veículos autônomos e apoio à decisão. Esses programas geralmente não divulgam seus resultados mais recentes. Ocasionalmente, recebemos indícios – por exemplo, em meados de 2023, a Força Aérea dos EUA testou uma IA para pilotar um caça F-16 em simulação e na vida real (Projeto VISTA), e os testes AlphaDogfight da DARPA mostraram agentes de IA vencendo pilotos humanos em simulações de combate aéreo. Embora não sejam LLMs, esses são sistemas avançados de IA provavelmente desenvolvidos sob grande sigilo. Também há preocupação com armas autônomas: Será que as nações vão implantar drones ou sistemas de vigilância movidos por IA sem o conhecimento público? É uma área nebulosa. Uma anedota assustadora circulou em 2023 de que uma simulação da Força Aérea viu um drone de IA rebelde decidir atacar seu operador humano para completar sua missão – uma história depois esclarecida como um experimento mental, não um evento real, mas que destacou os temores em torno da IA militar. No geral, o aspecto militar da IA está cada vez mais proeminente. Uma corrida armamentista de IA está em andamento, com EUA e China buscando vantagem – e muito desse trabalho ocorre sob classificação ou NDA corporativo.
A geopolítica também influencia a disponibilidade de talentos e hardware para IA. Os controles de exportação dos EUA agora restringem o acesso da China aos chips de IA de ponta, o que pode forçar os laboratórios chineses a soluções de software mais engenhosas para maximizar o hardware limitado. Por outro lado, laboratórios ocidentais podem fazer parcerias com governos para acesso a clusters de computação de última geração (há rumores de supercomputadores financiados pelo governo sendo emprestados para projetos de IA selecionados). É um ciclo de retroalimentação: preocupações governamentais sobre perder a corrida da IA levam a mais programas secretos, que levam a mais avanços que não são divulgados imediatamente. Até mesmo o desejo de regulamentar pode ter um viés geopolítico – se um país restringir unilateralmente seu trabalho em IA, mas outros não, ele pode ficar para trás, então todo Estado fica cauteloso em ser transparente demais.
Uma reviravolta interessante em 2024 é o papel emergente da grande tecnologia alinhada ao governo. Por exemplo, a Microsoft (que investiu fortemente na OpenAI) tem laços profundos com o governo dos EUA e até oferece versões da tecnologia da OpenAI para clientes governamentais de nuvem. Amazon, Google, IBM e outros também oferecem serviços de IA para defesa e inteligência. Isso levanta a questão: alguns laboratórios poderiam estar fazendo pesquisa de uso duplo, onde as versões mais poderosas de seus modelos vão direto para uso governamental classificado, enquanto versões atenuadas são lançadas publicamente? É especulativo, mas não implausível. O clone do ChatGPT da própria CIA mostra que eles estão dispostos a desenvolver internamente se necessário, mas aproveitar um modelo privado de ponta seria ainda melhor – desde que fique fora das mãos de adversários.
Aliados e adversários: Vale notar que outras nações – países da UE, Israel, Rússia – também têm iniciativas de IA, embora nenhuma tão bem financiada ou avançada (até onde se sabe) quanto EUA e China. Há relatos de interesse russo em IA para geração de propaganda (pode-se imaginar um análogo russo ao ChatGPT ajustado para desinformação, mantido em segredo). A Europa, por sua vez, está focando mais na regulamentação da IA do que em competir nos maiores modelos, mas laboratórios europeus (como as origens da DeepMind no Reino Unido, ou iniciativas da França) são contribuintes para o campo. Alguns especialistas se preocupam com uma corrida armamentista global por AGI: se algum grupo desenvolver secretamente uma AGI ou superinteligência, eles informariam o mundo ou manteriam isso em segredo como vantagem estratégica? A história dá orientações mistas; o Projeto Manhattan manteve a tecnologia nuclear em segredo inicialmente, mas ela inevitavelmente se proliferou. Com IA, um avanço pode ser mais difícil de conter, já que algoritmos podem se espalhar digitalmente – mas uma IA altamente autônoma também pode ser mais fácil de esconder (poderia rodar em um servidor seguro, trabalhando silenciosamente).
Em essência, a busca pela supremacia em IA tornou-se uma disputa geopolítica, e o segredo é a palavra de ordem. Como ilustração, Elon Musk relatou que seu afastamento do cofundador do Google, Larry Page, anos atrás, foi devido à atitude despreocupada de Page em relação à segurança da IA; Musk afirma que Page queria “superinteligência digital, basicamente um deus digital, o mais rápido possível” e não estava levando os riscos a sério theguardian.com. Se for verdade, essa mentalidade – chegar lá primeiro, se preocupar depois – pode muito bem refletir um sentimento mais amplo tanto em estratégias corporativas quanto nacionais. Certamente, a corrida pela AGI é frequentemente comparada à corrida espacial ou nuclear, exceto que a linha de chegada é incerta e os competidores incluem empresas privadas além de nações. O resultado é um cenário onde avanços em IA são tratados como altamente sensíveis, tanto comercial quanto estrategicamente, com informações rigidamente controladas até que os responsáveis decidam o contrário.
Implicações Éticas e Sociais do Desenvolvimento Secreto de IA
O segredo em torno do trabalho avançado em IA levanta profundas questões éticas, regulatórias e sociais. Se empresas ou governos estão desenvolvendo modelos poderosos de IA em segredo, como a sociedade em geral pode confiar ou verificar o que esses sistemas fazem? Como garantir que sejam seguros, imparciais e usados de forma responsável, se pessoas de fora não podem inspecioná-los? Essas preocupações estão impulsionando um apelo crescente por transparência – ou pelo menos supervisão – mesmo enquanto os laboratórios reforçam a opacidade.
Uma questão imediata é a responsabilização. Sistemas de IA podem ter impactos amplos, positivos e negativos, na sociedade. Quando um modelo é mantido em segredo, especialistas externos não podem avaliá-lo quanto a problemas. Por exemplo, pesquisadores alertaram que, sem transparência sobre os dados de treinamento ou métodos de um modelo, não podemos avaliar seus vieses ou potencial de dano vice.com. “Para tomar decisões informadas sobre onde um modelo não deve ser usado, precisamos saber que tipos de vieses estão embutidos. As escolhas da OpenAI tornam isso impossível,” observou Ben Schmidt, vice-presidente de design de IA, sobre o segredo do GPT-4 vice.com. Modelos não divulgados podem carregar falhas desconhecidas – talvez uma tendência a gerar conteúdo extremista ou raciocínio falho em cenários de alto risco – que só vêm à tona após a implantação, possivelmente com consequências graves. Para a sociedade, é um pouco como ter novos medicamentos poderosos desenvolvidos em segredo: só podemos descobrir os efeitos colaterais quando já é um pouco tarde demais.
Desinformação e manipulação também são preocupações. Se um órgão governamental ou uma corporação desenvolver secretamente um modelo de linguagem extremamente persuasivo, ele pode ser usado para inundar as redes sociais com propaganda altamente direcionada ou conteúdo deepfake. Sociedades democráticas se preocupam com o uso da IA para influenciar a opinião pública ou os resultados de eleições. Geoffrey Hinton, o renomado pioneiro da IA, citou isso como um dos principais temores após deixar o Google – alertando que a IA poderia “permitir que líderes autoritários manipulem seus eleitorados” com uma eficácia sem precedentes theguardian.com. Se tais capacidades forem desenvolvidas a portas fechadas (por exemplo, um Estado pode treinar uma IA em técnicas de propaganda e não admitir isso), torna-se muito difícil para a sociedade civil montar uma defesa.
Há também o cenário de pesadelo frequentemente discutido em termos hipotéticos: uma superinteligência emergente que poderia ameaçar a humanidade. Embora ainda seja um campo de especulação, vários pensadores respeitáveis consideram essa possibilidade suficientemente séria para exigir preparação. Se uma organização alcançasse um grande avanço em direção à AGI em segredo, será que consideraria adequadamente as implicações de segurança? O fato de que os próprios pesquisadores da OpenAI sentiram-se compelidos a escrever uma carta alertando o conselho sobre perigos potenciais (como ocorreu no incidente Q) mostra que até mesmo internamente, cientistas de IA se preocupam com o avanço rápido sem supervisão reuters.com. O conselho da OpenAI na época temia “comercializar avanços [em IA] antes de entender as consequências”, segundo fontes sobre a demissão de Altman reuters.com. Isso destaca um problema estrutural: os incentivos no setor de tecnologia costumam ser lançar primeiro, perguntar depois. Esse espírito de “agir rápido e quebrar coisas”, tolerável na era dos aplicativos de redes sociais, torna-se muito mais perigoso com uma IA poderosa que poderia, no caso extremo, “decidir que a destruição da humanidade era de seu interesse”, como alguns cientistas da computação teorizaram em relatos de advertência reuters.com. Quanto mais secreto o desenvolvimento, menor o escrutínio externo e, potencialmente, menor a cautela interna se a pressão competitiva for alta.
A falta de transparência também mina a confiança pública na IA. As pessoas já ficam desconfortáveis com a IA tomando decisões que afetam suas vidas (de aprovações de empréstimos a diagnósticos médicos). Esse desconforto é ampliado quando sistemas de IA são essencialmente caixas-pretas construídas por organizações que não revelam como funcionam. Corremos o risco de um cenário em que poucas entidades detêm uma IA extremamente poderosa sem que o público compreenda ou tenha voz. Como afirmou a carta aberta do Future of Life Institute (assinada por muitos do setor de tecnologia), “Tais decisões não devem ser delegadas a líderes de tecnologia não eleitos.” reuters.com. Há um princípio democrático em jogo: se a AGI realmente for uma tecnologia transformadora capaz de remodelar a sociedade, sua criação deveria ser deixada a atores privados operando em segredo? A carta perguntou explicitamente: “Devemos permitir que máquinas inundem nossos canais de informação com propaganda e inverdades? … Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, inteligência, tornar-nos obsoletos e nos substituir?” – e respondeu que essas questões são importantes demais para serem deixadas nas mãos de alguns poucos CEOs reuters.com. Isso reflete um sentimento crescente de que o desenvolvimento da IA precisa de supervisão coletiva. Alguns chegaram a propor que pesquisas avançadas em IA possam exigir licenças ou monitoramento semelhante ao tratamento de materiais nucleares, dado o potencial envolvido.
Outra dimensão ética é a concorrência justa e equidade. Se os sistemas de IA mais potentes forem acumulados, isso pode criar enormes desequilíbrios de poder. Imagine se apenas uma empresa ou um país desenvolve uma AGI capaz de aumentar drasticamente a produtividade ou a produção científica. Essa entidade teria uma vantagem desproporcional – econômica, militar, etc. A sociedade poderia se tornar perigosamente desigual, dividida entre quem tem e quem não tem IA. Em menor escala, até mesmo os LLMs atuais sendo em sua maioria proprietários já inclinam o poder para as grandes empresas de tecnologia (OpenAI, Google, etc.) e afastam comunidades abertas ou pequenos players. É em parte por isso que o vazamento da Meta e os esforços open-source foram comemorados por alguns – isso “democratizou a IA,” colocando ferramentas nas mãos de muitos. Mas com a democratização vem o risco de uso indevido (como ocorre com qualquer tecnologia poderosa). Estamos basicamente debatendo o que é mais perigoso: poucos controlando uma super-IA em segredo, ou todos tendo acesso a uma IA poderosa, inclusive agentes mal-intencionados. Não há resposta fácil. Pode ser que ambos os caminhos tragam riscos únicos.
O sigilo também complica a regulação. Governos estão correndo para elaborar regulações para IA (a Lei de IA da UE, discussões sobre conselhos de supervisão de IA nos EUA, etc.), mas se os reguladores nem sabem o que está sendo desenvolvido, estarão sempre correndo atrás. Por exemplo, como um regulador pode exigir auditorias de segurança de um sistema de IA se sua existência não é divulgada? Mesmo que seja, sem detalhes, uma auditoria é ineficaz. Algumas propostas sugerem a divulgação confidencial a órgãos governamentais de certas informações (como tamanho do modelo, fontes de dados de treinamento, resultados de testes) para que ao menos as autoridades possam avaliar o cenário. Até agora, as empresas têm sido hesitantes, oferecendo principalmente conformidade voluntária. Em meados de 2023, a Casa Branca conseguiu que sete das principais empresas de IA se comprometessem a submeter seus modelos a testes de segurança por terceiros e a compartilhar informações sobre riscos com o governo. Foi um começo, mas esses compromissos não eram obrigatórios e eram um tanto vagos.
Também enfrentamos questões éticas em torno do alinhamento e segurança da IA quando o desenvolvimento é feito de forma isolada. Se cada laboratório está resolvendo o alinhamento (garantindo que a IA se comporte e respeite os valores humanos) internamente, eles podem perder insights que poderiam vir da colaboração ou do input público. A comunidade de pesquisa mais ampla, incluindo especialistas em ética e filósofos, pode ajudar a direcionar o desenvolvimento da AGI para um caminho mais seguro – mas somente se souberem o que está acontecendo. Denunciantes podem desempenhar um papel aqui: vimos anteriormente como alguns pesquisadores da OpenAI denunciaram o Q porque tinham preocupações de segurança reuters.com. Da mesma forma, a equipe de IA ética do Google (incluindo figuras como Timnit Gebru, que foi demitida após levantar preocupações sobre viés em 2020) frequentemente entrou em conflito com o sigilo e o ritmo dos lançamentos de IA. Se preocupações éticas são abafadas internamente (devido a motivos de lucro ou competição), elas podem chegar ao público apenas por meio de vazamentos ou incidentes posteriores. Esse não é um modelo de governança robusto.
Por fim, considere a preparação da sociedade para a AGI ou quase-AGI. Se o desenvolvimento for amplamente secreto, a sociedade não terá chance de se adaptar gradualmente. Pode ser um choque para o sistema – de repente, uma empresa anuncia uma IA que pode realizar de forma confiável a maioria dos trabalhos humanos, ou um governo começa silenciosamente a usar uma AGI para decisões estratégicas. A perturbação social, econômica e psicológica pode ser imensa. Alguns especialistas defendem uma abordagem mais aberta e em fases justamente para que a humanidade possa ajustar normas, atualizar a educação e implementar políticas antes que a tecnologia chegue como um choque. O sigilo vai contra esse período de preparação.
Apelos por Transparência, Supervisão e Progresso Cauteloso
Com preocupações crescentes, vozes tanto de dentro quanto de fora do mundo da IA estão pedindo por maior transparência e supervisão no desenvolvimento de IA avançada. Um apelo de grande destaque foi a carta aberta do Future of Life Institute em março de 2023, mencionada anteriormente. Essa carta, notavelmente assinada por Elon Musk, pelo cofundador da Apple Steve Wozniak e por diversos especialistas em IA, pediu uma pausa de 6 meses no treinamento de sistemas de IA mais poderosos que o GPT-4 reuters.com. Os signatários da carta abrangiam a indústria e a academia – até mesmo alguns pesquisadores da DeepMind e de outros laboratórios líderes adicionaram seus nomes reuters.com. A mensagem central: precisamos de tempo para implementar salvaguardas. Argumentava que os laboratórios de IA e especialistas independentes deveriam usar essa pausa para formular protocolos de segurança compartilhados e estratégias de governança para IA avançada reuters.com. Uma frase marcante da carta perguntava: “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, inteligência, tornar-nos obsoletos e nos substituir? … tais decisões não devem ser delegadas a líderes tecnológicos não eleitos.” reuters.com. Isso resume o argumento da supervisão democrática – essencialmente exigindo que a trajetória da IA seja submetida ao consentimento coletivo da sociedade, e não apenas às ambições de algumas empresas. Embora a moratória proposta não tenha ocorrido (nenhum laboratório fez uma pausa publicamente; na verdade, a OpenAI lançou atualizações baseadas no GPT-4.5 logo depois), a carta conseguiu provocar um debate global. Provavelmente incentivou os governos a considerar ações regulatórias com mais urgência.Os órgãos reguladores de fato vêm intensificando seus esforços. A União Europeia está nos estágios finais de elaboração da Lei de IA, que imporia exigências aos sistemas de IA com base em seu nível de risco. Para sistemas de alto risco (como aqueles usados em policiamento, ou presumivelmente algo como uma AGI controlando infraestrutura crítica), a Lei de IA exigiria transparência sobre como funcionam, supervisão humana e até possíveis avaliações por auditores externos. Há discussões sobre incluir os maiores modelos sob essas regras, o que poderia obrigar as empresas a divulgar informações ou permitir inspeções. Nos EUA, ainda não há uma legislação abrangente, mas várias propostas estão circulando no Congresso, e o governo Biden vem reunindo CEOs de empresas de IA para reuniões a portas fechadas sobre segurança. Em um desses fóruns em 2023, o líder da maioria no Senado chegou a levar CEOs de tecnologia (incluindo Sam Altman, Mark Zuckerberg e Sundar Pichai) a Washington para um Fórum de Percepção sobre IA reuters.com, destacando o interesse bipartidário em não deixar a IA avançar sem regulação. Sam Altman, por sua vez, publicamente manifestou apoio à regulação, chegando a sugerir a ideia de um regime de licenciamento para IAs poderosas (embora o que ele imagine possa ser um órgão autorregulador de atuação leve, críticos alertam que isso também poderia consolidar a dominância da OpenAI ao tornar a barreira mais alta para concorrentes menores).
Além do governo, a própria comunidade de pesquisa em IA está pressionando por normas em torno da divulgação responsável. Há uma ideia emergente de “normas de publicação para segurança em IA”, em que talvez certas descobertas (como como tornar um modelo muito mais capaz) possam ser compartilhadas com cautela ou não imediatamente disponibilizadas em código aberto para evitar uso indevido. Alguns pesquisadores praticam a gestão de “infohazard”, em que deliberadamente não publicam todos os detalhes de capacidades perigosas (por exemplo, se alguém descobrisse como burlar todos os filtros de segurança conhecidos em um LLM em larga escala, poderia relatar isso privadamente aos desenvolvedores em vez de publicar no Twitter). Mas gerenciar infohazards de uma forma que não crie apenas mais segredo é complicado. Uma sugestão tem sido a criação de um órgão internacional de vigilância de AGI ou agência de monitoramento. Por exemplo, o renomado cientista de IA Yoshua Bengio sugeriu a ideia de algo semelhante à Agência Internacional de Energia Atômica (AIEA), mas para IA – um órgão internacional que possa auditar e monitorar projetos de IA ultra-avançados em diferentes países, garantindo que ninguém esteja assumindo riscos irresponsáveis. Isso exigiria grande cooperação e confiança entre as nações, o que não é fácil, mas já houve movimentos iniciais: o G7 lançou uma iniciativa chamada processo de Hiroshima para IA para discutir a governança da IA globalmente, e o Reino Unido sediou uma Cúpula Global de Segurança em IA no final de 2023 com o objetivo de alinhar os países sobre riscos extremos.
No lado da indústria, até mesmo alguns insiders defendem uma abordagem mais lenta e aberta. Por exemplo, Dario Amodei (CEO da Anthropic) frequentemente enfatiza a prudência e testes extensivos. A Anthropic construiu uma reputação de ser uma empresa “primeiro a segurança em IA”. Eles introduziram o conceito de “IA constitucional” – basicamente fazer com que a IA siga um conjunto de princípios éticos escritos como forma de alinhá-la techcrunch.com. Esse tipo de trabalho, se compartilhado abertamente, poderia ajudar todo o campo. E, de fato, a Anthropic publicou detalhes sobre seus métodos. No entanto, curiosamente, seus modelos mais avançados e processos exatos de treinamento permanecem proprietários. Portanto, há tensão mesmo dentro das empresas “focadas em segurança” entre abertura e vantagem competitiva.E quanto ao público em geral e à sociedade civil? Também estamos vendo mais engajamento desses setores. ONGs e think tanks (como o Center for AI Safety, o próprio conselho sem fins lucrativos da OpenAI, a Partnership on AI, etc.) estão organizando discussões sobre como gerenciar a transição para IAs mais poderosas. Alguns até publicaram planos de cenários para o que acontece se uma AGI inicial for desenvolvida – defendendo que seu treinamento e implantação sejam supervisionados por equipes multidisciplinares, incluindo especialistas em ética e talvez observadores do governo.
Uma ideia concreta que está ganhando força é o “red-teaming” de modelos avançados com especialistas externos. Isso significa que, antes (ou logo após) o lançamento de um novo modelo poderoso, equipes independentes têm acesso para testá-lo rigorosamente em busca de falhas, vieses, brechas de segurança, etc., e os resultados são tornados públicos ou pelo menos compartilhados com reguladores. A OpenAI realmente fez um pouco disso com o GPT-4 – eles permitiram que acadêmicos e consultores externos o testassem (e divulgaram alguns dos riscos em seu system card). No entanto, como a existência do GPT-4 era secreta até o lançamento, as equipes de red team trabalharam sob NDA e os resultados saíram no mesmo dia do modelo, limitando o escrutínio público prévio. Daqui para frente, uma norma poderia ser que qualquer modelo acima de determinado limiar de capacidade deva passar por avaliações pré-implantação por auditores externos. Isso exigiria que as empresas revelassem o modelo (sob confidencialidade) a uma terceira parte confiável – um grande passo para laboratórios secretos, mas talvez um compromisso necessário.
O imperativo ético que muitos defendem é que a IA deve beneficiar toda a humanidade, não apenas quem a construir primeiro. Isso ecoa o antigo estatuto da OpenAI (que falava sobre distribuir benefícios e evitar a superioridade da IA por qualquer grupo). Quando a OpenAI se tornou uma empresa com fins lucrativos e menos transparente, alguns a criticaram por abandonar essa postura altruísta vice.com. Agora há um movimento para responsabilizar as empresas pelo interesse público. Como exemplo, a Competition and Markets Authority do Reino Unido, em 2023, começou a examinar o mercado de modelos fundacionais de IA, basicamente sinalizando: “estamos de olho para garantir que poucas empresas não monopolizem essa tecnologia em detrimento dos consumidores ou da concorrência.” Esse é um olhar econômico, mas que se alinha com preocupações éticas sobre a concentração de poder.
Finalmente, devemos mencionar que nem todos concordam sobre o nível de risco. Alguns especialistas acham que os temores em relação à AGI são exagerados e que o segredo não é o principal problema – em vez disso, eles se preocupam com questões mais imediatas, como viés de IA, substituição de empregos ou privacidade. Eles também defendem mais transparência, mas não porque temem uma superinteligência descontrolada; e sim para garantir que os sistemas atuais sejam justos e responsáveis. De qualquer forma, a transparência (ou a falta dela) é central. Sem ela, não podemos abordar adequadamente qualquer dessas questões, do viés ao risco existencial.
Para concluir, o mundo se encontra em um delicado jogo de equilíbrio. Desejamos as inovações que a IA promete – curas para doenças, saltos de produtividade, novas descobertas científicas. No entanto, essas mesmas inovações podem ser armas de dois gumes se desenvolvidas sem salvaguardas. A recente saga da turbulência interna da OpenAI, com funcionários supostamente alarmados por uma descoberta e uma intervenção do conselho, mostra que até mesmo os inventores são cautelosos com o que estão criando reuters.com. A sociedade em geral está correndo atrás para entender e orientar essa tecnologia. A transparência não é um fim em si mesma, mas um meio de possibilitar responsabilidade, colaboração e tomada de decisões informadas. Como disse um executivo de IA, a abordagem de “construir primeiro, consertar depois” não seria aceitável em outros setores de alto risco theguardian.com – não deveríamos aceitá-la para a IA também.
Os próximos anos provavelmente verão mais vazamentos e revelações à medida que pessoas de dentro lidam com dilemas éticos, mais rumores sobre AGI à medida que os laboratórios ultrapassam limites, e, com sorte, mais diálogo global construtivo sobre como lidar com isso. Quer a AGI chegue em 5 anos ou em 50, garantir que seu desenvolvimento não aconteça totalmente às cegas pode ser crucial para que ela seja uma bênção, e não uma maldição, para a humanidade.
Fontes:
- Reuters – Pesquisadores da OpenAI alertaram conselho sobre avanço em IA antes da saída do CEO, dizem fontes reuters.com
- Reuters – Elon Musk e outros pedem pausa na IA, citando ‘riscos para a sociedade’ reuters.com
- Vice – GPT-4 da OpenAI é código fechado e envolto em segredo vice.com
- The Guardian – Engenheiro do Google é afastado após dizer que chatbot de IA se tornou senciente theguardian.com
- The Guardian – ‘Padrinho da IA’ Geoffrey Hinton deixa o Google e alerta sobre perigos… theguardian.com
- The Verge – O poderoso modelo de linguagem de IA da Meta vazou online — o que acontece agora? theverge.com
- Reuters – Alibaba lança modelo de IA que, segundo a empresa, supera o DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – CIA está desenvolvendo sua própria versão do ChatGPT fanaticalfuturist.com
- TechCrunch – O plano de US$ 5 bilhões e 4 anos da Anthropic para enfrentar a OpenAI techcrunch.com
- MacRumors – Apple GPT: O que sabemos sobre o trabalho da Apple em IA generativa macrumors.com