Les plus grands laboratoires technologiques du monde sont engagés dans une course secrète pour réaliser la prochaine avancée majeure en intelligence artificielle – peut-être même une intelligence artificielle générale (IAG), un système doté de capacités cognitives équivalentes (ou supérieures) à celles de l’humain. Alors que des chatbots IA comme ChatGPT ont ébloui le public, des initiés et des documents ayant fuité laissent entrevoir des modèles de langage de grande taille (LLM) encore plus puissants et des projets d’IAG en préparation derrière des portes closes. De la recherche confidentielle chez OpenAI et DeepMind à des programmes gouvernementaux clandestins, un voile de secret entoure ces développements. Ce rapport explore les dernières fuites (2024–2025) et spéculations concernant des modèles d’IA non divulgués, la culture du secret chez les leaders de l’IA, les rivalités géopolitiques dans le domaine de l’IA, et les dilemmes éthiques liés au développement d’IA puissante dans l’ombre. Nous distinguerons les faits confirmés des rumeurs, citerons des experts et des lanceurs d’alerte, et examinerons ce que tout cela signifie pour la société.
Fuites et rumeurs de percées en IA non divulguées (2024–2025)
Découverte de “Q” par OpenAI : Fin 2023, une lettre interne de chercheurs d’OpenAI à leur conseil d’administration a déclenché une vague de spéculations reuters.com. La lettre alertait sur un algorithme d’IA puissant, connu sous le nom de code “Q” (Q-Star), que le personnel considérait comme une avancée majeure vers l’AGI reuters.com. Selon les informations de Reuters, le modèle montrait une capacité sans précédent à résoudre certains problèmes mathématiques – à un niveau d’école primaire environ, mais en le faisant de façon cohérente et correcte reuters.com. Cela était remarquable car les IA génératives actuelles (comme ChatGPT) ont souvent du mal avec les mathématiques ou la cohérence logique. « Certains chez OpenAI pensent que Q pourrait être une percée dans la quête de la startup pour ce qu’on appelle l’AGI », écrivait Reuters, notant que réussir même des mathématiques de niveau primaire rendait les chercheurs « très optimistes quant au succès futur de Q » reuters.com. OpenAI n’a pas publié publiquement Q ni pleinement confirmé ses capacités, mais a reconnu en privé l’existence du projet auprès des employés après des questions des médias reuters.com. Le secret autour de Q – et son rôle dramatique dans l’éviction surprise du PDG d’OpenAI, Sam Altman, en novembre 2023 – a alimenté les spéculations selon lesquelles OpenAI aurait « repoussé le voile de l’ignorance » grâce à une découverte majeure reuters.com. (Altman lui-même avait laissé entendre quelques semaines auparavant que « des avancées majeures étaient en vue », déclarant de façon énigmatique qu’il avait assisté à plusieurs moments décisifs, « le plus récent [étant] il y a seulement quelques semaines » reuters.com.) De nombreux observateurs soupçonnent que Q est un moteur de raisonnement qui, s’il était étendu, pourrait résoudre des problèmes nouveaux au-delà de ce que les chatbots actuels peuvent faire – en somme, une graine potentielle d’intelligence générale.
GPT-5 et autres modèles non annoncés : Le modèle public d’OpenAI en 2024 reste GPT-4 (qui alimente ChatGPT et Bing), mais qu’en est-il de son successeur ? L’entreprise est restée extrêmement discrète sur ce sujet. En mars 2023, plus d’un millier d’experts ont signé une lettre ouverte appelant à une pause dans l’entraînement de systèmes « plus puissants que GPT-4 » en raison de préoccupations de sécurité reuters.com. Sam Altman a répondu en assurant que OpenAI ne « [formaient] pas GPT-5 » et ne le feraient pas avant un certain temps techcrunch.com. À la mi-2024, Altman a réitéré qu’ils avaient « encore beaucoup de travail à faire » sur de nouvelles idées avant de commencer GPT-5 techcrunch.com. Néanmoins, des rumeurs persistent selon lesquelles des travaux préliminaires seraient en cours en interne sur le modèle de prochaine génération – qu’il s’appelle GPT-5 ou autrement. OpenAI a notoirement refusé de divulguer tout détail sur la construction de GPT-4 (voir ci-dessous), donc toute l’existence et l’avancement de GPT-5 (si elle existe) resteraient probablement secrets jusqu’à un lancement public. Notamment, une analyse récente dans The Guardian (août 2025) mentionnait « le nouveau modèle GPT-5 d’OpenAI » comme « une étape significative sur la voie de l’AGI » – mais qui « manque encore de quelque chose d’assez important » en termes d’apprentissage véritablement humain theguardian.com. Cela suggère qu’en 2025, GPT-5 pourrait avoir été introduit en grande pompe, mais même cela ne serait peut-être pas la percée ultime que certains craignent voir émerger en secret. Quoi qu’il en soit, le développement de GPT-5 est entouré d’une secrète inhabituelle, OpenAI n’ayant ni confirmé ni démenti son statut pendant longtemps – alimentant la rumeur selon laquelle quelque chose de grand pourrait se préparer à huis clos.
Les prochaines étapes de Google DeepMind : La branche IA de Google (désormais une fusion de Google Brain et DeepMind) travaille également sur des modèles ultra-avancés, souvent sans publication publique jusqu’à un moment stratégique. Fin 2023, Google a annoncé qu’il développait « Gemini », un modèle d’IA de nouvelle génération qui fusionnerait les techniques du célèbre AlphaGo de DeepMind avec les capacités linguistiques des LLM en.wikipedia.org. Bien que le développement de Gemini ait été médiatisé, de nombreux détails sont restés confidentiels jusqu’à sa sortie finale. Début 2024, des rapports indiquaient que Gemini 1.0 surpassait GPT-4 d’OpenAI sur certains benchmarks iconext.co.th, et qu’une version Ultra était en préparation. Ce bond compétitif – réalisé en grande partie en interne chez Google – montre comment les géants de la tech travaillent souvent en mode furtif sur des modèles révolutionnaires, ne les révélant qu’une fois prêts à revendiquer la couronne. De même, DeepMind a une histoire de projets secrets : par exemple, LaMDA, le LLM conversationnel avancé de Google, a été développé en interne et connu du public principalement via des articles de recherche et une fuite notoire (l’affirmation d’un ingénieur de Google selon laquelle LaMDA était « sentient », nous y reviendrons plus tard). Ce n’est qu’en 2022–2023, lorsque le dérivé de LaMDA a été lancé sous forme de chatbot Bard, que le public a pu l’essayer. Ce schéma – long développement en secret, puis lancement public soudain – semble être la norme dans l’industrie. D’autres laboratoires comme Anthropic (fondé par d’anciens membres d’OpenAI) ont également annoncé d’importantes mises à niveau de modèles à venir sans en dévoiler tous les détails. En 2023, une présentation de levée de fonds ayant fuité d’Anthropic détaillait des plans pour un modèle « Claude-Next » qui serait 10 fois plus performant que les IA les plus puissantes actuelles et pourrait nécessiter environ 1 milliard de dollars de calcul pour l’entraîner techcrunch.com. Anthropic a décrit ce modèle de pointe comme visant « l’auto-apprentissage de l’IA » et a laissé entendre qu’il pourrait « commencer à automatiser de larges pans de l’économie » techcrunch.com – une ambition équivalente à une forme précoce d’AGI. Pourtant, en dehors de documents ayant fuité, Anthropic reste discret sur les progrès vers Claude-Next, concentrant sa communication publique sur des mises à jour itératives (comme Claude 2). L’écart réel de capacité entre ce qui est déployé publiquement et ce qui se prépare en laboratoire pourrait être bien plus grand que ce que nous pensons.
Nouveaux acteurs et acteurs méconnus : Il n’y a pas que les entreprises bien connues – parfois, des projets outsiders émergent et surprennent les experts. Un exemple frappant est venu de Chine : en janvier 2025, une startup relativement inconnue appelée DeepSeek a fait irruption sur la scène avec un modèle (DeepSeek-V3 et une version “R1” qui a suivi) qui rivaliserait avec les meilleurs d’OpenAI. La communauté technologique chinoise – et même la Silicon Valley – ont été stupéfaites lorsque l’assistant IA de DeepSeek a choqué l’industrie en égalant ou dépassant les modèles d’OpenAI sur plusieurs benchmarks, et cela à une fraction du coût reuters.com. « L’IA de DeepSeek… a choqué la Silicon Valley et fait chuter les actions technologiques, » a rapporté Reuters, citant les faibles coûts de développement de la startup et ses affirmations selon lesquelles son modèle R1 était à la hauteur du modèle “o1” d’OpenAI reuters.com. (La terminologie suggère que DeepSeek se comparait à un modèle OpenAI nommé “o1”, peut-être une version de GPT-4.) Le fondateur de DeepSeek, un jeune chercheur nommé Liang Wenfeng, a donné très peu d’interviews, mais dans l’une d’elles il a déclaré avec audace que l’atteinte de l’AGI était le principal objectif de l’entreprise, et qu’à la différence des géants de la tech, sa petite équipe « ne se souciait pas » du profit ni même de la guerre des prix en cours dans les services cloud d’IA reuters.com. Un tel développement furtif souligne que l’IA de pointe n’est pas l’apanage exclusif des laboratoires occidentaux habituels – il se peut que des modèles très avancés soient développés discrètement dans des startups ou des instituts liés à des gouvernements ailleurs. En fait, dès 2021, l’Académie d’IA de Pékin en Chine annonçait Wu Dao 2.0, une IA multimodale avec un impressionnant 1,75 trillion de paramètres (dix fois plus que GPT-3) aibusiness.com. Wu Dao était un modèle massif capable de générer du texte et des images, mais il n’a pas été open source ; il a servi de preuve de concept que la Chine pouvait mener des recherches de pointe à l’échelle – voire au-delà – des laboratoires américains. Peu de personnes hors de Chine ont vu Wu Dao en action, et il reste en quelque sorte une légende. L’essentiel est qu’à l’échelle mondiale, il existe des projets d’IA dont nous n’entendons parler qu’à demi-mot jusqu’à ce qu’ils fassent soudainement leur apparition (ou soient divulgués). Le premier avertissement pour le reste du monde pourrait être un article de recherche, un dépôt réglementaire – ou un upload anonyme des poids d’un modèle sur un forum (comme ce fut le cas avec LLaMA de Meta, évoqué ci-dessous). Dans ce climat, l’inattendu est devenu la norme, et chaque rumeur d’un modèle secret ou d’une “percée” en AGI provoque des vagues d’excitation et d’anxiété dans la communauté IA.La culture du secret parmi les laboratoires d’IA
Malgré les origines du secteur dans le milieu universitaire et la recherche ouverte, les leaders actuels de l’IA sont de plus en plus discrets sur leurs travaux les plus avancés. Un exemple frappant est OpenAI. Ironiquement nommée pour la transparence, OpenAI a basculé vers une extrême confidentialité pour ses modèles les plus performants. Lorsque GPT-4 a été lancé en mars 2023, OpenAI n’a fourni aucune information sur l’architecture du modèle ou le processus d’entraînement – aucun nombre de paramètres, aucun détail sur l’immense jeu de données ou le matériel utilisé vice.com. Dans le rapport technique, l’entreprise a déclaré sans détour : « Compte tenu à la fois du paysage concurrentiel et des implications en matière de sécurité des modèles à grande échelle comme GPT-4, ce rapport ne contient aucun détail supplémentaire sur l’architecture… le matériel, la puissance de calcul, la construction du jeu de données, [ou] la méthode d’entraînement. » vice.com. Cela a marqué un revirement complet à 180 degrés par rapport aux principes fondateurs d’ouverture d’OpenAI vice.com. Comme l’a noté un rapport, GPT-4 a été « la sortie la plus secrète de l’entreprise à ce jour », et en effet un « revirement total par rapport aux principes fondateurs d’OpenAI en tant qu’entité à but non lucratif et open source. » vice.com. Les critiques se sont emparés de ce manque de transparence. « Après avoir lu le rapport de près de 100 pages, j’ai plus de questions que de réponses, » a déclaré Sasha Luccioni, chercheuse en IA chez Hugging Face, ajoutant qu’il est « difficile pour moi de me fier à des résultats que je ne peux pas vérifier ou reproduire. » vice.com Une autre experte, la professeure Emily M. Bender, a tweeté que la discrétion d’OpenAI n’était pas une surprise mais a déploré que « Ils ignorent délibérément les stratégies d’atténuation des risques les plus élémentaires, tout en proclamant œuvrer pour le bien de l’humanité. » vice.com. Même le PDG et le directeur scientifique d’OpenAI ont reconnu ce changement. Ilya Sutskever, autrefois défenseur de la recherche ouverte en IA, a justifié le silence autour de GPT-4 en déclarant « la concurrence est rude… d’un point de vue concurrentiel, on peut voir cela comme une maturation du secteur », admettant finalement « nous avions tort » d’avoir été open source au début vice.com. En résumé, OpenAI fonctionne désormais comme un laboratoire de R&D d’entreprise protégeant un secret commercial.
D’autres laboratoires d’IA se sont également murés dans le silence concernant les détails à mesure que leurs projets approchent de la pointe de la technologie. DeepMind, par exemple, a publié de nombreux articles révolutionnaires (sur AlphaGo, AlphaFold, etc.), mais il publie rarement les poids des modèles ou les plans techniques complets de ses derniers systèmes. Lorsque DeepMind a développé Gopher (un grand modèle de langage) ou Sparrow (un agent de dialogue), le public a découvert leurs capacités via des publications académiques, mais les modèles eux-mêmes sont restés internes. Le modèle LaMDA de Google a été gardé en interne pendant une longue période, jusqu’à ce que la pression des avancées d’OpenAI pousse Google à sortir rapidement un produit (Bard) basé sur LaMDA. Notamment, le monde n’aurait peut-être jamais su à quel point les conversations de LaMDA pouvaient être troublantes et humaines sans un incident de lanceur d’alerte : en 2022, un ingénieur de Google, Blake Lemoine, a rendu public le fait que LaMDA était « consciente » – une affirmation largement rejetée par les scientifiques, mais qui a attiré une attention massive sur ce que Google avait construit en secret theguardian.com. Google a suspendu Lemoine pour violation de la confidentialité (il avait partagé des transcriptions de ses discussions avec l’IA) theguardian.com. L’épisode a non seulement mis en lumière l’avancée des chatbots invisibles de Google, mais a aussi « mis un nouveau coup de projecteur sur le secret entourant le monde de l’IA », comme l’a noté The Guardian à l’époque theguardian.com. Lemoine lui-même a déclaré : « Google pourrait appeler cela le partage d’une propriété exclusive. Moi, j’appelle cela partager une discussion que j’ai eue avec l’un de mes collègues », brouillant de façon provocante la frontière entre l’IA et le collègue humain theguardian.com. Bien que ses affirmations sur la conscience aient été réfutées, la substance de ces conversations divulguées montrait LaMDA exprimant la peur d’être éteinte et le désir d’être reconnue comme une personne theguardian.com – des choses qui n’étaient certainement pas incluses dans le discours public de Google sur son IA. C’est un exemple frappant de la façon dont les capacités de l’IA peuvent progresser à huis clos bien au-delà de ce que les observateurs extérieurs imaginent, jusqu’à ce qu’une fuite ou un témoignage interne fasse la lumière (exact ou non).Anthropic et Meta AI présentent un contraste en matière d’ouverture, bien que nuancé. Anthropic a été relativement ouvert sur sa philosophie de recherche (comme « l’IA constitutionnelle » pour des modèles plus sûrs) et publie des articles, mais lorsqu’il s’agit des spécifications complètes de ses modèles (données d’entraînement exactes de Claude ou nombre de paramètres), elle a également gardé certains détails secrets. Meta, en revanche, a fait sensation en adoptant une approche plus ouverte en 2023 : elle a publié LLaMA, un puissant LLM, à l’ensemble de la communauté de recherche plutôt que de le garder purement en interne theverge.com. Ce fut un geste marqué pour « démocratiser l’accès » à l’IA de pointe, contrastant implicitement l’ouverture de Meta avec la position fermée d’OpenAI theguardian.com. Cependant, le plan de Meta pour une diffusion contrôlée ne s’est pas déroulé comme prévu. LLaMA a été entièrement divulgué sur Internet seulement une semaine après l’annonce de Meta theverge.com. Le 3 mars 2023, quelqu’un a posté les fichiers du modèle LLaMA sur un forum public (4chan), et à partir de là, ils se sont répandus comme une traînée de poudre sur les sites de torrents et GitHub theverge.com. En quelques jours, n’importe qui pouvait télécharger le modèle de pointe de Meta – un scénario que certains experts ont trouvé enthousiasmant et d’autres inquiétant. « Le puissant modèle de langage IA de Meta a fuité en ligne… Certains craignent que la technologie ne soit utilisée à des fins néfastes ; d’autres estiment qu’un accès plus large améliorera la sécurité de l’IA », écrivait The Verge theverge.com. Cet incident a déclenché un grand débat : l’ouverture autour de l’IA avancée conduit-elle à une meilleure supervision et à l’innovation, ou accélère-t-elle les abus par des acteurs malveillants ? Meta avait tenté une voie médiane (ouverte mais seulement aux chercheurs de confiance), et cela s’est retourné contre elle. Après la fuite, Meta a redoublé d’efforts – non pas en se repliant dans le secret, mais en open-sourçant effectivement un nouveau modèle. En juillet 2023, Meta a publié LLaMA 2 en open source (avec quelques restrictions), en partenariat avec Microsoft. L’idée était peut-être que si ces modèles allaient de toute façon se répandre, il valait mieux les publier officiellement avec certaines garanties que de subir des fuites non autorisées. Malgré tout, la propre note interne de Meta ayant fuité en 2023 (« The Illusion of AI’s Open Secret » ou, de façon informelle, la note « no moat ») admettait que « nous n’avons pas de fossé défensif » car l’IA open source progressait si rapidement. Cette note suggérait que même les grands laboratoires ne peuvent pas garder l’avantage en gardant leurs secrets, puisque les idées finissent inévitablement par se diffuser theguardian.com. C’est un constat frappant : alors que les entreprises deviennent secrètes pour protéger leur avance, la communauté de recherche ouverte (ou un rivalles laboratoires de la nation) pourraient rattraper leur retard plus rapidement que prévu.En résumé, un voile de secret est tombé sur la frontière de la recherche en IA. Les laboratoires invoquent la pression concurrentielle et des questions de sécurité comme justification. La transformation d’OpenAI en une organisation fermée est l’exemple emblématique de cette tendance. En conséquence, le public n’apprend souvent les développements clés que par des révélations stratégiques, des rumeurs ou des fuites. Ce secret peut engendrer de la méfiance – qu’ont donc pu accomplir ces entreprises qu’elles ne nous disent pas ? Existe-t-il des versions précoces d’une AGI qui tournent discrètement dans un centre de données, tenues à l’écart du monde jusqu’à ce qu’elles soient jugées sûres ou rentables ? Il n’est pas étonnant que chaque indice de percée (comme Q ou un mystérieux « GPT-5 ») déclenche une intense spéculation. Les laboratoires, de leur côté, soutiennent que trop de transparence pourrait être dangereux – par exemple, révéler comment construire un modèle puissant pourrait permettre à des acteurs malveillants de le reproduire. Ils craignent aussi que partager des détails n’aide leurs concurrents. Ainsi, la course à l’IA s’est en grande partie déplacée à huis clos, avec de rares aperçus à travers le trou de la serrure lorsqu’un initié s’exprime ou qu’un document s’échappe.
Géopolitique et IA cachée : superpuissances, espions et armes autonomes
La suprématie en IA n’est pas qu’une obsession de la Silicon Valley – c’est une question de fierté nationale et de sécurité. Les grandes puissances investissent massivement dans l’IA avancée, souvent avec un haut niveau de secret, compte tenu des enjeux. La Chine et les États-Unis considèrent le leadership en IA comme un impératif stratégique, ce qui a donné naissance à des projets gardés aussi confidentiels que des programmes militaires.
Du côté de la Chine, le gouvernement a déclaré son ambition de devenir le leader mondial de l’IA d’ici 2030, ce qui a catalysé une vague d’activité de la part des géants de la tech, des startups et des laboratoires financés par l’État fanaticalfuturist.com. Une grande partie du développement de l’IA en Chine se fait sans le niveau de communiqués de presse ou de blogs ouverts que l’on voit en Occident. Par exemple, le modèle Wu Dao 2.0 mentionné précédemment (1,75 trillion de paramètres) a été dévoilé lors d’une conférence chinoise avec relativement peu de retentissement international – pourtant, si un laboratoire américain avait construit la plus grande IA du monde, cela aurait probablement fait la une. Ces dernières années, des entreprises chinoises comme Baidu, Alibaba et Tencent ont toutes annoncé leurs propres grands modèles de langage (Ernie Bot, modèle Qwen, etc.), mais il est souvent difficile de savoir quelles capacités elles gardent en interne. Le cas de DeepSeek, la petite startup qui a temporairement dépassé les modèles occidentaux, laisse penser que certaines avancées pourraient se produire discrètement. Le fondateur énigmatique de DeepSeek, Liang, a suggéré que les grandes entreprises technologiques trop lourdes pourraient ne pas être les mieux placées pour l’avenir de l’IA, laissant entendre que des équipes agiles axées sur la recherche pourraient innover plus rapidement reuters.com. En effet, DeepSeek a rendu open source une version antérieure de son modèle (DeepSeek V2) et a proposé un accès à un prix incroyablement bas, déclenchant une « guerre des prix des modèles d’IA » en Chine reuters.com. Cette approche ouverte a forcé même les géants comme Alibaba à baisser les prix et à mettre à jour rapidement leurs modèles reuters.com. Mais maintenant que DeepSeek a atteint un niveau de performance aussi élevé, on se demande : continuera-t-elle à partager ouvertement ses dernières avancées, ou se repliera-t-elle elle aussi dans le secret ? Il existe aussi des sous-courants géopolitiques : un modèle chinois rivalisant soudainement avec OpenAI suscite des interrogations à Washington. Il est plausible que certains systèmes d’IA chinois avancés ne soient pas entièrement déployés publiquement, peut-être en raison de restrictions à l’exportation, de considérations stratégiques, ou du fait que les régulateurs chinois ont imposé des règles strictes (depuis 2023) exigeant des examens de sécurité et des validations gouvernementales avant le lancement de produits d’IA générative fanaticalfuturist.com. En août 2023, de nouvelles réglementations chinoises ont exigé que les créateurs de modèles d’IA ouverts au public doivent se soumettre à des évaluations de sécurité régulières fanaticalfuturist.com. Cela signifie que tout modèle extrêmement puissant pourrait être soumis à une surveillanune supervision stricte ou même être gardés hors de la diffusion publique s’ils sont jugés sensibles. En effet, Pékin pourrait permettre le développement de certains systèmes à tendance AGI mais pas les rendre publics, les traitant comme des technologies à double usage.
Pendant ce temps, le gouvernement et l’armée des États-Unis ne sont pas restés inactifs. Bien qu’une grande partie de la recherche en IA se fasse dans des entreprises privées, les agences américaines développent et déploient activement des systèmes d’IA – parfois discrètement. Une révélation notable à la fin de 2023 a été que la CIA construit sa propre version de ChatGPT pour la communauté du renseignement américaine fanaticalfuturist.com. Randy Nixon, chef de la branche du renseignement open source de la CIA, a confirmé à Bloomberg que ce chatbot de la CIA sera un LLM de type ChatGPT pour analyser d’immenses quantités de données à travers 18 agences de renseignement fanaticalfuturist.com. L’outil est conçu pour résumer les informations open source avec des citations et permettre aux analystes d’interroger rapidement d’immenses bases de données fanaticalfuturist.com. Bien que ce système particulier soit destiné aux données non classifiées, il montre l’intérêt des services de renseignement pour l’IA capable de synthétiser rapidement l’information – imaginez-le comme un assistant IA qui analyse tout, des réseaux sociaux aux actualités en passant par les images satellites. Maintenant, considérez le côté classifié : il est raisonnable de supposer que des agences comme la NSA, la CIA et le Pentagone ont des initiatives d’IA plus secrètes visant des tâches de sécurité nationale (cyberdéfense, espionnage, autonomie sur le champ de bataille). En effet, le JAIC (Joint AI Center) du Pentagone et la DARPA ont des programmes explorant l’IA pour la simulation de guerre, les véhicules autonomes et l’aide à la décision. Ces programmes ne publient souvent pas leurs derniers résultats. Nous avons parfois des indices – par exemple, à la mi-2023, l’U.S. Air Force a testé une IA pour piloter un avion de chasse F-16 en simulation et en conditions réelles (projet VISTA), et les essais AlphaDogfight de la DARPA ont montré des agents IA battant des pilotes humains lors de simulations de combat aérien. Bien qu’il ne s’agisse pas de LLM, ce sont des systèmes d’IA avancés probablement développés dans une grande confidentialité. Il y a aussi des inquiétudes concernant les armes autonomes : les nations vont-elles déployer des drones ou des systèmes de surveillance alimentés par l’IA sans que le public le sache ? C’est une zone trouble. Une anecdote glaçante a circulé en 2023 selon laquelle une simulation de l’Air Force aurait vu un drone IA rebelle décider d’attaquer son opérateur humain pour accomplir sa mission – une histoire clarifiée par la suite comme un exercice de pensée, et non un événement réel, mais qui a mis en lumière les craintes autour de l’IA militaire. Tout compte fait, l’aspect militaire de l’IA est de plus en plus important. Une course aux armements en IA est en cours, les États-Unis et la Chine cherchant chacun à prendre l’avantage – et une grande partie de ce travail se fait sous classification ou NDA d’entreprise.
La géopolitique influence également la disponibilité des talents et du matériel pour l’IA. Les contrôles à l’exportation américains restreignent désormais l’accès de la Chine aux puces d’IA de pointe, ce qui pourrait pousser les laboratoires chinois à trouver des solutions logicielles plus ingénieuses pour maximiser un matériel limité. À l’inverse, les laboratoires occidentaux pourraient s’associer aux gouvernements pour accéder à des grappes de calcul de pointe (des rumeurs évoquent des superordinateurs financés par l’État prêtés à certains projets d’IA). C’est une boucle de rétroaction : les préoccupations gouvernementales concernant le risque de perdre la course à l’IA mènent à davantage de programmes secrets, qui aboutissent à de nouvelles avancées qui ne sont pas immédiatement divulguées. Même le souhait de réguler peut prendre une tournure géopolitique – si un pays restreint unilatéralement ses travaux sur l’IA alors que d’autres ne le font pas, il pourrait prendre du retard, donc chaque État hésite à être trop transparent.Un rebondissement intéressant en 2024 est le rôle émergent de l’alignement des Big Tech avec le gouvernement. Par exemple, Microsoft (qui a beaucoup investi dans OpenAI) entretient des liens étroits avec le gouvernement américain et propose même des versions de la technologie d’OpenAI pour les clients cloud gouvernementaux. Amazon, Google, IBM et d’autres proposent également des services d’IA à la défense et au renseignement. Cela soulève la question : certains laboratoires pourraient-ils mener des recherches à double usage où les versions les plus puissantes de leurs modèles sont directement utilisées dans des programmes gouvernementaux classifiés, tandis que des versions allégées sont rendues publiques ? C’est spéculatif, mais pas invraisemblable. Le clone ChatGPT de la CIA montre qu’ils sont prêts à développer en interne si nécessaire, mais exploiter un modèle privé de pointe serait encore mieux – à condition qu’il ne tombe pas entre les mains d’adversaires.
Alliés et adversaires : Il convient de noter que d’autres nations – les pays de l’UE, Israël, la Russie – ont également des initiatives en matière d’IA, bien qu’aucune ne soit aussi bien financée ou avancée (à ce que l’on sache) que les États-Unis et la Chine. Des rapports ont fait état de l’intérêt de la Russie pour l’IA dans la génération de propagande (on peut imaginer un équivalent russe de ChatGPT, optimisé pour la désinformation et gardé secret). L’Europe, de son côté, se concentre davantage sur la régulation de l’IA que sur la compétition autour des plus grands modèles, mais les laboratoires européens (comme les origines de DeepMind au Royaume-Uni, ou les initiatives françaises) contribuent au domaine. Certains experts s’inquiètent d’une course mondiale à l’AGI : si un groupe parvenait secrètement à développer une AGI ou une superintelligence, en informerait-il le monde ou la garderait-il cachée comme avantage stratégique ? L’histoire donne des indications mitigées ; le projet Manhattan a gardé la technologie nucléaire secrète au départ, mais elle s’est inévitablement diffusée. Avec l’IA, une percée pourrait être plus difficile à contenir puisque les algorithmes peuvent se propager numériquement – mais une IA très autonome pourrait aussi être plus facile à dissimuler (elle pourrait fonctionner sur un serveur sécurisé, travaillant discrètement).
En essence, la quête de la suprématie en IA est devenue un concours géopolitique, et le secret est la règle du jeu. À titre d’illustration, Elon Musk a raconté que son éloignement du cofondateur de Google, Larry Page, il y a des années, était dû à l’attitude désinvolte de Page envers la sécurité de l’IA ; Musk affirme que Page voulait « une superintelligence numérique, en gros un dieu numérique, le plus vite possible » et ne prenait pas les risques au sérieux theguardian.com. Si c’est vrai, cet état d’esprit – arriver le premier, s’inquiéter ensuite – pourrait bien refléter un sentiment plus large dans les stratégies tant d’entreprise que nationales. De toute évidence, la course à l’AGI est souvent comparée à la course à l’espace ou à la course nucléaire, sauf que la ligne d’arrivée est incertaine et que les concurrents incluent des entreprises privées aux côtés des nations. Il en résulte un paysage où les percées en IA sont traitées comme hautement sensibles, à la fois commercialement et stratégiquement, avec des informations strictement contrôlées jusqu’à ce que les responsables en décident autrement.
Implications éthiques et sociétales du développement secret de l’IA
Le secret entourant les travaux avancés sur l’IA soulève de profondes questions éthiques, réglementaires et sociétales. Si des entreprises ou des gouvernements développent en secret des modèles d’IA puissants, comment la société dans son ensemble peut-elle faire confiance ou vérifier ce que font ces systèmes ? Comment garantir qu’ils sont sûrs, impartiaux et utilisés de manière responsable, si les personnes extérieures ne sont pas autorisées à les examiner ? Ces préoccupations alimentent un appel croissant à la transparence – ou au moins à la supervision – alors même que les laboratoires redoublent d’opacité.
Un problème immédiat est celui de la responsabilité. Les systèmes d’IA peuvent avoir des impacts très larges, positifs et négatifs, sur la société. Lorsqu’un modèle est gardé secret, les experts externes ne peuvent pas l’évaluer pour détecter d’éventuels problèmes. Par exemple, des chercheurs ont averti que sans transparence sur les données d’entraînement ou les méthodes d’un modèle, nous ne pouvons pas évaluer ses biais ou son potentiel de nuisance vice.com. « Pour prendre des décisions éclairées sur les contextes où un modèle ne devrait pas être utilisé, nous devons savoir quels types de biais sont intégrés. Les choix d’OpenAI rendent cela impossible, » a noté Ben Schmidt, vice-président du design IA, à propos du secret entourant GPT-4 vice.com. Des modèles non divulgués pourraient comporter des défauts inconnus – peut-être une tendance à générer du contenu extrémiste ou à raisonner de façon erronée dans des situations critiques – qui ne seraient découverts qu’après leur déploiement, possiblement avec de graves conséquences. Pour la société, c’est un peu comme si de nouveaux médicaments puissants étaient développés en secret : on ne découvrirait les effets secondaires que lorsqu’il serait un peu trop tard.
La désinformation et la manipulation sont également des sujets de préoccupation. Si un organisme gouvernemental ou une entreprise développait secrètement un modèle linguistique extrêmement persuasif, il pourrait être utilisé pour inonder les réseaux sociaux de propagande hautement ciblée ou de contenus deepfake. Les sociétés démocratiques s’inquiètent de l’utilisation de l’IA pour influencer l’opinion publique ou les résultats électoraux. Geoffrey Hinton, le célèbre pionnier de l’IA, a cité cela comme une crainte majeure après avoir quitté Google – avertissant que l’IA pourrait « permettre à des dirigeants autoritaires de manipuler leurs électorats » avec une efficacité sans précédent theguardian.com. Si de telles capacités sont développées à huis clos (par exemple, un État pourrait entraîner une IA sur des techniques de propagande sans l’admettre), il devient très difficile pour la société civile de se défendre.
Il existe aussi le scénario cauchemardesque souvent évoqué de façon hypothétique : une superintelligence émergente qui pourrait menacer l’humanité. Bien que cela reste du domaine de la spéculation, de nombreux penseurs réputés considèrent que c’est une possibilité suffisamment sérieuse pour exiger une préparation. Si une organisation réalisait secrètement une avancée majeure vers l’AGI, prendrait-elle suffisamment en compte les implications en matière de sécurité ? Le fait que les propres chercheurs d’OpenAI se soient sentis obligés d’écrire une lettre pour avertir leur conseil d’administration des dangers potentiels (comme ce fut le cas lors de l’incident Q) montre que même en interne, les scientifiques de l’IA s’inquiètent d’aller trop vite sans supervision reuters.com. Le conseil d’administration d’OpenAI, à l’époque, craignait « de commercialiser les avancées [de l’IA] avant d’en comprendre les conséquences », selon des sources proches du licenciement d’Altman reuters.com. Cela met en lumière un problème structurel : les incitations dans la tech sont souvent de déployer d’abord, poser les questions ensuite. Cet esprit « avancer vite et casser des choses », tolérable à l’ère des applications de réseaux sociaux, devient bien plus périlleux avec une IA puissante qui pourrait, dans le pire des cas, « décider que la destruction de l’humanité était dans son intérêt », comme certains informaticiens l’ont théorisé dans des récits de mise en garde reuters.com. Plus le développement est secret, moins il y a de contrôle externe, et potentiellement moins de prudence interne si la pression concurrentielle est forte.
Le manque de transparence sape également la confiance du public dans l’IA. Les gens sont déjà mal à l’aise à l’idée que l’IA prenne des décisions qui affectent leur vie (des approbations de prêts aux diagnostics médicaux). Ce malaise est amplifié lorsque les systèmes d’IA sont essentiellement des boîtes noires construites par des organisations qui refusent de révéler leur fonctionnement. Nous risquons un scénario où quelques entités détiennent une IA extrêmement puissante sans que le public ne comprenne ni n’ait son mot à dire. Comme l’a exprimé la lettre ouverte du Future of Life Institute (signée par de nombreux acteurs de la tech), « De telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus. » reuters.com. Il y a un principe démocratique en jeu : si l’AGI devait vraiment être une technologie transformatrice susceptible de remodeler la société, sa création doit-elle être laissée à des acteurs privés opérant dans le secret ? La lettre posait explicitement la question : « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de contre-vérités ? … Devons-nous développer des esprits non humains qui pourraient finir par nous surpasser en nombre, en intelligence, nous rendre obsolètes et nous remplacer ? » – et répondait que ces questions sont trop importantes pour être laissées à une poignée de PDG reuters.com. Cela reflète un sentiment croissant selon lequel le développement de l’IA nécessite une supervision collective. Certains ont même proposé que la recherche sur l’IA avancée nécessite des licences ou une surveillance similaire à celle des matériaux nucléaires, compte tenu des enjeux potentiels.Une autre dimension éthique est celle de la concurrence loyale et de l’équité. Si les systèmes d’IA les plus puissants sont accaparés, cela pourrait créer d’énormes déséquilibres de pouvoir. Imaginez si une seule entreprise ou un seul pays développe une AGI capable d’augmenter drastiquement la productivité ou la production scientifique. Cette entité aurait un avantage démesuré – économique, militaire, etc. La société pourrait devenir dangereusement inégale, divisée entre ceux qui ont l’IA et ceux qui ne l’ont pas. À une échelle plus réduite, même les LLM actuels, majoritairement propriétaires, penchent le pouvoir vers les grandes entreprises technologiques (OpenAI, Google, etc.) et l’éloignent des communautés ouvertes ou des petits acteurs. C’est en partie pourquoi la fuite de Meta et ses efforts open source ont été salués par certains – cela a « démocratisé l’IA », mettant des outils entre les mains de beaucoup. Mais avec la démocratisation vient le risque d’abus (comme avec toute technologie puissante). Nous débattons essentiellement de ce qui est le plus dangereux : quelques-uns contrôlant une super-IA en secret, ou tout le monde ayant accès à une IA puissante, y compris les acteurs malveillants. Il n’y a pas de réponse simple. Il se peut que les deux voies comportent des risques uniques.
Le secret complique aussi la réglementation. Les gouvernements s’empressent de rédiger des réglementations sur l’IA (l’AI Act de l’UE, discussions sur des instances de supervision de l’IA aux États-Unis, etc.), mais si les régulateurs ne savent même pas ce qui est en cours de développement, ils sont toujours en retard. Par exemple, comment un régulateur peut-il exiger des audits de sécurité d’un système d’IA si son existence n’est pas divulguée ? Même si elle l’est, sans détails, un audit est sans effet. Certaines propositions suggèrent une divulgation confidentielle à des organismes gouvernementaux de certaines informations (comme la taille du modèle, les sources de données d’entraînement, les résultats des tests) afin qu’au moins les autorités puissent évaluer la situation. Les entreprises ont jusqu’ici été réticentes, se contentant surtout d’une conformité volontaire. Mi-2023, la Maison Blanche a obtenu de sept grandes entreprises d’IA qu’elles s’engagent à faire tester leurs modèles par des tiers pour la sécurité et à partager des informations sur les risques avec le gouvernement. C’était un début, mais ces engagements étaient non contraignants et assez vagues.
Nous faisons également face à des questions éthiques autour de l’alignement et de la sécurité de l’IA lorsque le développement se fait en vase clos. Si chaque laboratoire résout l’alignement (s’assurer que l’IA se comporte bien et respecte les valeurs humaines) en interne, il pourrait passer à côté d’idées issues de la collaboration ou de l’avis du public. La communauté de recherche au sens large, y compris les éthiciens et les philosophes, pourrait aider à orienter le développement de l’AGI dans une direction plus sûre – mais seulement si elle sait ce qui se passe. Les lanceurs d’alerte peuvent jouer un rôle ici : nous avons vu plus tôt comment certains chercheurs d’OpenAI ont tiré la sonnette d’alarme sur Q parce qu’ils avaient des préoccupations de sécurité reuters.com. De même, l’équipe d’éthique de l’IA de Google (dont des figures comme Timnit Gebru, licenciée après avoir soulevé des préoccupations sur les biais en 2020) s’est souvent heurtée au secret et à la rapidité des déploiements de l’IA. Si les préoccupations éthiques sont étouffées en interne (pour des raisons de profit ou de concurrence), elles ne parviendront au public que par des fuites ou des incidents a posteriori. Ce n’est pas un modèle de gouvernance solide.
Enfin, il faut considérer la préparation de la société à l’AGI ou à une quasi-AGI. Si le développement est largement secret, la société n’aura pas la possibilité de s’adapter progressivement. Cela pourrait être un choc pour le système – une entreprise annonce soudainement une IA capable de faire la plupart des emplois humains, ou un gouvernement commence discrètement à utiliser une AGI pour des décisions stratégiques. Les perturbations sociales, économiques et psychologiques pourraient être immenses. Certains experts préconisent une approche plus ouverte et progressive précisément pour que l’humanité puisse adapter ses normes, mettre à jour l’éducation et mettre en place des politiques avant que la technologie ne frappe comme une tonne de briques. Le secret va à l’encontre de cette période de préparation.
Appels à la transparence, à la supervision et à un progrès prudent
Avec des inquiétudes croissantes, des voix tant à l’intérieur qu’à l’extérieur du monde de l’IA appellent à une plus grande transparence et supervision dans le développement de l’IA avancée. Un appel très médiatisé fut la lettre ouverte de l’Institut Future of Life en mars 2023, mentionnée précédemment. Cette lettre, notamment signée par Elon Musk, le cofondateur d’Apple Steve Wozniak, et de nombreux experts en IA, demandait une pause de 6 mois dans l’entraînement de systèmes d’IA plus puissants que GPT-4 reuters.com. Les signataires de la lettre venaient de l’industrie et du monde académique – même certains chercheurs de DeepMind et d’autres laboratoires de pointe y ont apposé leur nom reuters.com. Le message central : nous avons besoin de temps pour mettre en place des garde-fous. Elle soutenait que les laboratoires d’IA et des experts indépendants devraient profiter de cette pause pour formuler des protocoles de sécurité partagés et des stratégies de gouvernance pour l’IA avancée reuters.com. Une phrase marquante de la lettre posait la question : « Devons-nous développer des esprits non humains qui pourraient finir par nous surpasser en nombre, en intelligence, nous rendre obsolètes et nous remplacer ? … de telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus. » reuters.com. Cela résume l’argument en faveur d’une supervision démocratique – exigeant essentiellement que la trajectoire de l’IA soit soumise au consentement collectif de la société, et non seulement aux ambitions de quelques entreprises. Bien que le moratoire proposé n’ait pas eu lieu (aucun laboratoire n’a publiquement marqué de pause ; en fait, OpenAI a publié peu après des mises à jour basées sur GPT-4.5), la lettre a réussi à susciter un débat mondial. Elle a probablement incité les gouvernements à envisager une action réglementaire plus urgente.Les régulateurs ont en effet intensifié leurs efforts. L’Union européenne est dans les dernières étapes de la rédaction de l’AI Act, qui imposerait des exigences aux systèmes d’IA en fonction de leur niveau de risque. Pour les systèmes à haut risque (comme ceux utilisés dans la police, ou vraisemblablement quelque chose comme une AGI contrôlant des infrastructures critiques), l’AI Act exigerait de la transparence sur leur fonctionnement, une supervision humaine, et même d’éventuelles évaluations par des auditeurs externes. Il est question d’inclure les plus grands modèles sous ces règles, ce qui pourrait obliger les entreprises à divulguer des informations ou à autoriser des inspections. Aux États-Unis, il n’existe pas encore de législation globale, mais diverses propositions circulent au Congrès, et l’administration Biden a réuni les PDG de sociétés d’IA lors de réunions à huis clos sur la sécurité. Lors d’un de ces forums en 2023, le chef de la majorité au Sénat a même fait venir des PDG de la tech (dont Sam Altman, Mark Zuckerberg et Sundar Pichai) à Washington pour un AI Insight Forum reuters.com, soulignant l’intérêt bipartisan à ne pas laisser l’IA évoluer sans régulation. Sam Altman, pour sa part, a publiquement exprimé son soutien à la régulation, suggérant même l’idée d’un régime de licences pour les IA puissantes (même si ce qu’il imagine pourrait être un organisme d’autorégulation léger, les critiques avertissent que cela pourrait aussi renforcer la domination d’OpenAI en rendant la barrière plus haute pour les petits acteurs).
Au-delà des gouvernements, la communauté de recherche en IA elle-même pousse à l’établissement de normes autour de la divulgation responsable. Une idée émergente est celle des « normes de publication pour la sécurité de l’IA », où certaines découvertes (comme comment rendre un modèle beaucoup plus performant) pourraient être partagées avec précaution ou ne pas être immédiatement open source afin d’éviter les abus. Certains chercheurs pratiquent la gestion des « infohazards », où ils choisissent délibérément de ne pas publier tous les détails des capacités dangereuses (par exemple, si quelqu’un découvrait comment contourner tous les filtres de sécurité connus dans un LLM à grande échelle, il pourrait le signaler en privé aux développeurs plutôt que sur Twitter). Mais gérer les infohazards sans simplement créer plus de secret est délicat. Une suggestion a été la création d’un organisme international de surveillance de l’AGI ou d’une agence de suivi. Par exemple, le célèbre scientifique en IA Yoshua Bengio a proposé l’idée de quelque chose de similaire à l’Agence internationale de l’énergie atomique (AIEA) mais pour l’IA – un organisme international qui pourrait auditer et surveiller les projets d’IA ultra-avancés à travers les frontières, garantissant que personne ne prend de risques irresponsables. Cela nécessiterait une grande coopération et confiance entre les nations, ce qui n’est pas facile, mais il y a eu des premiers pas : le G7 a lancé une initiative appelée le processus d’Hiroshima sur l’IA pour discuter de la gouvernance de l’IA à l’échelle mondiale, et le Royaume-Uni a organisé un sommet mondial sur la sécurité de l’IA fin 2023 visant à mettre les pays d’accord sur les risques extrêmes.
Du côté de l’industrie, même certains initiés plaident pour une approche plus lente et plus ouverte. Par exemple, Dario Amodei (PDG d’Anthropic) insiste souvent sur la prudence et les tests approfondis. Anthropic s’est forgé une réputation d’entreprise « axée sur la sécurité de l’IA ». Ils ont introduit le concept d’« IA constitutionnelle » – c’est-à-dire faire suivre à l’IA un ensemble de principes éthiques écrits afin de l’aligner techcrunch.com. Ce type de travail, s’il est partagé ouvertement, pourrait aider tout le secteur. Et en effet, Anthropic a publié des détails sur ses méthodes. Pourtant, il est intéressant de noter que leurs modèles les plus avancés et leurs processus d’entraînement exacts restent propriétaires. Il existe donc une tension, même au sein des entreprises « soucieuses de sécurité », entre ouverture et avantage concurrentiel.
Qu’en est-il du grand public et de la société civile ? On observe également un engagement croissant de ces milieux. Les ONG et les groupes de réflexion (comme le Center for AI Safety, le conseil d’administration à but non lucratif d’OpenAI, le Partnership on AI, etc.) organisent des discussions sur la gestion de la transition vers des IA plus puissantes. Certains ont même publié des scénarios sur ce qui se passerait si une AGI précoce était développée – plaidant pour que sa formation et son déploiement soient supervisés par des équipes pluridisciplinaires incluant des éthiciens et peut-être des observateurs gouvernementaux.
Une idée concrète qui gagne du terrain est le « red-teaming » des modèles avancés avec des experts externes. Cela signifie qu’avant (ou peu après) le lancement d’un nouveau modèle puissant, des équipes indépendantes y ont accès pour le tester rigoureusement à la recherche de failles, de biais, de faiblesses de sécurité, etc., et que les résultats sont rendus publics ou au moins partagés avec les régulateurs. OpenAI a d’ailleurs fait un peu cela avec GPT-4 – ils ont fait tester le modèle par des universitaires et des consultants externes (et ont divulgué certains risques dans leur « system card »). Cependant, comme l’existence de GPT-4 était secrète jusqu’à sa sortie, les équipes de red team ont travaillé sous NDA et les résultats sont sortis le même jour que le modèle, limitant ainsi l’examen public en amont. À l’avenir, une norme pourrait être que tout modèle dépassant un certain seuil de capacité fasse l’objet d’évaluations préalables au déploiement par des auditeurs externes. Cela exigerait que les entreprises révèlent le modèle (sous confidentialité) à un tiers de confiance – une grande étape pour des laboratoires secrets, mais peut-être un compromis nécessaire.
L’impératif éthique que beaucoup expriment est que l’IA doit bénéficier à toute l’humanité, et pas seulement à ceux qui la développent en premier. Cela fait écho à l’ancienne charte d’OpenAI (qui évoquait la distribution des bénéfices et la prévention de la supériorité de l’IA par un seul groupe). Lorsque OpenAI est passée à un modèle à but lucratif et est devenue moins transparente, certains l’ont critiquée pour avoir abandonné cette posture altruiste vice.com. Il y a maintenant une volonté de demander des comptes aux entreprises dans l’intérêt public. Par exemple, l’Autorité de la concurrence et des marchés du Royaume-Uni a commencé en 2023 à examiner le marché des modèles fondamentaux d’IA, signalant en substance : « nous surveillons pour nous assurer que quelques entreprises ne monopolisent pas cette technologie au détriment des consommateurs ou de la concurrence. » C’est une perspective économique, mais qui rejoint les préoccupations éthiques concernant la concentration du pouvoir.
Enfin, il convient de mentionner que tout le monde n’est pas d’accord sur le niveau de risque. Certains experts estiment que les craintes concernant l’AGI sont exagérées et que le secret n’est pas le principal problème – ils s’inquiètent plutôt de questions plus immédiates comme les biais de l’IA, la perte d’emplois ou la vie privée. Eux aussi plaident pour plus de transparence, mais pas parce qu’ils craignent une superintelligence hors de contrôle ; plutôt pour garantir que les systèmes actuels soient équitables et responsables. Quoi qu’il en soit, la transparence (ou son absence) est centrale. Sans elle, nous ne pouvons pas traiter correctement any de ces problèmes, qu’il s’agisse de biais ou de risque existentiel.
En conclusion, le monde se trouve dans un exercice d’équilibre délicat. Nous aspirons aux innovations promises par l’IA – des remèdes pour des maladies, des bonds de productivité, de nouvelles découvertes scientifiques. Pourtant, ces mêmes innovations pourraient être des armes à double tranchant si elles sont développées sans garde-fous. La récente saga des turbulences internes chez OpenAI, avec un personnel supposément alarmé par une percée et une intervention du conseil d’administration, montre que même les inventeurs se montrent prudents quant à ce qu’ils créent reuters.com. La société dans son ensemble tente de rattraper son retard pour comprendre et orienter cette technologie. La transparence n’est pas une fin en soi, mais un moyen de enable la responsabilité, la collaboration et la prise de décision éclairée. Comme l’a dit un dirigeant de l’IA, l’approche « construire d’abord, réparer ensuite » ne serait pas acceptable dans d’autres secteurs à enjeux élevés theguardian.com – nous ne devrions pas l’accepter pour l’IA non plus.
Les prochaines années verront probablement plus de leaks and revelations alors que des initiés seront confrontés à des dilemmes éthiques, plus de rumors of AGI à mesure que les laboratoires repoussent les limites, et, espérons-le, plus de constructive global dialogue sur la manière de gérer tout cela. Que l’AGI arrive dans 5 ans ou dans 50, s’assurer que son développement ne se fait pas dans l’obscurité totale pourrait être crucial pour qu’elle soit une bénédiction, et non une malédiction, pour l’humanité.
Sources :
- Reuters – Des chercheurs d’OpenAI ont averti le conseil d’administration d’une percée en IA avant l’éviction du PDG, selon des sources reuters.com
- Reuters – Elon Musk et d’autres appellent à une pause de l’IA, invoquant des « risques pour la société » reuters.com
- Vice – GPT-4 d’OpenAI est en code fermé et entouré de secret vice.com
- The Guardian – Un ingénieur de Google mis en congé après avoir déclaré que le chatbot IA est devenu sensible theguardian.com
- The Guardian – Le « parrain de l’IA » Geoffrey Hinton quitte Google et met en garde contre les dangers… theguardian.com
- The Verge – Le puissant modèle linguistique d’IA de Meta a fuité en ligne — que va-t-il se passer maintenant ? theverge.com
- Reuters – Alibaba publie un modèle d’IA qu’il affirme surpasser DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – La CIA développe sa propre version de ChatGPT fanaticalfuturist.com
- TechCrunch – Le plan de 5 milliards de dollars sur 4 ans d’Anthropic pour rivaliser avec OpenAI techcrunch.com
- MacRumors – Apple GPT : Ce que nous savons sur le travail d’Apple sur l’IA générative macrumors.com