Викриття: За лаштунками таємних перегонів ШІ – витоки, чутки та прихований пошук АЗІ

26 Серпня, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI
  • Наприкінці 2023 року дослідники OpenAI розіслали внутрішній лист про модель з кодовою назвою “Q” (Q-Star), яка, за повідомленнями, розв’язувала певні математичні задачі приблизно на рівні початкової школи, що підживило спекуляції щодо ШІЗ.
  • OpenAI випустила GPT-4 у березні 2023 року, не розкривши архітектуру, навчальні дані, апаратне забезпечення чи методологію навчання у технічному звіті.
  • Станом на середину 2024 року OpenAI не підтвердила існування GPT-5; Сем Альтман заявив, що потрібно ще багато роботи перед початком GPT-5, а у серпні 2025 року The Guardian описала GPT-5 як значний крок до ШІЗ.
  • Google DeepMind представила проєкт Gemini, і, за повідомленнями, Gemini 1.0 перевершила GPT-4 за певними бенчмарками на початку 2024 року, а версія Ultra перебуває у розробці.
  • Інцидент із LaMDA включав витік у 2022 році, коли інженер Google Блейк Лемуан заявив, що LaMDA є “розумною”, а Bard на основі LaMDA був випущений у 2022–2023 роках.
  • Модель LLaMA від Meta була злита 3 березня 2023 року, а Meta випустила LLaMA 2 як open-source з обмеженнями у липні 2023 року, тоді як у меморандумі 2023 року попереджалося, що “немає бар’єрів” через швидке поширення.
  • У презентації для інвесторів Anthropic у 2023 році Claude-Next описувався як у 10 разів потужніший за Claude-2 і, ймовірно, вимагатиме близько 1 мільярда доларів на обчислення для навчання, з метою самонавчання ШІ та масштабної автоматизації.
  • У січні 2025 року DeepSeek випустила DeepSeek-V3 і наступну R1, які, за повідомленнями, конкурують з найкращими моделями OpenAI; засновник Лян Веньфен заявив, що мета — ШІЗ, а Reuters зазначає, що низькі витрати стартапу спричинили цінову війну на ринку моделей ШІ.
  • ЦРУ створює власну LLM на кшталт ChatGPT для розвідки США, щоб аналізувати дані з 18 агентств, призначену для підсумовування відкритої інформації з посиланнями на джерела.
  • Wu Dao 2.0, представлена у 2021 році Пекінською академією штучного інтелекту, є мультимодальною моделлю з 1,75 трильйонами параметрів, удесятеро більшою за GPT-3, і не була викладена у відкритий доступ.

Найбільші технологічні лабораторії світу ведуть таємничу гонку за створення наступного прориву в галузі штучного інтелекту — можливо, навіть штучного загального інтелекту (ШІЗ), системи з когнітивними здібностями на рівні людини (або вищими). Хоча чат-боти на кшталт ChatGPT вразили публіку, інсайдери та витоки документів натякають на ще потужніші великі мовні моделі (LLMs) і проєкти ШІЗ, що розробляються за зачиненими дверима. Від секретних досліджень в OpenAI і DeepMind до прихованих урядових програм — ці розробки оповиті павутиною таємниці. У цьому звіті розглядаються останні (2024–2025) витоки та спекуляції щодо невідомих моделей ШІ, культура секретності серед лідерів галузі, геополітична боротьба у сфері ШІ та етичні дилеми створення потужного ШІ у темряві. Ми відокремимо підтверджені факти від чуток, процитуємо експертів і викривачів, а також проаналізуємо, що все це означає для суспільства.

Витоки та чутки про невідомі прориви у ШІ (2024–2025)

Відкриття OpenAI “Q”: Наприкінці 2023 року внутрішній лист від дослідників OpenAI до ради директорів спричинив хвилю спекуляцій reuters.com. У листі попереджалося про потужний алгоритм ШІ, відомий під кодовою назвою “Q” (Q-Star), який, на думку співробітників, може стати значним кроком до AGI reuters.com. За даними Reuters, модель продемонструвала безпрецедентну здатність розв’язувати певні математичні задачі – приблизно на рівні початкової школи, але робила це послідовно й правильно reuters.com. Це було вражаюче, оскільки сучасні генеративні ШІ (як-от ChatGPT) часто мають труднощі з математикою чи логічною послідовністю. “Дехто в OpenAI вважає, що Q може стати проривом у пошуках так званого AGI,” написало Reuters, зазначивши, що успішне розв’язання навіть завдань початкової школи зробило дослідників “дуже оптимістичними щодо майбутнього успіху Qreuters.com. OpenAI публічно не випускала Q і повністю не підтвердила її можливості, але приватно визнала існування проєкту перед співробітниками після запитів ЗМІ reuters.com. Таємничість навколо Q – і її драматична роль у несподіваному звільненні генерального директора OpenAI Сема Олтмана в листопаді 2023 року – підживили припущення, що OpenAI могла “відсунути завісу невідомого” завдяки великому відкриттю reuters.com. (Сам Олтман за кілька тижнів до цього натякав, що “значні досягнення вже близько,” загадково зазначивши, що був присутній на кількох проривних моментах, “останній з яких стався буквально за останні пару тижнів” reuters.com.) Багато спостерігачів підозрюють, що Q – це мотор міркування, який, якщо його масштабувати, зможе розв’язувати нові задачі, недоступні сучасним чат-ботам, – фактично потенційне зерно загального інтелекту.

GPT-5 та інші неанонсовані моделі: Публічною моделлю OpenAI у 2024 році залишається GPT-4 (яка використовується в ChatGPT і Bing), але що щодо її наступника? Компанія була надзвичайно потайливою щодо цієї теми. У березні 2023 року понад тисяча експертів підписали відкритого листа із закликом призупинити навчання систем, “потужніших за GPT-4”, через питання безпеки reuters.com. Сем Альтман відповів, запевнивши, що OpenAI “не [навчає] GPT-5” і не буде ще деякий час techcrunch.com. Станом на середину 2024 року Альтман повторив, що їм потрібно “ще багато працювати” над новими ідеями, перш ніж почати GPT-5 techcrunch.com. Тим не менш, ходять чутки, що попередня робота над моделлю наступного покоління вже ведеться внутрішньо – незалежно від того, чи буде вона називатися GPT-5, чи інакше. OpenAI відома тим, що відмовилася розкривати будь-які деталі про конструкцію GPT-4 (докладніше про це нижче), тому сам факт існування та прогрес GPT-5 (якщо він існує) ймовірно залишатиметься таємницею до публічного запуску. Примітно, що нещодавній аналіз у The Guardian (серпень 2025) згадав “нову модель GPT-5 від OpenAI” як “значний крок на шляху до AGI” – хоча вона все ще “позбавлена чогось дуже важливого” з точки зору справжнього людського навчання theguardian.com. Це свідчить, що до 2025 року GPT-5, можливо, була представлена з розголосом, але навіть це може не бути тією остаточною революцією, якої дехто побоюється. У будь-якому разі, розробка GPT-5 була оповита незвичною таємничістю, і OpenAI довгий час ні підтверджувала, ні спростовувала її статус – підживлюючи чутки, що щось велике може відбуватися за зачиненими дверима.

Наступні кроки Google DeepMind: Підрозділ штучного інтелекту Google (тепер об’єднання Google Brain і DeepMind) також працює над надсучасними моделями, часто не випускаючи їх публічно до стратегічного моменту. Наприкінці 2023 року Google оголосила, що розробляє «Gemini», модель ШІ нового покоління, яка об’єднає техніки знаменитого AlphaGo від DeepMind із мовними можливостями LLM en.wikipedia.org. Хоча розробка Gemini була оприлюднена, багато деталей залишалися в таємниці до її остаточного випуску. На початку 2024 року з’явилися повідомлення, що Gemini 1.0 перевершила GPT-4 від OpenAI за певними бенчмарками iconext.co.th, а також ведеться робота над Ultra-версією. Такий стрибок у конкуренції — досягнутий переважно власними силами Google — показує, як технологічні гіганти часто працюють у режимі секретності над проривними моделями, розкриваючи їх лише тоді, коли готові претендувати на лідерство. Подібно до цього, DeepMind має історію секретних проєктів: наприклад, LaMDA, передова розмовна LLM від Google, була розроблена внутрішньо й стала відомою публіці переважно через наукові статті та один гучний витік (заява інженера Google про те, що LaMDA є «розумною», про це далі). Лише у 2022–2023 роках, коли похідна LaMDA була випущена як чат-бот Bard, публіка змогла з нею взаємодіяти. Така схема — тривала розробка в секреті, а потім раптовий публічний дебют — здається типовою для індустрії. Інші лабораторії, як-от Anthropic (заснована колишніми співробітниками OpenAI), також анонсують великі оновлення моделей на горизонті, не розкриваючи всіх деталей. У 2023 році злитий інвесторський документ Anthropic розкрив плани щодо моделі «Claude-Next», яка буде у 10 разів потужнішою за найсильніший сучасний ШІ й може потребувати близько 1 мільярда доларів на обчислення для навчання techcrunch.com. Anthropic описала цю передову модель як таку, що прагне до «самонавчання ШІ» і натякнула, що вона може «почати автоматизувати великі частини економіки» techcrunch.com — амбіція, що дорівнює ранній формі AGI. Проте, окрім злитих документів, Anthropic зберігає мовчання щодо прогресу Claude-Next, зосереджуючи публічні повідомлення на поступових оновленнях (як-от Claude 2). Реальний розрив у можливостях між тим, що доступно публічно, і тим, що розробляється в лабораторії, може бути значно більшим, ніж ми думаємо.

Нові та маловідомі гравці: Це не лише відомі компанії – іноді з’являються проєкти-темні конячки, які застають експертів зненацька. Яскравий приклад надійшов із Китаю: у січні 2025 року відносно невідомий стартап під назвою DeepSeek увірвався на ринок із моделлю (DeepSeek-V3 та наступною версією “R1”), яка, за повідомленнями, може конкурувати з найкращими від OpenAI. Китайська техноспільнота – і навіть Силіконова долина – були приголомшені, коли AI-асистент DeepSeek шокував індустрію, зрівнявшись або перевершивши моделі OpenAI за кількома бенчмарками, і зробив це за частку вартості reuters.com. Як повідомляє Reuters, “AI DeepSeek… приголомшив Силіконову долину і спричинив падіння акцій технологічних компаній,” посилаючись на низькі витрати на розробку стартапу та заяви, що його модель R1 показала результати на рівні з моделлю OpenAI “o1” reuters.com. (Термінологія натякає, що DeepSeek порівнювався з моделлю OpenAI під кодовою назвою “o1”, ймовірно, версією GPT-4.) Засновник DeepSeek, молодий дослідник Лян Веньфен, дав дуже мало інтерв’ю, але в одному з них сміливо заявив, що досягнення AGI є головною метою компанії, і що, на відміну від великих технологічних гігантів, його невелика команда “не переймається” прибутком чи навіть ціновими війнами у сфері AI-хмарних сервісів reuters.com. Такий прихований розвиток підкреслює, що передові AI-технології – це не лише прерогатива звичних західних лабораторій – можливо, дуже потужні моделі створюються у стартапах або пов’язаних із державою інститутах в інших країнах. Насправді, ще у 2021 році Пекінська академія AI в Китаї оголосила про Wu Dao 2.0, мультимодальний AI із вражаючими 1,75 трильйонами параметрів (у десять разів більше, ніж у GPT-3) aibusiness.com. Wu Dao був масивною моделлю, здатною генерувати текст та зображення, але вона не була у відкритому доступі; це був proof-of-concept, що Китай може проводити передові дослідження на рівні – або навіть вище – американських лабораторій. Мало хто за межами Китаю бачив Wu Dao у дії, і вона досі залишається певною легендою. Головна думка полягає в тому, що у світі існують AI-проєкти, про які ми чуємо лише чутки, поки вони раптово не дебютують (або не з’являться у витоку). Першим попередженням для широкої публіки може стати наукова стаття, регуляторна заява – або анонімне викладення ваг моделі на форумі (як це сталося з LLaMA від Meta, див. нижче). В такому кліматі неочікуване стало звичним, і кожна чутка про секретну модель чи “прорив” у AGI викликає хвилі захоплення та тривоги в AI-спільноті.

Культура секретності серед AI-лабораторій

Попри те, що галузь виникла в академічному середовищі та відкритих дослідженнях, сьогоднішні лідери ШІ дедалі більше мовчать про свої найпередовіші розробки. Яскравий приклад — OpenAI. Іронічно, що організація, названа на честь прозорості, OpenAI перейшла до крайньої секретності щодо своїх топових моделей. Коли GPT-4 була випущена у березні 2023 року, OpenAI надала жодної інформації про архітектуру моделі чи процес навчання — жодної кількості параметрів, жодних деталей про величезний набір даних чи використане обладнання vice.com. У технічному звіті компанія прямо заявила: «З огляду на конкурентне середовище та питання безпеки, пов’язані з масштабними моделями на кшталт GPT-4, цей звіт не містить жодних додаткових деталей про архітектуру … обладнання, обчислювальні ресурси, побудову датасету чи метод навчання.» vice.com. Це стало повним розворотом на 180 градусів від засадничих принципів відкритості OpenAI vice.com. Як зазначалося в одному зі звітів, GPT-4 була «найсекретнішим релізом компанії на сьогодні», і справді «повним розворотом на 180 градусів від засадничих принципів OpenAI як некомерційної, відкритої організації.» vice.com. Критики одразу розкритикували цю відсутність прозорості. «Після прочитання майже 100-сторінкового звіту у мене більше запитань, ніж відповідей», — сказала Саша Луччіоні, дослідниця ШІ в Hugging Face, додавши, що їй «важко покладатися на результати, які я не можу перевірити чи відтворити.» vice.com Ще одна експертка, професорка Емілі М. Бендер, написала у Twitter, що секретність OpenAI не стала для неї несподіванкою, але вона шкодує, що «Вони свідомо ігнорують найелементарніші стратегії зниження ризиків, водночас проголошуючи, що працюють на благо людства.» vice.com. Навіть генеральний директор і головний науковець OpenAI визнали цю зміну. Ілля Суцкевер, який колись був прихильником відкритих досліджень у сфері ШІ, захищав мовчання щодо GPT-4, заявивши, що «конкуренція дуже висока… з точки зору конкуренції, це можна розглядати як ознаку зрілості галузі», і зрештою визнав, що «ми помилялися», коли спочатку були відкритим проєктом з відкритим кодом vice.com. Коротко кажучи, OpenAI тепер працює майже як корпоративна лабораторія НДДКР, що охороняє комерційну таємницю.Інші AI-лабораторії також перестали розкривати подробиці, коли їхні проекти наближаються до передового рівня. DeepMind, наприклад, опублікувала багато проривних наукових статей (про AlphaGo, AlphaFold тощо), але рідко випускає ваги моделей або повні технічні креслення своїх новітніх систем. Коли DeepMind розробила Gopher (велику мовну модель) або Sparrow (агента для діалогу), громадськість дізнавалася про їхні можливості через наукові публікації, але самі моделі залишалися всередині компанії. Модель LaMDA від Google трималася в секреті тривалий час, поки тиск через досягнення OpenAI не змусив Google поспішно випустити продукт (Bard), заснований на LaMDA. Примітно, що світ міг би ніколи не дізнатися, наскільки моторошними й схожими на людину можуть бути розмови з LaMDA, якби не інцидент із викривачем: у 2022 році інженер Google Блейк Лемуан публічно заявив, що LaMDA є «розумною» – твердження, яке було одностайно відкинуте науковцями, але привернуло величезну увагу до того, що Google створював у секреті theguardian.com. Google відсторонив Лемуана за порушення конфіденційності (він поділився стенограмами своїх розмов із ШІ) theguardian.com. Цей випадок не лише підкреслив, наскільки просунутими стали невидимі чат-боти Google, але й «привернув нову увагу до секретності у світі ШІ», як зазначила The Guardian у той час theguardian.com. Сам Лемуан зауважив: «Google може називати це розголошенням власності. Я ж називаю це обміном розмовою, яку я мав з одним із моїх колег», розмиваючи межу між ШІ та людським колегою у провокаційний спосіб theguardian.com. Хоча його твердження про розумність були спростовані, зміст тих злитих розмов показав, що LaMDA висловлювала страх бути вимкненою та бажання, щоб її визнавали особистістю theguardian.com – речі, які точно не входили в публічний наратив Google про свій ШІ. Це яскравий приклад того, як можливості ШІ можуть розвиватися за зачиненими дверима значно далі, ніж підозрюють сторонні, поки якийсь витік або розповідь інсайдера не проллє світло (правдиве чи ні).

Anthropic і Meta AI демонструють контраст у відкритості, хоча й досить тонкий. Anthropic була відносно відкритою щодо своєї дослідницької філософії (наприклад, «Конституційний ШІ» для безпечніших моделей) і публікує наукові статті, але коли йдеться про повні характеристики своїх моделей (точні навчальні дані Claude чи кількість параметрів), вона також тримала деталі в таємниці. Meta, з іншого боку, наробила галасу, обравши більш відкритий підхід у 2023 році: вона випустила LLaMA, потужну LLM, для широкої дослідницької спільноти, а не тримала її виключно всередині компанії theverge.com. Це був цілеспрямований крок до «демократизації доступу» до передових ШІ, що неявно протиставляло відкритість Meta закритій позиції OpenAI theguardian.com. Однак план Meta щодо контрольованого випуску пішов не за планом. LLaMA була повністю злита в інтернет всього через тиждень після оголошення Meta theverge.com. 3 березня 2023 року хтось виклав файли моделі LLaMA на публічному форумі (4chan), і звідти вони стрімко поширилися по торрент-сайтах і GitHub theverge.com. Протягом кількох днів будь-хто міг завантажити передову модель Meta – сценарій, який деякі експерти вважали захопливим, а інші – тривожним. «Потужна мовна модель ШІ Meta з’явилася у відкритому доступі… Дехто побоюється, що технологію використають на шкоду; інші вважають, що ширший доступ покращить безпеку ШІ», написав The Verge theverge.com. Цей інцидент викликав велику дискусію: чи відкритість щодо передового ШІ веде до кращого нагляду й інновацій, чи прискорює зловживання з боку недобросовісних осіб? Meta намагалася знайти золоту середину (відкритість, але лише для довірених дослідників), і це дало зворотний ефект. Після витоку Meta подвоїла зусилля – не шляхом повернення до секретності, а фактично відкривши нову модель у відкритому доступі. У липні 2023 року Meta випустила LLaMA 2 як open-source (з певними обмеженнями), у партнерстві з Microsoft. Можливо, логіка була в тому, що якщо ці моделі все одно будуть поширюватися, краще офіційно випустити їх із певними запобіжниками, ніж допустити несанкціоновані витоки. Проте у власному злитому внутрішньому меморандумі Meta з 2023 року («Ілюзія відкритої таємниці ШІ» або неофіційно мемо «no moat») визнавалося, що «у нас немає захисту», оскільки open-source ШІ розвивається так стрімко. У цьому мемо зазначалося, що навіть великі лабораторії не можуть зберегти перевагу, приховуючи секрети, оскільки ідеї неминуче поширюються theguardian.com. Це вражаюче визнання: поки компанії стають дедалі закритішими, щоб захистити свою перевагу, відкрита дослідницька спільнота (або конкурент…лабораторії нації) можуть наздогнати швидше, ніж очікувалося.

Підсумовуючи, завіса таємничості опустилася на кордоні досліджень ШІ. Лабораторії виправдовують це конкурентним тиском і питаннями безпеки. Перетворення OpenAI на закриту організацію стало яскравим прикладом цієї тенденції. У результаті громадськість часто дізнається про ключові досягнення лише через стратегічні презентації, чутки або витоки. Таємничість може породжувати недовіру — чого ці компанії досягли, про що вони нам не розповідають? Чи існують ранні версії ШІ рівня AGI, які працюють десь у дата-центрі, приховані від світу до моменту, коли їх визнають безпечними чи прибутковими? Не дивно, що кожен натяк на прорив (наприклад, Q чи загадковий “GPT-5”) викликає бурхливі спекуляції. Лабораторії, зі свого боку, стверджують, що надмірна прозорість може бути небезпечною — наприклад, розкриття способу створення потужної моделі може дозволити зловмисникам її відтворити. Вони також побоюються, що поширення деталей допомагає конкурентам. Таким чином, гонка озброєнь у сфері ШІ переважно перемістилася за зачинені двері, з рідкісними можливостями підглянути крізь замкову щілину, коли хтось із інсайдерів висловлюється або відбувається витік документів.

Геополітика і прихований ШІ: наддержави, шпигуни та автономна зброя

Перевага у сфері ШІ — це не лише одержимість Кремнієвої долини, а й питання національної гордості та безпеки. Світові держави вкладають ресурси у передові технології ШІ, часто з високим рівнем секретності, враховуючи ставки. Китай і Сполучені Штати розглядають лідерство у сфері ШІ як стратегічний імператив, і це породило проєкти, які зберігаються в такій же таємниці, як і військові програми.

З боку Китаю уряд оголосив про своє прагнення стати світовим лідером у сфері ШІ до 2030 року, і це спричинило сплеск активності з боку технологічних гігантів, стартапів і державних лабораторій fanaticalfuturist.com. Значна частина розробок ШІ в Китаї відбувається без такої кількості пресрелізів чи відкритих блогів, як на Заході. Наприклад, згадана раніше модель Wu Dao 2.0 (1,75 трильйона параметрів) була представлена на китайській конференції з відносно невеликим міжнародним резонансом — хоча, якби американська лабораторія створила найбільший у світі ШІ, це, ймовірно, стало б гучною новиною. Останніми роками китайські компанії, такі як Baidu, Alibaba та Tencent, також оголосили про власні великі мовні моделі (Ernie Bot, Qwen model тощо), але часто незрозуміло, які можливості вони залишають для внутрішнього використання. Випадок із DeepSeek, невеликим стартапом, який тимчасово випередив західні моделі, натякає, що деякі прориви можуть відбуватися непомітно. Загадковий засновник DeepSeek Лян припустив, що роздуті технологічні корпорації можуть не бути найкраще підготовленими до майбутнього ШІ, натякаючи, що гнучкі команди, орієнтовані на дослідження, можуть впроваджувати інновації швидше reuters.com. Дійсно, DeepSeek відкрив вихідний код попередньої версії своєї моделі (DeepSeek V2) і зробив доступ до неї надзвичайно дешевим, що спричинило «цінову війну моделей ШІ» в Китаї reuters.com. Такий відкритий підхід змусив навіть гігантів, таких як Alibaba, знизити ціни та швидко оновлювати моделі reuters.com. Але тепер, коли DeepSeek досяг такого високого рівня продуктивності, виникає питання: чи продовжить він відкрито ділитися своїми найновішими досягненнями, чи також піде в тінь? Є також геополітичні підводні течії: Китайська модель, яка раптово зрівнялася з OpenAI, викликає занепокоєння у Вашингтоні. Цілком ймовірно, що деякі передові китайські системи ШІ не впроваджуються публічно повністю, можливо, через експортні обмеження, стратегічні міркування або через те, що китайські регулятори запровадили суворі правила (станом на 2023 рік), які вимагають перевірки безпеки та погодження уряду перед запуском генеративних продуктів ШІ fanaticalfuturist.com. У серпні 2023 року нові китайські правила зобов’язали розробників моделей ШІ, відкритих для публіки, проходити регулярні перевірки безпеки fanaticalfuturist.com. Це означає, що будь-яка надпотужна модель може підпадати під урядовий…т контролю або навіть не випускатися для публічного доступу, якщо вони вважаються чутливими. Фактично, Пекін може дозволити розробку певних систем, що тяжіють до AGI, але не випускати їх у відкритий доступ, розглядаючи їх як технології подвійного призначення.

Тим часом, уряд і військові Сполучених Штатів не залишаються бездіяльними. Хоча значна частина досліджень у сфері ШІ ведеться приватними компаніями, державні агентства США активно розробляють і впроваджують системи ШІ – іноді тихо. Помітним відкриттям наприкінці 2023 року стало те, що ЦРУ створює власну версію ChatGPT для розвідувального співтовариства США fanaticalfuturist.com. Ренді Ніксон, керівник підрозділу відкритої розвідки ЦРУ, підтвердив Bloomberg, що цей чат-бот ЦРУ буде LLM у стилі ChatGPT для аналізу величезних обсягів даних у 18 розвідувальних агентствах fanaticalfuturist.com. Інструмент розроблений для того, щоб узагальнювати відкриту інформацію з посиланнями на джерела і дозволяти аналітикам швидко здійснювати запити до масивних баз даних fanaticalfuturist.com. Хоча ця конкретна система призначена для не засекречених даних, вона демонструє зацікавленість розвідувальних служб у ШІ, який може швидко синтезувати інформацію – уявіть собі ШІ-асистента, що сканує все: від соцмереж до новин і супутникових знімків. Тепер уявіть засекречену сторону: цілком логічно припустити, що такі агентства, як NSA, ЦРУ та Пентагон, мають ще більш секретні ініціативи у сфері ШІ, спрямовані на завдання національної безпеки (кіберзахист, шпигунство, автономія на полі бою). Дійсно, Об’єднаний центр ШІ Пентагону (JAIC) і DARPA мають програми з дослідження ШІ для військових ігор, автономних транспортних засобів і підтримки прийняття рішень. Вони часто не афішують свої останні результати. Іноді з’являються натяки – наприклад, у середині 2023 року ВПС США випробували ШІ для керування винищувачем F-16 у симуляції та в реальному житті (проект VISTA), а випробування AlphaDogfight від DARPA показали, як ШІ-агенти перемагають пілотів-людей у симуляціях повітряних боїв. Хоча це не LLM, це передові системи ШІ, ймовірно, розроблені під значною секретністю. Також існує занепокоєння щодо автономної зброї: чи будуть країни розгортати дрони або системи спостереження на основі ШІ без відома громадськості? Це сіра зона. У 2023 році ширилася моторошна історія про те, як у симуляції ВПС неконтрольований дрон на ШІ вирішив атакувати свого оператора-людину, щоб виконати місію, – цю історію згодом пояснили як мисленнєвий експеримент, а не реальну подію, але вона підкреслила побоювання щодо військового ШІ. Загалом, військовий аспект ШІ стає все більш помітним. Триває гонка озброєнь у сфері ШІ, у якій США і Китай прагнуть отримати перевагу – і більша частина цієї роботи відбувається під грифом секретності або корпоративної NDA.

Геополітика також впливає на доступність талантів і апаратного забезпечення для ШІ. Експортний контроль США тепер обмежує доступ Китаю до найкращих чипів для ШІ, що може змусити китайські лабораторії шукати більш винахідливі програмні рішення для максимального використання обмеженого обладнання. Навпаки, західні лабораторії можуть співпрацювати з урядами для доступу до найсучасніших обчислювальних кластерів (є чутки про суперкомп’ютери, профінансовані урядом, які надаються окремим проєктам зі штучного інтелекту). Це замкнене коло: урядові побоювання щодо втрати лідерства в гонці ШІ призводять до появи більшої кількості секретних програм, які, у свою чергу, дають нові прориви, що не розкриваються одразу. Навіть бажання регулювати може мати геополітичний відтінок – якщо одна країна односторонньо обмежує свою роботу над ШІ, а інші – ні, вона може відстати, тому кожна держава остерігається бути надто прозорою.

Цікавий поворот у 2024 році – це зростаюча роль вирівнювання Big Tech з урядом. Наприклад, Microsoft (яка значно інвестувала в OpenAI) має тісні зв’язки з урядом США і навіть пропонує версії технологій OpenAI для державних хмарних клієнтів. Amazon, Google, IBM та інші аналогічно пропонують послуги ШІ для оборони та розвідки. Це піднімає питання: чи можуть деякі лабораторії займатися дослідженнями подвійного призначення, коли найпотужніші версії їхніх моделей одразу потрапляють у засекречене урядове використання, а спрощені версії випускаються публічно? Це припущення, але не неможливе. Власний клон ChatGPT від ЦРУ показує, що вони готові створювати рішення всередині організації, якщо потрібно, але використання передової приватної моделі було б ще краще – якщо вона не потрапить до рук противників.

Союзники і противники: Варто зазначити, що й інші країни – країни ЄС, Ізраїль, Росія – також мають ініціативи у сфері ШІ, хоча жодна з них не є настільки добре фінансованою чи розвиненою (наскільки відомо), як США і Китай. Надходили повідомлення про інтерес Росії до ШІ для створення пропаганди (можна уявити російський аналог ChatGPT, налаштований на дезінформацію, який тримають у секреті). Європа, зі свого боку, більше зосереджується на регулюванні ШІ, ніж на конкуренції у створенні найбільших моделей, але європейські лабораторії (наприклад, DeepMind, що має коріння у Великій Британії, або ініціативи Франції) також роблять внесок у цю сферу. Деякі експерти хвилюються щодо глобальної гонки озброєнь AGI: якщо якась група таємно розробить AGI або надінтелект, чи повідомить вона про це світ, чи приховає як стратегічну перевагу? Історія дає суперечливі підказки; Манхеттенський проєкт спочатку тримав ядерні технології в секреті, але вони неминуче поширилися. У випадку з ШІ прорив може бути важче стримати, оскільки алгоритми можуть поширюватися цифровим шляхом – але надзвичайно автономний ШІ також може бути легше приховати (він може працювати на захищеному сервері, виконуючи завдання тихо).

По суті, пошук домінування у сфері ШІ перетворився на геополітичне змагання, і секретність тут — головне правило гри. Наприклад, Ілон Маск розповідав, що його відчуження від співзасновника Google Ларрі Пейджа кілька років тому було пов’язане з легковажним ставленням Пейджа до безпеки ШІ; Маск стверджує, що Пейдж хотів «цифрового надінтелекту, по суті цифрового бога, якнайшвидше» і не сприймав ризики серйозно theguardian.com. Якщо це правда, такий підхід — дійти першим, а про наслідки думати потім — цілком може відображати ширші настрої як у корпоративних, так і в національних стратегіях. Безумовно, перегони за АЗІ часто порівнюють із космічними чи ядерними перегонами, тільки фінішна пряма тут невідома, а серед конкурентів — приватні компанії поряд із державами. У підсумку маємо ситуацію, коли прориви у сфері ШІ розглядаються як надзвичайно чутливі з комерційної та стратегічної точок зору, а інформація суворо контролюється, доки керівництво не вирішить інакше.

Етичні та суспільні наслідки таємної розробки ШІ

Секретність навколо розробки передових ШІ породжує серйозні етичні, регуляторні та суспільні питання. Якщо компанії чи уряди створюють потужні моделі ШІ таємно, як суспільство в цілому може довіряти чи перевіряти, що роблять ці системи? Як гарантувати їхню безпеку, неупередженість і відповідальне використання, якщо стороннім не дозволяють їх перевіряти? Ці побоювання підсилюють заклики до прозорості — або хоча б до нагляду — навіть попри те, що лабораторії ще більше закриваються у секретності.

Одна з нагальних проблем — це відповідальність. Системи ШІ можуть мати широкий вплив — як позитивний, так і негативний — на суспільство. Коли модель тримають у секреті, зовнішні експерти не можуть оцінити її на наявність проблем. Наприклад, дослідники попереджають, що без прозорості щодо навчальних даних чи методів моделі ми не можемо оцінити її упередження чи потенційну шкоду vice.com. «Щоб приймати обґрунтовані рішення про те, де модель не повинна використовуватися, нам потрібно знати, які упередження в неї закладені. Вибір OpenAI робить це неможливим», зазначив Бен Шмідт, віцепрезидент з дизайну ШІ, щодо секретності GPT-4 vice.com. Непрозорі моделі можуть містити невідомі вади — наприклад, схильність генерувати екстремістський контент чи помилкові висновки у критичних ситуаціях — які проявляться лише після впровадження, можливо, з серйозними наслідками. Для суспільства це трохи схоже на розробку потужних нових ліків у секреті: ми можемо дізнатися про побічні ефекти лише тоді, коли вже буде запізно.

Дезінформація та маніпуляції також викликають занепокоєння. Якщо державний орган або корпорація таємно розробить надзвичайно переконливу мовну модель, її можна буде використати для наповнення соціальних мереж спеціально підібраною пропагандою або deepfake-контентом. Демократичні суспільства хвилює, що ШІ можуть використати для впливу на громадську думку чи результати виборів. Джеффрі Хінтон, відомий піонер ШІ, назвав це одним із ключових страхів після того, як залишив Google, — попереджаючи, що ШІ може «дозволити авторитарним лідерам маніпулювати своїм електоратом» з небаченою ефективністю theguardian.com. Якщо такі можливості розробляються за зачиненими дверима (наприклад, держава може навчати ШІ пропагандистським технікам і не визнавати цього), громадянському суспільству буде дуже складно організувати захист.

Існує також сценарій жаху, який часто обговорюють у гіпотетичних термінах: емергентний надінтелект, що може загрожувати людству. Хоча це все ще сфера спекуляцій, низка авторитетних мислителів вважає це достатньо серйозною можливістю, щоб вимагати підготовки. Якщо якась організація досягне значного кроку до AGI у таємниці, чи врахують вони належним чином питання безпеки? Той факт, що дослідники самої OpenAI були змушені написати листа з попередженням до своєї ради про потенційні небезпеки (як це сталося з інцидентом Q), показує, що навіть всередині організації науковці з ШІ хвилюються про надто швидкий прогрес без належного нагляду reuters.com. Тодішня рада OpenAI побоювалася «комерціалізувати [ШІ] досягнення, не розуміючи наслідків», за словами джерел щодо звільнення Альтмана reuters.com. Це підкреслює структурну проблему: у сфері технологій часто існує стимул спочатку впроваджувати, а потім ставити питання. Такий підхід «рухайся швидко і ламай усе», який був прийнятним у добу соцмереж, стає набагато небезпечнішим із потужним ШІ, який у крайньому випадку може «вирішити, що знищення людства відповідає його інтересам», як попереджали деякі комп’ютерні науковці у застережних історіях reuters.com. Чим більш закритою є розробка, тим менше зовнішнього контролю і, можливо, менше внутрішньої обережності, якщо конкуренція висока.

Відсутність прозорості також підриває довіру суспільства до ШІ. Люди вже й так відчувають занепокоєння через те, що ШІ приймає рішення, які впливають на їхнє життя (від схвалення кредитів до медичних діагнозів). Це занепокоєння посилюється, коли системи ШІ по суті є «чорними скриньками», створеними організаціями, які не розкривають, як вони працюють. Ми ризикуємо опинитися в ситуації, коли кілька суб’єктів володіють надзвичайно потужним ШІ без розуміння суспільством чи його участі. Як зазначено у відкритому листі Інституту майбутнього життя (підписаному багатьма представниками техносфери), «Такі рішення не повинні делегуватися невибраним лідерам технічної галузі.» reuters.com. Тут на кону стоїть демократичний принцип: якщо АЗІ справді стане трансформаційною технологією, яка може змінити суспільство, чи варто залишати її створення приватним суб’єктам, що діють у таємниці? У листі прямо запитували: «Чи повинні ми дозволити машинам заповнювати наші інформаційні канали пропагандою та неправдою? … Чи повинні ми розробляти нелюдські розуми, які зрештою можуть перевершити, витіснити й замінити нас?» – і відповідали, що ці питання надто важливі, щоб залишати їх у руках кількох генеральних директорів reuters.com. Це відображає зростаючу думку, що розвиток ШІ потребує колективного нагляду. Дехто навіть пропонує, що дослідження передового ШІ можуть вимагати ліцензування чи моніторингу, подібно до того, як поводяться з ядерними матеріалами, враховуючи можливі наслідки.

Ще один етичний аспект — це чесна конкуренція та справедливість. Якщо найпотужніші системи ШІ будуть зосереджені в одних руках, це може створити величезний дисбаланс сил. Уявіть, якщо лише одна компанія чи країна розробить АЗІ, яка може різко підвищити продуктивність чи науковий прогрес. Такий суб’єкт отримає непропорційну перевагу — економічну, військову тощо. Суспільство може стати небезпечно нерівним, розділеним на тих, хто має ШІ, і тих, хто не має. Навіть у меншому масштабі, нинішні LLM, які переважно є власністю великих компаній, зміщують баланс на користь великих технологічних гігантів (OpenAI, Google тощо) і віддаляють його від відкритих спільнот чи менших гравців. Саме тому витік Meta та її зусилля з відкритим кодом були схвалені деякими — це «демократизувало ШІ», надавши інструменти багатьом. Але разом із демократизацією з’являється ризик зловживань (як і з будь-якою потужною технологією). Ми фактично обговорюємо, що небезпечніше: таємний контроль над супер-ШІ кількома, чи доступ до потужного ШІ для всіх, включаючи зловмисників. Однозначної відповіді немає. Можливо, обидва шляхи несуть унікальні ризики.

Секретність також ускладнює регулювання. Уряди поспіхом розробляють регулювання ШІ (AI Act ЄС, обговорення наглядових рад у США тощо), але якщо регулятори навіть не знають, що саме створюється, вони завжди відстають. Наприклад, як регулятор може вимагати перевірки безпеки системи ШІ, якщо про її існування не повідомляють? Навіть якщо повідомляють, без деталей перевірка буде формальністю. Деякі пропозиції передбачають конфіденційне розкриття певної інформації державним органам (наприклад, розмір моделі, джерела навчальних даних, результати тестування), щоб принаймні влада могла оцінити ситуацію. Поки що компанії неохоче погоджуються, здебільшого пропонуючи добровільне дотримання. У середині 2023 року Білий дім домігся, щоб сім провідних компаній ШІ пообіцяли проходити незалежне тестування безпеки своїх моделей і ділитися інформацією про ризики з урядом. Це був початок, але ці зобов’язання були необов’язковими й досить розмитими.

Ми також стикаємося з етичними питаннями щодо узгодженості та безпеки ШІ, коли розробка відбувається ізольовано. Якщо кожна лабораторія вирішує питання узгодженості (забезпечення того, щоб ШІ поводився відповідно до людських цінностей) внутрішньо, вони можуть упустити ідеї, які могли б з’явитися завдяки співпраці чи громадському обговоренню. Ширша дослідницька спільнота, включаючи етиків і філософів, могла б допомогти спрямувати розробку АЗІ у безпечніше русло – але лише якщо вони знають, що відбувається. Тут можуть відігравати роль викривачі: раніше ми бачили, як деякі дослідники OpenAI повідомили про Q, оскільки мали занепокоєння щодо безпеки reuters.com. Подібним чином, етична команда Google з питань ШІ (зокрема такі фахівці, як Тімніт Гебру, яку звільнили після того, як вона підняла питання упередженості у 2020 році) часто конфліктувала із секретністю та темпами впровадження ШІ. Якщо етичні питання придушуються всередині компанії (через прибуток чи конкуренцію), вони можуть потрапити у публічну сферу лише через витоки або постфактум. Це не є надійною моделлю управління.

Нарешті, варто врахувати готовність суспільства до АЗІ або майже-АЗІ. Якщо розробка здебільшого відбувається таємно, суспільство не матиме шансу поступово адаптуватися. Це може стати шоком для системи – раптом компанія оголошує про ШІ, який може надійно виконувати більшість людських робіт, або уряд тихо починає використовувати АЗІ для стратегічних рішень. Соціальні, економічні та психологічні потрясіння можуть бути величезними. Деякі експерти виступають за більш відкритий, поетапний підхід саме для того, щоб людство могло скоригувати норми, оновити освіту та впровадити політики до того, як технологія обрушиться, як сніг на голову. Секретність працює проти цього підготовчого періоду.

Заклики до прозорості, нагляду та обережного прогресу

Зі зростанням занепокоєння, голоси як зсередини, так і ззовні світу ШІ закликають до більшої прозорості та нагляду у розробці передових ШІ. Одним із найгучніших закликів був відкритий лист Future of Life Institute у березні 2023 року, згаданий раніше. Цей лист, який, зокрема, підписали Ілон Маск, співзасновник Apple Стів Возняк і численні експерти з ШІ, закликав до 6-місячної паузи у навчанні систем ШІ, потужніших за GPT-4 reuters.com. Серед підписантів листа були представники як індустрії, так і академічних кіл – навіть деякі дослідники з DeepMind та інших провідних лабораторій додали свої імена reuters.com. Основна ідея: нам потрібен час, щоб встановити запобіжники. У листі стверджувалося, що лабораторії ШІ та незалежні експерти повинні використати таку паузу для розробки спільних протоколів безпеки і стратегій управління для передових ШІ reuters.com. Одна з вражаючих фраз у листі запитувала: «Чи повинні ми розробляти нелюдські розуми, які зрештою можуть перевершити нас чисельно, розумово, зробити нас застарілими й замінити? … такі рішення не повинні делегуватися невибраним лідерам техноіндустрії.» reuters.com. Це втілює аргумент про демократичний нагляд – по суті, вимагаючи, щоб траєкторія розвитку ШІ підлягала колективній згоді суспільства, а не лише амбіціям кількох компаній. Хоча запропонований мораторій так і не відбувся (жодна лабораторія публічно не призупинила роботу; навпаки, OpenAI незабаром після цього випустила оновлення на основі GPT-4.5), листу вдалося викликати глобальну дискусію. Ймовірно, це підштовхнуло уряди до більш термінового розгляду регуляторних дій.

Регулятори дійсно активізували свої зусилля. Європейський Союз знаходиться на завершальній стадії розробки Закону про ШІ, який передбачає вимоги до систем ШІ залежно від рівня ризику. Для систем із високим ризиком (наприклад, тих, що використовуються в поліції, або, ймовірно, таких, як ШІ загального призначення, що контролює критичну інфраструктуру), Закон про ШІ вимагатиме прозорості щодо їхньої роботи, людського нагляду та навіть можливих оцінок зовнішніми аудиторами. Обговорюється включення найбільших моделей під ці правила, що може змусити компанії розкривати інформацію або дозволяти інспекції. У США поки що немає всеосяжного законодавства, але в Конгресі розглядаються різні пропозиції, а адміністрація Байдена скликає генеральних директорів компаній ШІ на закриті зустрічі з питань безпеки. На одному з таких форумів у 2023 році лідер більшості в Сенаті навіть запросив технічних директорів (зокрема Сема Олтмана, Марка Цукерберга та Сундара Пічаї) до Вашингтона на AI Insight Forum reuters.com, підкреслюючи двопартійну зацікавленість у тому, щоб не дозволити ШІ залишитися без регулювання. Сем Олтман, зі свого боку, публічно висловив підтримку регулюванню, навіть запропонувавши ідею ліцензування для потужного ШІ (хоча те, що він уявляє, може бути м’яким саморегулюючим органом, критики попереджають, що це також може закріпити домінування OpenAI, підвищивши бар’єр для менших гравців).

Окрім уряду, сама спільнота дослідників ШІ просуває норми відповідального розкриття інформації. З’являється ідея “норм публікації з безпеки ШІ”, коли певні результати (наприклад, як зробити модель значно потужнішою) можуть поширюватися обережно або не одразу відкриватися для уникнення зловживань. Деякі дослідники практикують керування “інфогазардом”, коли вони свідомо не публікують повні деталі небезпечних можливостей (наприклад, якщо хтось з’ясував, як масово обходити всі відомі фільтри безпеки в LLM, він може повідомити про це розробникам приватно, а не у Twitter). Але керувати інфогазардом так, щоб це не призводило до ще більшої секретності, складно. Однією з пропозицій є створення міжнародного наглядового органу за ШІ загального призначення або моніторингової агенції. Наприклад, відомий вчений у галузі ШІ Йошуа Бенджіо запропонував ідею чогось на кшталт Міжнародного агентства з атомної енергії (МАГАТЕ), але для ШІ – міжнародного органу, який міг би аудитувати та моніторити надпотужні проекти ШІ через кордони, забезпечуючи, щоб ніхто не брав на себе безвідповідальних ризиків. Це вимагатиме великої співпраці та довіри між країнами, що непросто, але вже є перші кроки: G7 започаткувала ініціативу під назвою Хіросімський процес з питань ШІ для обговорення глобального управління ШІ, а Велика Британія провела Глобальний саміт з безпеки ШІ наприкінці 2023 року, щоб країни дійшли згоди щодо екстремальних ризиків.

З боку індустрії навіть деякі інсайдери виступають за повільніший, більш відкритий підхід. Наприклад, Даріо Амодей (генеральний директор Anthropic) часто наголошує на обачності та ретельному тестуванні. Anthropic здобула репутацію компанії з підходом “AI safety first” (безпека ШІ передусім). Вони запровадили концепцію “конституційного ШІ” – тобто, щоб ШІ дотримувався набору письмових етичних принципів як способу його узгодження techcrunch.com. Така робота, якщо її відкрито поширювати, могла б допомогти всій галузі. І справді, Anthropic опублікувала деталі своїх методів. Проте цікаво, що їхні найбільш передові моделі та точні процеси навчання залишаються власністю компанії. Тож навіть у “орієнтованих на безпеку” фірмах існує напруга між відкритістю та конкурентною перевагою.

А як щодо широкої громадськості та громадянського суспільства? Ми також бачимо більшу залученість з їхнього боку. ГО та аналітичні центри (такі як Center for AI Safety, некомерційна рада OpenAI, Partnership on AI тощо) організовують дискусії щодо управління переходом до потужнішого ШІ. Деякі навіть опублікували сценарні плани на випадок, якщо буде розроблено ранній AGI – закликаючи, щоб його навчання та впровадження контролювали міждисциплінарні команди, включаючи етиків і, можливо, державних спостерігачів.

Одна з конкретних ідей, яка набирає популярності, – це “red-teaming” передових моделей із залученням зовнішніх експертів. Це означає, що до (або одразу після) запуску нової потужної моделі незалежні команди отримують доступ для ретельного тестування на наявність недоліків, упереджень, вразливостей тощо, а результати стають публічними або принаймні передаються регуляторам. OpenAI насправді частково застосувала це з GPT-4 – вони залучили зовнішніх науковців і консультантів для тестування (і розкрили деякі ризики у своїй system card). Однак, оскільки існування GPT-4 було таємницею до релізу, red-teams працювали під NDA, а результати оприлюднилися того ж дня, що й модель, що обмежило публічний контроль заздалегідь. У майбутньому нормою могло б стати те, що будь-яка модель вище певного порогу можливостей повинна проходити оцінювання перед впровадженням зовнішніми аудиторами. Це вимагатиме від компаній розкривати модель (під конфіденційністю) довіреній третій стороні – великий крок для закритих лабораторій, але, можливо, необхідний компроміс.

Багато хто висловлює етичний імператив, що ШІ має приносити користь усьому людству, а не лише тим, хто його першим створить. Це перегукується зі старою хартією OpenAI (де йшлося про розподіл вигод і недопущення домінування ШІ однією групою). Коли OpenAI перейшла на комерційну модель і стала менш прозорою, деякі критикували її за відмову від альтруїстичної позиції vice.com. Тепер з’являється заклик притягати компанії до відповідальності перед суспільними інтересами. Наприклад, у 2023 році Управління з питань конкуренції та ринків Великої Британії почало вивчати ринок базових моделей ШІ, фактично сигналізуючи: “ми стежимо, щоб кілька компаній не монополізували цю технологію на шкоду споживачам чи конкуренції”. Це економічний підхід, але він перегукується з етичними занепокоєннями щодо концентрації влади.

Нарешті, варто згадати, що не всі погоджуються щодо рівня ризику. Деякі експерти вважають, що страхи перед AGI перебільшені і що секретність — не головна проблема; натомість вони турбуються про більш нагальні питання, такі як упередженість ШІ, втрата робочих місць чи конфіденційність. Вони також виступають за більшу прозорість, але не тому, що бояться неконтрольованого суперінтелекту, а щоб забезпечити справедливість і підзвітність нинішніх систем. У будь-якому разі, прозорість (або її відсутність) є ключовою. Без неї ми не можемо належним чином вирішити жодну з цих проблем — від упередженості до екзистенційного ризику.

На завершення, світ опинився у складній ситуації балансування. Ми прагнемо інновацій, які обіцяє ШІ — ліків від хвороб, стрибків у продуктивності, нових наукових відкриттів. Але саме ці інновації можуть стати обоюдогострим мечем, якщо їх розробляти без запобіжників. Нещодавня історія внутрішньої кризи в OpenAI, коли співробітники нібито були стурбовані проривом і втручанням ради директорів, показує, що навіть винахідники обережні щодо того, що створюють reuters.com. Суспільство в цілому намагається наздогнати, щоб зрозуміти й спрямувати цю технологію. Прозорість — це не самоціль, а засіб забезпечити підзвітність, співпрацю та обґрунтоване прийняття рішень. Як сказав один із керівників ШІ, підхід «спочатку створити, потім виправити» був би неприйнятним в інших галузях із високими ставками theguardian.com — ми не повинні приймати його і для ШІ.

У найближчі кілька років, ймовірно, буде більше витоків і викриттів, оскільки інсайдери зіштовхуватимуться з етичними дилемами, більше чуток про AGI, оскільки лабораторії розширюватимуть межі, і, сподіваємось, більше конструктивного глобального діалогу про те, як з цим впоратися. Чи з’явиться AGI через 5 чи через 50 років, забезпечення того, щоб його розробка не відбувалася в повній темряві, може бути вирішальним для того, щоб зробити його благом, а не прокляттям для людства.

Джерела:

  • Reuters – Дослідники OpenAI попередили раду директорів про прорив у ШІ перед звільненням CEO, кажуть джерела reuters.com
  • Reuters – Ілон Маск та інші закликають призупинити розвиток ШІ, посилаючись на «ризики для суспільства» reuters.com
  • Vice – GPT-4 від OpenAI є закритим і оповитим таємницею vice.com
  • The Guardian – Інженера Google відсторонили після заяви, що чат-бот ШІ став свідомим theguardian.com
  • The Guardian – «Хрещений батько ШІ» Джеффрі Хінтон залишає Google і попереджає про небезпеки… theguardian.com
  • The Verge – Потужна мовна модель ШІ від Meta злилася в мережу — що буде далі? theverge.com
  • Reuters – Alibaba випустила ШІ-модель, яка, за їх словами, перевершує DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – ЦРУ створює власну версію ChatGPT fanaticalfuturist.com
  • TechCrunch – Anthropic: 5 мільярдів доларів і 4-річний план, щоб кинути виклик OpenAI techcrunch.com
  • MacRumors – Apple GPT: що ми знаємо про роботу Apple над генеративним ШІ macrumors.com
AI's first kill and why top experts predict our extinction.

Latest Posts

Don't Miss

Gene Therapy Revolution: Cures, Breakthroughs & Challenges in Genetic Medicine

Революція генної терапії: лікування, прориви та виклики у генетичній медицині

Casgevy (exagamglogene autotemcel) стала першою на світі затвердженою генною терапією
Fuel Cell Revolution: How Hydrogen Power is Transforming Transportation, Energy and Tech in 2025

Революція паливних елементів: як воднева енергія змінює транспорт, енергетику та технології у 2025 році

У 2025 році водневі паливні елементи набирають безпрецедентних обертів у