Senzace Sora-AI vyvolává falešné aplikace, rozruch v Hollywoodu a drama s deepfaky

13 října, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Virové spuštění: Nová video aplikace od OpenAI poháněná umělou inteligencí Sora (pouze pro iOS, pouze na pozvání) debutovala začátkem října 2025 a okamžitě se dostala na vrchol žebříčků stahování [1]. Během několika dnů dosáhla 1. místa v App Store, přičemž OpenAI hlásí více než 1 milion stažení [2]. Uživatelé mohou zadávat textové výzvy (nebo „camea“ skutečných lidí) pro generování hyperrealistických krátkých videí.
  • Vlna podvodů v App Store: Podvodníci se rychle snažili využít humbuku kolem Sory. Krátce po spuštění se v Apple App Store objevilo více než tucet falešných aplikací „Sora“ nebo „Sora 2“ [3]. Tyto napodobeniny dohromady získaly přibližně 300 000 instalací a během několika dnů vydělaly přes 160 000 dolarů [4] [5]. (Pro srovnání, studie zjistila, že počet podvodných iOS aplikací v roce 2025 vzrostl o 300 % a na Androidu o 600 %, poháněno podvody využívajícími AI [6].) Apple od té doby většinu klonů odstranil, ale některé stále procházejí kontrolou [7]. Technologičtí analytici varují, že to odráží širší „ekonomiku podvodů“, kde virový úspěch okamžitě přitahuje napodobitele [8] [9].
  • Hollywoodská reakce: Když OpenAI představila Sora 2 (30. září) s funkcí „Cameo“, která umožňuje zobrazovat skutečné tváře/postavy ve videích, zábavní průmysl explodoval. Hlavní studia, agentury (WME, CAA, UTA) a odbory (SAG-AFTRA) požadovaly, aby OpenAI přestala používat podobizny herců nebo postav bez povolení či odměny [10] [11]. Prezident SAG-AFTRA Sean Astin varoval, že Soraův přístup „opt-out“ „ohrožuje ekonomické základy celého našeho odvětví“ [12]. Warner Bros. a další zopakovali, že desetiletí autorského práva dávají držitelům práv kontrolu bez ohledu na politiku „opt-out“ [13]. Generální ředitel OpenAI Sam Altman na svém blogu reagoval, že nabídnou podrobnější ovládání a sdílení příjmů pro držitele práv [14] [15]. Hollywoodští právníci předpovídají, že „dva titáni“ (Silicon Valley vs Hollywood) budou bojovat o budoucnost AI v médiích [16] [17].
  • Obavy o soukromí a deepfake: Uživatelé a experti vyjádřili znepokojení ohledně osobních deepfake videí. Technologický sloupkař Washington Post Geoffrey Fowler zažil, že jeho přátelé použili Soru k „deepfaku“ jeho osoby v trapných videích bez jeho souhlasu [18] [19]. Oslovil experty, kteří zdůrazňují nutnost souhlasu. Eva Galperin (EFF) poznamenává, že taková videa „jsou mnohem nebezpečnější pro některé skupiny… Zásadně to, co OpenAI nepochopila, jsou mocenské dynamiky“ [20]. Hany Farid z UC Berkeley dodává: „Měli bychom mít mnohem větší kontrolu nad svou identitou,“ ale firmy se obávají, že přísnější kontrola by poškodila viralitu [21]. Jak varuje technologický sloupkař New York Times Brian Chen, s ultra-realistickým videem „myšlenka, že video může sloužit jako objektivní záznam reality“, může být u konce – budeme muset na video pohlížet se stejnou skepsí, jakou si dnes vyhrazujeme pro text [22].
  • Názory expertů: Představitelé odvětví zdůrazňují závažnost situace. Šéf MPAA Charles Rivkin vyzval OpenAI, aby „okamžitě a rozhodně zakročila“ s odkazem na autorské právo [23]. Mediální právník Kraig Baker (Davis Wright Tremaine) říká, že příval běžného AI videoobsahu zatíží zákony o publicitě a podobě, zejména u zesnulých osobností [24]. Komik Trevor Noah varoval, že Sora může být „katastrofální“, pokud budou podoby lidí použity bez souhlasu [25]. Na druhou stranu OpenAI tvrdí, že uživatelé „mají plnou kontrolu nad svou podobou od začátku do konce se Sora“ (prosazuje svůj opt-in model) [26], ačkoliv kritici upozorňují, že v podmínkách jsou skutečná omezení.

Na tomto pozadí se pojďme ponořit do celého příběhu:

Co je Sora a proč je to velká věc

Sora je nová mobilní aplikace od OpenAI pouze na pozvánky (iOS, web), která pomocí generativní AI proměňuje textové podněty – nebo dokonce krátká videa (camea) – v živé, krátké videoklipy. Uvedena byla koncem září 2025 a rychle se stala senzací. Data OpenAI ukazují více než milion instalací během několika dní [27] a rychle vystoupala na vrchol žebříčku bezplatných aplikací Applu. Hype podpořily ukázkové klipy lidí a kreslených postaviček v absurdních nebo akčních scénářích (například SpongeBob mluvící z Oválné pracovny) [28]. Uživatelé chválili neuvěřitelný realismus: tváře, výrazy i hlasy vypadaly přesvědčivě lidsky [29] [30].

Sora navazuje na předchozí vydání OpenAI (ChatGPT, DALL·E) a představuje skok v AI generovaných médiích. K 30. září Sam Altman oznámil Sora 2 – přidání režimu „Cameo“, kde mohl kdokoli nahrát krátké selfie nebo referenční obrázky a poté sám sebe (nebo jiné) vložit do generovaných videí [31]. Výsledek: fanoušci mohli vidět sami sebe v bláznivých AI videích. To ale také znamená, že Sora 2 z principu stírá hranici mezi fikcí a realitou: můžete napsat „já si objednávám tacos v tanečním klubu“ a Sora vygeneruje video, kde přesně to děláte.

Falešné aplikace Sora zaplavily App Store

Jakmile se objevily zprávy o Soře, App Store zaplavily podvodné aplikace. TechCrunch informoval, že „více než tucet“ aplikací se značkou Sora se objevilo ihned po oficiálním spuštění [32]. Mnohé z nich byly staré AI nebo video aplikace narychlo přejmenované na „Sora“, „Sora Video Generator“ nebo dokonce „Sora 2 Pro“. Některé existovaly měsíce pod jinými názvy a jednoduše přes noc změnily značku. Prošly schvalovacím procesem Applu, přestože používaly ochrannou známku OpenAI [33].

Tito napodobitelé zaznamenali obrovská čísla: Podle firmy Appfigures zabývající se analýzou aplikací bylo zaznamenáno přibližně 300 000 instalací falešných Sora aplikací (a příjmy ve výši 160 000 dolarů) jen během prvních několika dnů [34]. Jeden klon („Sora 2 – Video Generator AI“) získal přes 50 000 instalací díky agresivnímu využívání klíčového slova „Sora“. (Pro srovnání, OpenAI uvádí, že oficiální aplikace Sora dosáhla za stejnou dobu 1 milionu stažení official [35].) Podle eMarketer začal Apple rychle stahovat nejhorší případy, ale několik „měkkých podvodů“ zůstává skryto. Například aplikace s názvem „PetReels – Sora for Pets“ získala několik stovek instalací a dokonce i pseudo-název „Vi-sora“ těžící z rozruchu získal tisíce stažení [36].

Odborníci říkají, že to není překvapivé, ale spíše součást vzorce: každý průlomový technologický trend okamžitě přitahuje podvodné napodobeniny. Po spuštění ChatGPT v roce 2022 zaplavily obchody podobné „fleeceware“ aplikace a růst kryptoměn vedl v roce 2024 k falešným peněženkám [37]. Podle analýzy technologických novinek počet podvodných aplikací na iOS vzrostl v roce 2025 o 300 % (a o 600 % na Androidu), a to z velké části díky AI nástrojům, které usnadňují klonování [38] [39]. Tyto Sora klony tuto zranitelnost využily. Jeden technologický odborník varuje, že AI umožňuje začátečníkům vytvářet plně propracované aplikace (popisy, ikony atd.), které oklamou recenzenty i uživatele [40] [41].

Upozornění pro spotřebitele: Aby se předešlo padělkům, odborníci doporučují instalovat Soru pouze z oficiálních kanálů (např. web OpenAI) a pečlivě kontrolovat informace o vývojáři [42] [43]. V tuto chvíli je originální Sora pouze na pozvání; jakákoli aplikace slibující okamžitý přístup nebo stažení za poplatek je podezřelá. Tato vlna podvodů zdůrazňuje tvrdou lekci: virální úspěch AI může přinést podvodníkům velké peníze dříve, než si toho platformy všimnou [44] [45].

Hollywood vrací úder: Práva na podobu a možnost odhlášení

Mezitím v Hollywoodu spustila Sora 2 poplach. Dosud mohla Sora vytvářet pouze obecné fiktivní osoby. Ale s funkcí cameo mohla napodobovat skutečné celebrity a postavy ve výchozím nastavení – ať už se to studiím líbilo, nebo ne. Během několika hodin po uvedení Sory 2 vydala Motion Picture Assn. (MPA) a talentové agentury vzácné společné odsouzení. Předseda MPA Charles Rivkin prohlásil bez obalu: „OpenAI musí přijmout okamžitá a rozhodná opatření k řešení tohoto problému“, s odkazem na dlouho zavedené autorské zákony chránící podobu [46]. Sean Astin ze SAG-AFTRA označil tento přístup (odhlášení jako výchozí) za „ohrožení ekonomických základů celého našeho odvětví“ [47].

V praxi Sora 2 zpočátku zahrnovala každý veřejně dostupný obraz a výkon, který mohla najít – pokud držitel práv proaktivně nepožádal o vyřazení v systému OpenAI. (Jeden zasvěcený tvrdí, že OpenAI před spuštěním tiše řekla studiím, aby nahlásily jakékoli postavy nebo herce, kteří by neměli být zobrazeni [48].) Ale hlavní agentury to neakceptovaly. Během několika dnů WME (která zastupuje hvězdy jako Oprah Winfrey a Michael B. Jordan) oznámila OpenAI, že všichni jejich klienti musí být okamžitě vyřazeni [49]. CAA a UTA se přidaly s požadavkem, aby herci měli kontrolu a kompenzaci. Warner Bros. Discovery veřejně připomněla, že „desítky let vymahatelného autorského práva“ již dávají tvůrcům práva; nikdo nemusí žádat o vyřazení, aby zabránil porušení [50].

Dokonce i obhájci technologií uznávají střet: Varun Shetty z OpenAI (VP pro mediální partnerství) se snažil o pozitivní pohled a poznamenal, že fanoušci „vytvářejí originální videa a jsou nadšení z interakce se svými oblíbenými postavami, což vnímáme jako příležitost pro držitele práv navázat kontakt s fanoušky“ [51]. Ale studia v tom vidí obrovské riziko. Bývalí právníci varují, že další generace AI video nástrojů (od Googlu, Meta atd.) důkladně prověří autorská práva a pravidla publicity. Seattleský právník Anthony Glukhov poznamenává, že tento spor staví étos Silicon Valley „jednej rychle“ proti hollywoodské averzi ke ztrátě kontroly nad duševním vlastnictvím [52].

OpenAI odpověděla, že Sora 2 už má limity (záměrně negeneruje slavné osobnosti, pokud není použit cameo režim) a pracuje na nových ochranných opatřeních. Sam Altman na blogu uvedl, že OpenAI přidá „detailní ovládání“ pro držitele práv a dokonce vytvoří sdílení příjmů za použití chráněného obsahu [53] [54]. Společnost také zveřejnila bezpečnostního průvodce pro Sora 2, kde uvádí: „Pouze vy rozhodujete, kdo může použít vaše cameo, a přístup můžete kdykoli odebrat“ [55]. (Ve skutečnosti, jak kritici poznamenávají, ovládáte pouze přístup, ne obsah, jakmile je vytvořen – na toto omezení upozornil novinář Geoffrey Fowler, když OpenAI přiznala, že „to stejně spustili“, i když věděli, že jde o problém [56].)

Talenty a odbory slíbily, že budou dohlížet a vymáhat pravidla. SAG-AFTRA je obzvlášť ostražitá po nedávném incidentu: AI-generovaná herečka („Tilly Norwood“) byla téměř podepsána agenturou, vyděsila lidi a shodovala se s touto Sora aférou. Jeden právník z oboru to shrnuje: „Otázka není, jestli se studia pokusí prosadit, ale kdy a jak“ [57]. Stručně řečeno, právní bitva se zdá nevyhnutelná. Prozatím už tento pat ochladil část nadšení pro Sora v Hollywoodu, kde jsou mnohá loga a podoby blokovány ve výchozím nastavení.

Souhlas a etika deepfake

Kromě korporátních práv vyvolala Sora 2 poplach ohledně soukromí a souhlasu u běžných lidí. Na rozdíl od původní Sora (pouze text) Sora 2 výslovně povzbuzuje, abyste sdíleli svůj obličej pro umožnění cameo. Tento systém má však nedostatky. Jak uvedl The Washington Post, „souhlasíte“ tím, že nahrajete selfie video a zvolíte, kdo může vaše cameo vidět (přátelé, všichni, nebo jen vy) [58]. Jakmile je povoleno, kdokoli s povolením může generovat videa, kde děláte cokoli, jen zadáním promptu. Aplikace vás upozorní až poté, co je video s vámi vytvořeno [59] – a to už může být široce sdíleno.

Komentátor WP Geoff Fowler to otestoval a zpočátku to považoval za zábavné: přátelé mu vytvořili vtipná cameo videa v televizních pořadech a kuchařských katastrofách [60]. Brzy se však objevilo video, kde vypráví nevhodný vtip, který nikdy neřekl – dostatečně věrohodné, aby ho to znepokojilo [61]. Uvědomil si nebezpečí: pokud může AI realisticky zfalšovat, že páchám zločiny nebo nenávistné činy, diváci budou přemýšlet, zda je to skutečné. Fowler kontaktoval odborníky jako Eva Galperin (EFF), která varuje, že nenucené „celebritní“ video přeměny mohou být pro zranitelné osoby velmi škodlivé. Galperin to řekla přímo: „Videa přátel kradoucích v Targetu jsou pro některé skupiny mnohem nebezpečnější než pro jiné… To, co OpenAI nechápe, jsou mocenské dynamiky.“ [62] Jinými slovy, rozdávání deepfake moci ignoruje fakt, že ne každý je stejně chráněn, pokud je tato moc zneužita.

Výzkumníci v oblasti AI tento názor sdílejí. Hany Farid (UC Berkeley) to řekl přímo: „Měli bychom mít mnohem větší kontrolu nad svou identitou,“ ale upozorňuje, že každé další bezpečnostní opatření obvykle snižuje virálnost sociální aplikace [63]. Výchozí nastavení Sory jsou skutečně velmi otevřená: noví uživatelé automaticky sdílejí camea se všemi „vzájemnými“ (sledujícími, kteří sledují zpět) [64], což předpokládá přátelský vztah, který se může časem změnit. Galperin upozorňuje, že lidé často důvěřují příliš snadno; přátelství se může změnit v nepřátelství.

OpenAI od té doby přidalo nastavení „pokynů“ pro cameo – můžete uvést, jaká témata nebo ztvárnění jsou zakázána – a znovu zdůraznilo, že uživatelé mohou své cameo kdykoli smazat. Obsah Sory je také označen vodoznakem jako AI-generovaný [65]. Pozorovatelé však upozorňují, že vodoznaky lze odstranit během minuty úprav. A jak poznamenává Fowler, běžní uživatelé (na rozdíl od celebrit jako Sam Altman nebo iJustine) nebudou mít čas kontrolovat každý návrh videa, kde se objeví. Dokonce i iJustine, která své cameo otevřela všem, musela aktivně sledovat a mazat urážlivé klipy, které o ní vznikly [66].

Odborníci říkají, že tato technologie vyvolává kulturní posun: možná si budeme muset znovu osvojit praxi kultury souhlasu. Jeden mladý tvůrce tvrdí, že by si lidé měli výslovně vyžádat povolení, než veřejně zveřejní video s kamarádem v cameo roli [67]. Sám Fowler zvolil přísný postoj: nastavil svůj Sora na „pouze já“, což znamená, že videa sebe sama může generovat jen on. To omezuje sociální zábavu aplikace, ale považuje to za prohlášení o digitální důvěře: pokud nemůžete mít skutečnou kontrolu, možná byste se neměli účastnit.

Jak to vyjádřil sloupkař NYT Brian Chen (citováno v médiích): Realističnost Sory může znamenat „konec vizuálního faktu“ – video už nelze považovat za spolehlivý důkaz reality [68]. Brzy budou příspěvky s videi na sociálních sítích vnímány s takovou podezřívavostí jako texty napsané AI. Mezitím technologové zdůrazňují opatrnost: ověřujte obsah a dávejte si pozor na AI výměny obličejů.

Cesta vpřed: Politika a ochrana

Všechny tyto problémy ukazují na jedno: pravidla pro AI video se teprve tvoří. OpenAI se snaží rychle přidávat bezpečnostní prvky a společnosti jako Loti (startup) získávají pozornost. CEO Loti Luke Arrigoni říká, že zájem exploduje: lidé chtějí nástroje, jak aktivně spravovat svou digitální podobu, nejen reagovat zpětně. Uvádí, že jeho služba pro správu AI identity zaznamenala v poslední době 30násobný růst [69]. Technologičtí a právní experti naznačují, že budou pravděpodobně potřeba nové zákony – například dánská legislativa (citovaná Trevorem Noahem) nedávno dala jednotlivcům výslovnou kontrolu nad jejich digitálním obrazem. V USA někteří věří, že zákony o právu na publicitu se budou muset pro AI vyvíjet.

Jedno je jasné: uživatelé, tvůrci i platformy budou muset více pracovat na nastavení norem souhlasu. Pobouření kolem Sora 2 už přimělo OpenAI upravit své zásady. V budoucích AI nástrojích možná uvidíme povinné mechanismy předběžného schválení nebo detailnější možnosti sdílení zabudované od začátku. Mezitím by spotřebitelé měli k videím na sociálních sítích přistupovat skepticky a dvakrát si rozmyslet, zda aplikacím poskytnou přístup ke svým obličejovým datům.

Shrnutí: Sora od OpenAI ukázala neuvěřitelnou sílu AI videa – ale také místa, kde právo, etika a bezpečnost narážejí na limity. Falešné aplikace a fanoušci deepfake využili její popularity; Hollywood a držitelé práv tvrdě bojují zpět; a běžní lidé teprve začínají řešit, co znamená „vlastnit“ svou tvář online. Jak řekl jeden odborník, naše společnost bude pravděpodobně muset na všechna videa nahlížet novýma, zvídavýma očima [70].

Zdroje: Nedávné zprávy a analýzy o Sora z TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer a dalších (viz citace). Tyto podrobně popisují statistiky spuštění Sora, podvody s falešnými aplikacemi [71] [72], námitky Hollywoodu [73] [74] a obavy o soukromí/deepfake s odbornými komentáři [75] [76] [77], spolu s dalšími událostmi. Všichni citovaní odborníci a údaje jsou řádně uvedeni.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • First Windows 10 ESU Update Fails on Company-Licensed PCs, Microsoft Investigates 0x800f0922
    November 18, 2025, 11:44 PM EST. Microsoft is investigating a bug that prevents the first Windows 10 ESU update (KB5068781) from installing on devices with a company license. Reports show the update appears to install but after a restart it rolls back with error 0x800f0922. The issue does not affect consumers using private licenses, and Microsoft has not announced a patch or workaround yet. The root cause appears tied to the activation of Windows subscriptions via the Microsoft 365 Admin Center. Regular Windows 10 users can still receive the ESU update automatically once their device is registered, resulting in build number 19045.6575. No workaround is currently available. The ESU update remains a critical security update now that support for Windows 10 has ended.
  • Samsung Galaxy S25 Ultra gets early Black Friday cut with big discounts
    November 18, 2025, 11:42 PM EST. Samsung is rolling out early Black Friday deals on the Galaxy S25 Ultra with up to $700 instant trade-in credit and six months of Google AI Pro, though you can't stack them. All three storage tiers get $350 off: the 512GB at $1,069.99 (was $1,419.99), and the 1TB at $1,309.99 (was $1,659.99). The phone features a 6.9-inch QHD+ display, 12GB RAM, embedded S Pen, and the overclocked Snapdragon 8 Elite with a 200MP main camera and 100x Space Zoom. Our take: a big, capable phone with long-term support (seven-year software updates). A base price dip to $949.99 makes it competitive against rivals. If you want up-to-date Galaxy software and S Pen, act fast-these deals may not last.
  • NANLITE Unveils Cookie and Cookie-S Tiny USB-C LED Lights for Smartphones
    November 18, 2025, 11:40 PM EST. NANLITE launches the cookie and cookie-s tiny USB-C powered LED lights for smartphones. Weighing 21.4 g and powered directly from the USB-C port (no internal battery), they offer three brightness levels and three CCT temperatures (roughly 3200K, 4300K, 5600K). The dual-sided design provides hard light on one side and diffusion on the other, with eight LEDs per side and color accuracy: CRI 95 and TLCI 98. They support dual capture by lighting both sides simultaneously and come in coral pink, cyan blue, or lavender for $12.99.
  • Garmin Forerunner 165 vs. Coros Pace 4: Best starter AMOLED running watch showdown
    November 18, 2025, 11:38 PM EST. Looking to pick between the Coros Pace 4 and the Garmin Forerunner 165? This Wareable comparison covers two current-gen, entry-level AMOLED running watches. Both offer a light ~40g polymer case and a sharp 1.2-inch AMOLED (390x390) display. Price-wise, Pace 4 sits at about $249/£229 with dual-frequency GPS and strong battery life; the Forerunner 165 debuted at $249/$299 and often lands around $200-$250 as it matures, creating parity if you skip music. In use, Garmin's UI feels punchier out of the box, while Coros tends to keep brightness lower to squeeze extra hours. Verdict: choose the Pace 4 if you want premium screen tech and GPS at a modest premium; opt for the Forerunner 165 if you value software polish and near-price-parity on many SKUs.
  • Gemini 3: Google's Next-Gen AI with Enhanced Reasoning, Context, and Agentic Capabilities
    November 18, 2025, 11:36 PM EST. Google unveils Gemini 3, the next leap in the Gemini era, blending all prior generations' strengths into a single model. Gemini 3 achieves state-of-the-art reasoning, deep context understanding, and enhanced intent detection, delivering results with less prompting. Google is shipping Gemini at scale-from Search with Gemini 3 in AI Mode to the Gemini app, and to developers via AI Studio and Vertex AI, plus the new agentic platform Google Antigravity. The update follows widespread adoption: billions of monthly users across AI Overviews and the Gemini app; thousands of developers building with its models. Google emphasizes a full-stack approach spanning infrastructure, research, tooling, and consumer products to bring advanced capabilities to billions. Expect ongoing improvements and new developer opportunities.