Senzace Sora-AI vyvolává falešné aplikace, rozruch v Hollywoodu a drama s deepfaky

13 října, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Virové spuštění: Nová video aplikace od OpenAI poháněná umělou inteligencí Sora (pouze pro iOS, pouze na pozvání) debutovala začátkem října 2025 a okamžitě se dostala na vrchol žebříčků stahování [1]. Během několika dnů dosáhla 1. místa v App Store, přičemž OpenAI hlásí více než 1 milion stažení [2]. Uživatelé mohou zadávat textové výzvy (nebo „camea“ skutečných lidí) pro generování hyperrealistických krátkých videí.
  • Vlna podvodů v App Store: Podvodníci se rychle snažili využít humbuku kolem Sory. Krátce po spuštění se v Apple App Store objevilo více než tucet falešných aplikací „Sora“ nebo „Sora 2“ [3]. Tyto napodobeniny dohromady získaly přibližně 300 000 instalací a během několika dnů vydělaly přes 160 000 dolarů [4] [5]. (Pro srovnání, studie zjistila, že počet podvodných iOS aplikací v roce 2025 vzrostl o 300 % a na Androidu o 600 %, poháněno podvody využívajícími AI [6].) Apple od té doby většinu klonů odstranil, ale některé stále procházejí kontrolou [7]. Technologičtí analytici varují, že to odráží širší „ekonomiku podvodů“, kde virový úspěch okamžitě přitahuje napodobitele [8] [9].
  • Hollywoodská reakce: Když OpenAI představila Sora 2 (30. září) s funkcí „Cameo“, která umožňuje zobrazovat skutečné tváře/postavy ve videích, zábavní průmysl explodoval. Hlavní studia, agentury (WME, CAA, UTA) a odbory (SAG-AFTRA) požadovaly, aby OpenAI přestala používat podobizny herců nebo postav bez povolení či odměny [10] [11]. Prezident SAG-AFTRA Sean Astin varoval, že Soraův přístup „opt-out“ „ohrožuje ekonomické základy celého našeho odvětví“ [12]. Warner Bros. a další zopakovali, že desetiletí autorského práva dávají držitelům práv kontrolu bez ohledu na politiku „opt-out“ [13]. Generální ředitel OpenAI Sam Altman na svém blogu reagoval, že nabídnou podrobnější ovládání a sdílení příjmů pro držitele práv [14] [15]. Hollywoodští právníci předpovídají, že „dva titáni“ (Silicon Valley vs Hollywood) budou bojovat o budoucnost AI v médiích [16] [17].
  • Obavy o soukromí a deepfake: Uživatelé a experti vyjádřili znepokojení ohledně osobních deepfake videí. Technologický sloupkař Washington Post Geoffrey Fowler zažil, že jeho přátelé použili Soru k „deepfaku“ jeho osoby v trapných videích bez jeho souhlasu [18] [19]. Oslovil experty, kteří zdůrazňují nutnost souhlasu. Eva Galperin (EFF) poznamenává, že taková videa „jsou mnohem nebezpečnější pro některé skupiny… Zásadně to, co OpenAI nepochopila, jsou mocenské dynamiky“ [20]. Hany Farid z UC Berkeley dodává: „Měli bychom mít mnohem větší kontrolu nad svou identitou,“ ale firmy se obávají, že přísnější kontrola by poškodila viralitu [21]. Jak varuje technologický sloupkař New York Times Brian Chen, s ultra-realistickým videem „myšlenka, že video může sloužit jako objektivní záznam reality“, může být u konce – budeme muset na video pohlížet se stejnou skepsí, jakou si dnes vyhrazujeme pro text [22].
  • Názory expertů: Představitelé odvětví zdůrazňují závažnost situace. Šéf MPAA Charles Rivkin vyzval OpenAI, aby „okamžitě a rozhodně zakročila“ s odkazem na autorské právo [23]. Mediální právník Kraig Baker (Davis Wright Tremaine) říká, že příval běžného AI videoobsahu zatíží zákony o publicitě a podobě, zejména u zesnulých osobností [24]. Komik Trevor Noah varoval, že Sora může být „katastrofální“, pokud budou podoby lidí použity bez souhlasu [25]. Na druhou stranu OpenAI tvrdí, že uživatelé „mají plnou kontrolu nad svou podobou od začátku do konce se Sora“ (prosazuje svůj opt-in model) [26], ačkoliv kritici upozorňují, že v podmínkách jsou skutečná omezení.

Na tomto pozadí se pojďme ponořit do celého příběhu:

Co je Sora a proč je to velká věc

Sora je nová mobilní aplikace od OpenAI pouze na pozvánky (iOS, web), která pomocí generativní AI proměňuje textové podněty – nebo dokonce krátká videa (camea) – v živé, krátké videoklipy. Uvedena byla koncem září 2025 a rychle se stala senzací. Data OpenAI ukazují více než milion instalací během několika dní [27] a rychle vystoupala na vrchol žebříčku bezplatných aplikací Applu. Hype podpořily ukázkové klipy lidí a kreslených postaviček v absurdních nebo akčních scénářích (například SpongeBob mluvící z Oválné pracovny) [28]. Uživatelé chválili neuvěřitelný realismus: tváře, výrazy i hlasy vypadaly přesvědčivě lidsky [29] [30].

Sora navazuje na předchozí vydání OpenAI (ChatGPT, DALL·E) a představuje skok v AI generovaných médiích. K 30. září Sam Altman oznámil Sora 2 – přidání režimu „Cameo“, kde mohl kdokoli nahrát krátké selfie nebo referenční obrázky a poté sám sebe (nebo jiné) vložit do generovaných videí [31]. Výsledek: fanoušci mohli vidět sami sebe v bláznivých AI videích. To ale také znamená, že Sora 2 z principu stírá hranici mezi fikcí a realitou: můžete napsat „já si objednávám tacos v tanečním klubu“ a Sora vygeneruje video, kde přesně to děláte.

Falešné aplikace Sora zaplavily App Store

Jakmile se objevily zprávy o Soře, App Store zaplavily podvodné aplikace. TechCrunch informoval, že „více než tucet“ aplikací se značkou Sora se objevilo ihned po oficiálním spuštění [32]. Mnohé z nich byly staré AI nebo video aplikace narychlo přejmenované na „Sora“, „Sora Video Generator“ nebo dokonce „Sora 2 Pro“. Některé existovaly měsíce pod jinými názvy a jednoduše přes noc změnily značku. Prošly schvalovacím procesem Applu, přestože používaly ochrannou známku OpenAI [33].

Tito napodobitelé zaznamenali obrovská čísla: Podle firmy Appfigures zabývající se analýzou aplikací bylo zaznamenáno přibližně 300 000 instalací falešných Sora aplikací (a příjmy ve výši 160 000 dolarů) jen během prvních několika dnů [34]. Jeden klon („Sora 2 – Video Generator AI“) získal přes 50 000 instalací díky agresivnímu využívání klíčového slova „Sora“. (Pro srovnání, OpenAI uvádí, že oficiální aplikace Sora dosáhla za stejnou dobu 1 milionu stažení official [35].) Podle eMarketer začal Apple rychle stahovat nejhorší případy, ale několik „měkkých podvodů“ zůstává skryto. Například aplikace s názvem „PetReels – Sora for Pets“ získala několik stovek instalací a dokonce i pseudo-název „Vi-sora“ těžící z rozruchu získal tisíce stažení [36].

Odborníci říkají, že to není překvapivé, ale spíše součást vzorce: každý průlomový technologický trend okamžitě přitahuje podvodné napodobeniny. Po spuštění ChatGPT v roce 2022 zaplavily obchody podobné „fleeceware“ aplikace a růst kryptoměn vedl v roce 2024 k falešným peněženkám [37]. Podle analýzy technologických novinek počet podvodných aplikací na iOS vzrostl v roce 2025 o 300 % (a o 600 % na Androidu), a to z velké části díky AI nástrojům, které usnadňují klonování [38] [39]. Tyto Sora klony tuto zranitelnost využily. Jeden technologický odborník varuje, že AI umožňuje začátečníkům vytvářet plně propracované aplikace (popisy, ikony atd.), které oklamou recenzenty i uživatele [40] [41].

Upozornění pro spotřebitele: Aby se předešlo padělkům, odborníci doporučují instalovat Soru pouze z oficiálních kanálů (např. web OpenAI) a pečlivě kontrolovat informace o vývojáři [42] [43]. V tuto chvíli je originální Sora pouze na pozvání; jakákoli aplikace slibující okamžitý přístup nebo stažení za poplatek je podezřelá. Tato vlna podvodů zdůrazňuje tvrdou lekci: virální úspěch AI může přinést podvodníkům velké peníze dříve, než si toho platformy všimnou [44] [45].

Hollywood vrací úder: Práva na podobu a možnost odhlášení

Mezitím v Hollywoodu spustila Sora 2 poplach. Dosud mohla Sora vytvářet pouze obecné fiktivní osoby. Ale s funkcí cameo mohla napodobovat skutečné celebrity a postavy ve výchozím nastavení – ať už se to studiím líbilo, nebo ne. Během několika hodin po uvedení Sory 2 vydala Motion Picture Assn. (MPA) a talentové agentury vzácné společné odsouzení. Předseda MPA Charles Rivkin prohlásil bez obalu: „OpenAI musí přijmout okamžitá a rozhodná opatření k řešení tohoto problému“, s odkazem na dlouho zavedené autorské zákony chránící podobu [46]. Sean Astin ze SAG-AFTRA označil tento přístup (odhlášení jako výchozí) za „ohrožení ekonomických základů celého našeho odvětví“ [47].

V praxi Sora 2 zpočátku zahrnovala každý veřejně dostupný obraz a výkon, který mohla najít – pokud držitel práv proaktivně nepožádal o vyřazení v systému OpenAI. (Jeden zasvěcený tvrdí, že OpenAI před spuštěním tiše řekla studiím, aby nahlásily jakékoli postavy nebo herce, kteří by neměli být zobrazeni [48].) Ale hlavní agentury to neakceptovaly. Během několika dnů WME (která zastupuje hvězdy jako Oprah Winfrey a Michael B. Jordan) oznámila OpenAI, že všichni jejich klienti musí být okamžitě vyřazeni [49]. CAA a UTA se přidaly s požadavkem, aby herci měli kontrolu a kompenzaci. Warner Bros. Discovery veřejně připomněla, že „desítky let vymahatelného autorského práva“ již dávají tvůrcům práva; nikdo nemusí žádat o vyřazení, aby zabránil porušení [50].

Dokonce i obhájci technologií uznávají střet: Varun Shetty z OpenAI (VP pro mediální partnerství) se snažil o pozitivní pohled a poznamenal, že fanoušci „vytvářejí originální videa a jsou nadšení z interakce se svými oblíbenými postavami, což vnímáme jako příležitost pro držitele práv navázat kontakt s fanoušky“ [51]. Ale studia v tom vidí obrovské riziko. Bývalí právníci varují, že další generace AI video nástrojů (od Googlu, Meta atd.) důkladně prověří autorská práva a pravidla publicity. Seattleský právník Anthony Glukhov poznamenává, že tento spor staví étos Silicon Valley „jednej rychle“ proti hollywoodské averzi ke ztrátě kontroly nad duševním vlastnictvím [52].

OpenAI odpověděla, že Sora 2 už má limity (záměrně negeneruje slavné osobnosti, pokud není použit cameo režim) a pracuje na nových ochranných opatřeních. Sam Altman na blogu uvedl, že OpenAI přidá „detailní ovládání“ pro držitele práv a dokonce vytvoří sdílení příjmů za použití chráněného obsahu [53] [54]. Společnost také zveřejnila bezpečnostního průvodce pro Sora 2, kde uvádí: „Pouze vy rozhodujete, kdo může použít vaše cameo, a přístup můžete kdykoli odebrat“ [55]. (Ve skutečnosti, jak kritici poznamenávají, ovládáte pouze přístup, ne obsah, jakmile je vytvořen – na toto omezení upozornil novinář Geoffrey Fowler, když OpenAI přiznala, že „to stejně spustili“, i když věděli, že jde o problém [56].)

Talenty a odbory slíbily, že budou dohlížet a vymáhat pravidla. SAG-AFTRA je obzvlášť ostražitá po nedávném incidentu: AI-generovaná herečka („Tilly Norwood“) byla téměř podepsána agenturou, vyděsila lidi a shodovala se s touto Sora aférou. Jeden právník z oboru to shrnuje: „Otázka není, jestli se studia pokusí prosadit, ale kdy a jak“ [57]. Stručně řečeno, právní bitva se zdá nevyhnutelná. Prozatím už tento pat ochladil část nadšení pro Sora v Hollywoodu, kde jsou mnohá loga a podoby blokovány ve výchozím nastavení.

Souhlas a etika deepfake

Kromě korporátních práv vyvolala Sora 2 poplach ohledně soukromí a souhlasu u běžných lidí. Na rozdíl od původní Sora (pouze text) Sora 2 výslovně povzbuzuje, abyste sdíleli svůj obličej pro umožnění cameo. Tento systém má však nedostatky. Jak uvedl The Washington Post, „souhlasíte“ tím, že nahrajete selfie video a zvolíte, kdo může vaše cameo vidět (přátelé, všichni, nebo jen vy) [58]. Jakmile je povoleno, kdokoli s povolením může generovat videa, kde děláte cokoli, jen zadáním promptu. Aplikace vás upozorní až poté, co je video s vámi vytvořeno [59] – a to už může být široce sdíleno.

Komentátor WP Geoff Fowler to otestoval a zpočátku to považoval za zábavné: přátelé mu vytvořili vtipná cameo videa v televizních pořadech a kuchařských katastrofách [60]. Brzy se však objevilo video, kde vypráví nevhodný vtip, který nikdy neřekl – dostatečně věrohodné, aby ho to znepokojilo [61]. Uvědomil si nebezpečí: pokud může AI realisticky zfalšovat, že páchám zločiny nebo nenávistné činy, diváci budou přemýšlet, zda je to skutečné. Fowler kontaktoval odborníky jako Eva Galperin (EFF), která varuje, že nenucené „celebritní“ video přeměny mohou být pro zranitelné osoby velmi škodlivé. Galperin to řekla přímo: „Videa přátel kradoucích v Targetu jsou pro některé skupiny mnohem nebezpečnější než pro jiné… To, co OpenAI nechápe, jsou mocenské dynamiky.“ [62] Jinými slovy, rozdávání deepfake moci ignoruje fakt, že ne každý je stejně chráněn, pokud je tato moc zneužita.

Výzkumníci v oblasti AI tento názor sdílejí. Hany Farid (UC Berkeley) to řekl přímo: „Měli bychom mít mnohem větší kontrolu nad svou identitou,“ ale upozorňuje, že každé další bezpečnostní opatření obvykle snižuje virálnost sociální aplikace [63]. Výchozí nastavení Sory jsou skutečně velmi otevřená: noví uživatelé automaticky sdílejí camea se všemi „vzájemnými“ (sledujícími, kteří sledují zpět) [64], což předpokládá přátelský vztah, který se může časem změnit. Galperin upozorňuje, že lidé často důvěřují příliš snadno; přátelství se může změnit v nepřátelství.

OpenAI od té doby přidalo nastavení „pokynů“ pro cameo – můžete uvést, jaká témata nebo ztvárnění jsou zakázána – a znovu zdůraznilo, že uživatelé mohou své cameo kdykoli smazat. Obsah Sory je také označen vodoznakem jako AI-generovaný [65]. Pozorovatelé však upozorňují, že vodoznaky lze odstranit během minuty úprav. A jak poznamenává Fowler, běžní uživatelé (na rozdíl od celebrit jako Sam Altman nebo iJustine) nebudou mít čas kontrolovat každý návrh videa, kde se objeví. Dokonce i iJustine, která své cameo otevřela všem, musela aktivně sledovat a mazat urážlivé klipy, které o ní vznikly [66].

Odborníci říkají, že tato technologie vyvolává kulturní posun: možná si budeme muset znovu osvojit praxi kultury souhlasu. Jeden mladý tvůrce tvrdí, že by si lidé měli výslovně vyžádat povolení, než veřejně zveřejní video s kamarádem v cameo roli [67]. Sám Fowler zvolil přísný postoj: nastavil svůj Sora na „pouze já“, což znamená, že videa sebe sama může generovat jen on. To omezuje sociální zábavu aplikace, ale považuje to za prohlášení o digitální důvěře: pokud nemůžete mít skutečnou kontrolu, možná byste se neměli účastnit.

Jak to vyjádřil sloupkař NYT Brian Chen (citováno v médiích): Realističnost Sory může znamenat „konec vizuálního faktu“ – video už nelze považovat za spolehlivý důkaz reality [68]. Brzy budou příspěvky s videi na sociálních sítích vnímány s takovou podezřívavostí jako texty napsané AI. Mezitím technologové zdůrazňují opatrnost: ověřujte obsah a dávejte si pozor na AI výměny obličejů.

Cesta vpřed: Politika a ochrana

Všechny tyto problémy ukazují na jedno: pravidla pro AI video se teprve tvoří. OpenAI se snaží rychle přidávat bezpečnostní prvky a společnosti jako Loti (startup) získávají pozornost. CEO Loti Luke Arrigoni říká, že zájem exploduje: lidé chtějí nástroje, jak aktivně spravovat svou digitální podobu, nejen reagovat zpětně. Uvádí, že jeho služba pro správu AI identity zaznamenala v poslední době 30násobný růst [69]. Technologičtí a právní experti naznačují, že budou pravděpodobně potřeba nové zákony – například dánská legislativa (citovaná Trevorem Noahem) nedávno dala jednotlivcům výslovnou kontrolu nad jejich digitálním obrazem. V USA někteří věří, že zákony o právu na publicitu se budou muset pro AI vyvíjet.

Jedno je jasné: uživatelé, tvůrci i platformy budou muset více pracovat na nastavení norem souhlasu. Pobouření kolem Sora 2 už přimělo OpenAI upravit své zásady. V budoucích AI nástrojích možná uvidíme povinné mechanismy předběžného schválení nebo detailnější možnosti sdílení zabudované od začátku. Mezitím by spotřebitelé měli k videím na sociálních sítích přistupovat skepticky a dvakrát si rozmyslet, zda aplikacím poskytnou přístup ke svým obličejovým datům.

Shrnutí: Sora od OpenAI ukázala neuvěřitelnou sílu AI videa – ale také místa, kde právo, etika a bezpečnost narážejí na limity. Falešné aplikace a fanoušci deepfake využili její popularity; Hollywood a držitelé práv tvrdě bojují zpět; a běžní lidé teprve začínají řešit, co znamená „vlastnit“ svou tvář online. Jak řekl jeden odborník, naše společnost bude pravděpodobně muset na všechna videa nahlížet novýma, zvídavýma očima [70].

Zdroje: Nedávné zprávy a analýzy o Sora z TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer a dalších (viz citace). Tyto podrobně popisují statistiky spuštění Sora, podvody s falešnými aplikacemi [71] [72], námitky Hollywoodu [73] [74] a obavy o soukromí/deepfake s odbornými komentáři [75] [76] [77], spolu s dalšími událostmi. Všichni citovaní odborníci a údaje jsou řádně uvedeni.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • India reviews industry proposal for always-on satellite location tracking on smartphones amid privacy and security concerns
    December 7, 2025, 7:38 AM EST. Reuters reports that India is reviewing a proposal by the Cellular Operators Association of India (COAI) to require smartphones to keep satellite-based A-GPS active at all times for precise location data. The idea aims to overcome reliance on cellular tower data in investigations. Apple, Samsung, and Google oppose mandating always-on A-GPS, while ICEA warns of privacy, legal, and national security concerns and calls it regulatory overreach. The proposal also seeks to disable pop-up location alerts that warn users when carriers access location data. ICEA emphasizes privacy should take priority and notes there is no global precedent for such device-level tracking. The government had scheduled a meeting with top executives, which was postponed, keeping the debate in the spotlight on privacy versus security in telecom policy.
  • New satellite tool maps Israeli forests from space to support forest management
    December 7, 2025, 7:22 AM EST. A new satellite tool uses remote-sensing to map Israeli forests from space, aiding forest management. The effort, noted by a KKL-JNF statement, cautions that remote-sensing tools cannot replace field surveys in the near term. The project aligns with broader space-monitoring initiatives, such as the ESA's Biomass satellite designed to map Earth's forests and measure carbon storage. While providing wide-area insights, officials emphasize ground-truthing and continued on-site work to validate data. The initiative shows how space-based monitoring can inform policy and conservation, providing up-to-date forest extent, health indicators, and carbon metrics to support sustainable forestry.
  • Prediction: 2 Hypergrowth Stocks That Could Outpace Nvidia Through 2030
    December 7, 2025, 7:20 AM EST. While Nvidia has delivered sky-high gains, two AI-fueled growth stocks could outperform it by 2030: Alphabet and AppLovin. Alphabet is doubling down on AI leadership with its Gemini AI models, its own AI chips, and a multi-stream business that includes Online ads and Google Cloud, plus expansion via Waymo. Its competitive AI push could boost revenue and invite pricing pressure on rivals. AppLovin continues to monetize mobile apps with a high-growth, AI-powered adtech platform, delivering durable ad growth and expanding margins. Together, these firms illustrate how diversified tech ecosystems with strong AI foundations may offer bigger long-term returns than a hardware-led winner like Nvidia.
  • Samsung Galaxy Watch 8 Hits Lowest Price Ever on Amazon
    December 7, 2025, 7:18 AM EST. Amazon is offering the Samsung Galaxy Watch 8 at its lowest price ever, with both the 40 mm and 44 mm variants available. The deal highlights the latest Galaxy wearable in two size options on Amazon.
  • Pixel Watch updates always-on display with media controls and timer in Wear OS 6
    December 7, 2025, 6:52 AM EST. Google's Pixel Watch gets a refined always-on display with Wear OS 6, now keeping media controls and the timer visible without blurring. Previously these quick tools faded away after a short moment, but the update extends the on-screen time and tweaks the display. Spotted by 9to5Google, the change makes it easier to control music or time workouts and cooking without waking the screen. The improvement follows praise for the Pixel Watch, which Mashable previously named among the best Android smartwatches of 2025. In short, owners get a more practical, glanceable experience on the wrist with fewer taps.