- Virové spuštění: Nová video aplikace od OpenAI poháněná umělou inteligencí Sora (pouze pro iOS, pouze na pozvání) debutovala začátkem října 2025 a okamžitě se dostala na vrchol žebříčků stahování [1]. Během několika dnů dosáhla 1. místa v App Store, přičemž OpenAI hlásí více než 1 milion stažení [2]. Uživatelé mohou zadávat textové výzvy (nebo „camea“ skutečných lidí) pro generování hyperrealistických krátkých videí.
- Vlna podvodů v App Store: Podvodníci se rychle snažili využít humbuku kolem Sory. Krátce po spuštění se v Apple App Store objevilo více než tucet falešných aplikací „Sora“ nebo „Sora 2“ [3]. Tyto napodobeniny dohromady získaly přibližně 300 000 instalací a během několika dnů vydělaly přes 160 000 dolarů [4] [5]. (Pro srovnání, studie zjistila, že počet podvodných iOS aplikací v roce 2025 vzrostl o 300 % a na Androidu o 600 %, poháněno podvody využívajícími AI [6].) Apple od té doby většinu klonů odstranil, ale některé stále procházejí kontrolou [7]. Technologičtí analytici varují, že to odráží širší „ekonomiku podvodů“, kde virový úspěch okamžitě přitahuje napodobitele [8] [9].
- Hollywoodská reakce: Když OpenAI představila Sora 2 (30. září) s funkcí „Cameo“, která umožňuje zobrazovat skutečné tváře/postavy ve videích, zábavní průmysl explodoval. Hlavní studia, agentury (WME, CAA, UTA) a odbory (SAG-AFTRA) požadovaly, aby OpenAI přestala používat podobizny herců nebo postav bez povolení či odměny [10] [11]. Prezident SAG-AFTRA Sean Astin varoval, že Soraův přístup „opt-out“ „ohrožuje ekonomické základy celého našeho odvětví“ [12]. Warner Bros. a další zopakovali, že desetiletí autorského práva dávají držitelům práv kontrolu bez ohledu na politiku „opt-out“ [13]. Generální ředitel OpenAI Sam Altman na svém blogu reagoval, že nabídnou podrobnější ovládání a sdílení příjmů pro držitele práv [14] [15]. Hollywoodští právníci předpovídají, že „dva titáni“ (Silicon Valley vs Hollywood) budou bojovat o budoucnost AI v médiích [16] [17].
- Obavy o soukromí a deepfake: Uživatelé a experti vyjádřili znepokojení ohledně osobních deepfake videí. Technologický sloupkař Washington Post Geoffrey Fowler zažil, že jeho přátelé použili Soru k „deepfaku“ jeho osoby v trapných videích bez jeho souhlasu [18] [19]. Oslovil experty, kteří zdůrazňují nutnost souhlasu. Eva Galperin (EFF) poznamenává, že taková videa „jsou mnohem nebezpečnější pro některé skupiny… Zásadně to, co OpenAI nepochopila, jsou mocenské dynamiky“ [20]. Hany Farid z UC Berkeley dodává: „Měli bychom mít mnohem větší kontrolu nad svou identitou,“ ale firmy se obávají, že přísnější kontrola by poškodila viralitu [21]. Jak varuje technologický sloupkař New York Times Brian Chen, s ultra-realistickým videem „myšlenka, že video může sloužit jako objektivní záznam reality“, může být u konce – budeme muset na video pohlížet se stejnou skepsí, jakou si dnes vyhrazujeme pro text [22].
- Názory expertů: Představitelé odvětví zdůrazňují závažnost situace. Šéf MPAA Charles Rivkin vyzval OpenAI, aby „okamžitě a rozhodně zakročila“ s odkazem na autorské právo [23]. Mediální právník Kraig Baker (Davis Wright Tremaine) říká, že příval běžného AI videoobsahu zatíží zákony o publicitě a podobě, zejména u zesnulých osobností [24]. Komik Trevor Noah varoval, že Sora může být „katastrofální“, pokud budou podoby lidí použity bez souhlasu [25]. Na druhou stranu OpenAI tvrdí, že uživatelé „mají plnou kontrolu nad svou podobou od začátku do konce se Sora“ (prosazuje svůj opt-in model) [26], ačkoliv kritici upozorňují, že v podmínkách jsou skutečná omezení.
Na tomto pozadí se pojďme ponořit do celého příběhu:
Co je Sora a proč je to velká věc
Sora je nová mobilní aplikace od OpenAI pouze na pozvánky (iOS, web), která pomocí generativní AI proměňuje textové podněty – nebo dokonce krátká videa (camea) – v živé, krátké videoklipy. Uvedena byla koncem září 2025 a rychle se stala senzací. Data OpenAI ukazují více než milion instalací během několika dní [27] a rychle vystoupala na vrchol žebříčku bezplatných aplikací Applu. Hype podpořily ukázkové klipy lidí a kreslených postaviček v absurdních nebo akčních scénářích (například SpongeBob mluvící z Oválné pracovny) [28]. Uživatelé chválili neuvěřitelný realismus: tváře, výrazy i hlasy vypadaly přesvědčivě lidsky [29] [30].
Sora navazuje na předchozí vydání OpenAI (ChatGPT, DALL·E) a představuje skok v AI generovaných médiích. K 30. září Sam Altman oznámil Sora 2 – přidání režimu „Cameo“, kde mohl kdokoli nahrát krátké selfie nebo referenční obrázky a poté sám sebe (nebo jiné) vložit do generovaných videí [31]. Výsledek: fanoušci mohli vidět sami sebe v bláznivých AI videích. To ale také znamená, že Sora 2 z principu stírá hranici mezi fikcí a realitou: můžete napsat „já si objednávám tacos v tanečním klubu“ a Sora vygeneruje video, kde přesně to děláte.
Falešné aplikace Sora zaplavily App Store
Jakmile se objevily zprávy o Soře, App Store zaplavily podvodné aplikace. TechCrunch informoval, že „více než tucet“ aplikací se značkou Sora se objevilo ihned po oficiálním spuštění [32]. Mnohé z nich byly staré AI nebo video aplikace narychlo přejmenované na „Sora“, „Sora Video Generator“ nebo dokonce „Sora 2 Pro“. Některé existovaly měsíce pod jinými názvy a jednoduše přes noc změnily značku. Prošly schvalovacím procesem Applu, přestože používaly ochrannou známku OpenAI [33].
Tito napodobitelé zaznamenali obrovská čísla: Podle firmy Appfigures zabývající se analýzou aplikací bylo zaznamenáno přibližně 300 000 instalací falešných Sora aplikací (a příjmy ve výši 160 000 dolarů) jen během prvních několika dnů [34]. Jeden klon („Sora 2 – Video Generator AI“) získal přes 50 000 instalací díky agresivnímu využívání klíčového slova „Sora“. (Pro srovnání, OpenAI uvádí, že oficiální aplikace Sora dosáhla za stejnou dobu 1 milionu stažení official [35].) Podle eMarketer začal Apple rychle stahovat nejhorší případy, ale několik „měkkých podvodů“ zůstává skryto. Například aplikace s názvem „PetReels – Sora for Pets“ získala několik stovek instalací a dokonce i pseudo-název „Vi-sora“ těžící z rozruchu získal tisíce stažení [36].
Odborníci říkají, že to není překvapivé, ale spíše součást vzorce: každý průlomový technologický trend okamžitě přitahuje podvodné napodobeniny. Po spuštění ChatGPT v roce 2022 zaplavily obchody podobné „fleeceware“ aplikace a růst kryptoměn vedl v roce 2024 k falešným peněženkám [37]. Podle analýzy technologických novinek počet podvodných aplikací na iOS vzrostl v roce 2025 o 300 % (a o 600 % na Androidu), a to z velké části díky AI nástrojům, které usnadňují klonování [38] [39]. Tyto Sora klony tuto zranitelnost využily. Jeden technologický odborník varuje, že AI umožňuje začátečníkům vytvářet plně propracované aplikace (popisy, ikony atd.), které oklamou recenzenty i uživatele [40] [41].
Upozornění pro spotřebitele: Aby se předešlo padělkům, odborníci doporučují instalovat Soru pouze z oficiálních kanálů (např. web OpenAI) a pečlivě kontrolovat informace o vývojáři [42] [43]. V tuto chvíli je originální Sora pouze na pozvání; jakákoli aplikace slibující okamžitý přístup nebo stažení za poplatek je podezřelá. Tato vlna podvodů zdůrazňuje tvrdou lekci: virální úspěch AI může přinést podvodníkům velké peníze dříve, než si toho platformy všimnou [44] [45].
Hollywood vrací úder: Práva na podobu a možnost odhlášení
Mezitím v Hollywoodu spustila Sora 2 poplach. Dosud mohla Sora vytvářet pouze obecné fiktivní osoby. Ale s funkcí cameo mohla napodobovat skutečné celebrity a postavy ve výchozím nastavení – ať už se to studiím líbilo, nebo ne. Během několika hodin po uvedení Sory 2 vydala Motion Picture Assn. (MPA) a talentové agentury vzácné společné odsouzení. Předseda MPA Charles Rivkin prohlásil bez obalu: „OpenAI musí přijmout okamžitá a rozhodná opatření k řešení tohoto problému“, s odkazem na dlouho zavedené autorské zákony chránící podobu [46]. Sean Astin ze SAG-AFTRA označil tento přístup (odhlášení jako výchozí) za „ohrožení ekonomických základů celého našeho odvětví“ [47].
V praxi Sora 2 zpočátku zahrnovala každý veřejně dostupný obraz a výkon, který mohla najít – pokud držitel práv proaktivně nepožádal o vyřazení v systému OpenAI. (Jeden zasvěcený tvrdí, že OpenAI před spuštěním tiše řekla studiím, aby nahlásily jakékoli postavy nebo herce, kteří by neměli být zobrazeni [48].) Ale hlavní agentury to neakceptovaly. Během několika dnů WME (která zastupuje hvězdy jako Oprah Winfrey a Michael B. Jordan) oznámila OpenAI, že všichni jejich klienti musí být okamžitě vyřazeni [49]. CAA a UTA se přidaly s požadavkem, aby herci měli kontrolu a kompenzaci. Warner Bros. Discovery veřejně připomněla, že „desítky let vymahatelného autorského práva“ již dávají tvůrcům práva; nikdo nemusí žádat o vyřazení, aby zabránil porušení [50].
Dokonce i obhájci technologií uznávají střet: Varun Shetty z OpenAI (VP pro mediální partnerství) se snažil o pozitivní pohled a poznamenal, že fanoušci „vytvářejí originální videa a jsou nadšení z interakce se svými oblíbenými postavami, což vnímáme jako příležitost pro držitele práv navázat kontakt s fanoušky“ [51]. Ale studia v tom vidí obrovské riziko. Bývalí právníci varují, že další generace AI video nástrojů (od Googlu, Meta atd.) důkladně prověří autorská práva a pravidla publicity. Seattleský právník Anthony Glukhov poznamenává, že tento spor staví étos Silicon Valley „jednej rychle“ proti hollywoodské averzi ke ztrátě kontroly nad duševním vlastnictvím [52].
OpenAI odpověděla, že Sora 2 už má limity (záměrně negeneruje slavné osobnosti, pokud není použit cameo režim) a pracuje na nových ochranných opatřeních. Sam Altman na blogu uvedl, že OpenAI přidá „detailní ovládání“ pro držitele práv a dokonce vytvoří sdílení příjmů za použití chráněného obsahu [53] [54]. Společnost také zveřejnila bezpečnostního průvodce pro Sora 2, kde uvádí: „Pouze vy rozhodujete, kdo může použít vaše cameo, a přístup můžete kdykoli odebrat“ [55]. (Ve skutečnosti, jak kritici poznamenávají, ovládáte pouze přístup, ne obsah, jakmile je vytvořen – na toto omezení upozornil novinář Geoffrey Fowler, když OpenAI přiznala, že „to stejně spustili“, i když věděli, že jde o problém [56].)
Talenty a odbory slíbily, že budou dohlížet a vymáhat pravidla. SAG-AFTRA je obzvlášť ostražitá po nedávném incidentu: AI-generovaná herečka („Tilly Norwood“) byla téměř podepsána agenturou, vyděsila lidi a shodovala se s touto Sora aférou. Jeden právník z oboru to shrnuje: „Otázka není, jestli se studia pokusí prosadit, ale kdy a jak“ [57]. Stručně řečeno, právní bitva se zdá nevyhnutelná. Prozatím už tento pat ochladil část nadšení pro Sora v Hollywoodu, kde jsou mnohá loga a podoby blokovány ve výchozím nastavení.
Souhlas a etika deepfake
Kromě korporátních práv vyvolala Sora 2 poplach ohledně soukromí a souhlasu u běžných lidí. Na rozdíl od původní Sora (pouze text) Sora 2 výslovně povzbuzuje, abyste sdíleli svůj obličej pro umožnění cameo. Tento systém má však nedostatky. Jak uvedl The Washington Post, „souhlasíte“ tím, že nahrajete selfie video a zvolíte, kdo může vaše cameo vidět (přátelé, všichni, nebo jen vy) [58]. Jakmile je povoleno, kdokoli s povolením může generovat videa, kde děláte cokoli, jen zadáním promptu. Aplikace vás upozorní až poté, co je video s vámi vytvořeno [59] – a to už může být široce sdíleno.
Komentátor WP Geoff Fowler to otestoval a zpočátku to považoval za zábavné: přátelé mu vytvořili vtipná cameo videa v televizních pořadech a kuchařských katastrofách [60]. Brzy se však objevilo video, kde vypráví nevhodný vtip, který nikdy neřekl – dostatečně věrohodné, aby ho to znepokojilo [61]. Uvědomil si nebezpečí: pokud může AI realisticky zfalšovat, že já páchám zločiny nebo nenávistné činy, diváci budou přemýšlet, zda je to skutečné. Fowler kontaktoval odborníky jako Eva Galperin (EFF), která varuje, že nenucené „celebritní“ video přeměny mohou být pro zranitelné osoby velmi škodlivé. Galperin to řekla přímo: „Videa přátel kradoucích v Targetu jsou pro některé skupiny mnohem nebezpečnější než pro jiné… To, co OpenAI nechápe, jsou mocenské dynamiky.“ [62] Jinými slovy, rozdávání deepfake moci ignoruje fakt, že ne každý je stejně chráněn, pokud je tato moc zneužita.
Výzkumníci v oblasti AI tento názor sdílejí. Hany Farid (UC Berkeley) to řekl přímo: „Měli bychom mít mnohem větší kontrolu nad svou identitou,“ ale upozorňuje, že každé další bezpečnostní opatření obvykle snižuje virálnost sociální aplikace [63]. Výchozí nastavení Sory jsou skutečně velmi otevřená: noví uživatelé automaticky sdílejí camea se všemi „vzájemnými“ (sledujícími, kteří sledují zpět) [64], což předpokládá přátelský vztah, který se může časem změnit. Galperin upozorňuje, že lidé často důvěřují příliš snadno; přátelství se může změnit v nepřátelství.
OpenAI od té doby přidalo nastavení „pokynů“ pro cameo – můžete uvést, jaká témata nebo ztvárnění jsou zakázána – a znovu zdůraznilo, že uživatelé mohou své cameo kdykoli smazat. Obsah Sory je také označen vodoznakem jako AI-generovaný [65]. Pozorovatelé však upozorňují, že vodoznaky lze odstranit během minuty úprav. A jak poznamenává Fowler, běžní uživatelé (na rozdíl od celebrit jako Sam Altman nebo iJustine) nebudou mít čas kontrolovat každý návrh videa, kde se objeví. Dokonce i iJustine, která své cameo otevřela všem, musela aktivně sledovat a mazat urážlivé klipy, které o ní vznikly [66].
Odborníci říkají, že tato technologie vyvolává kulturní posun: možná si budeme muset znovu osvojit praxi kultury souhlasu. Jeden mladý tvůrce tvrdí, že by si lidé měli výslovně vyžádat povolení, než veřejně zveřejní video s kamarádem v cameo roli [67]. Sám Fowler zvolil přísný postoj: nastavil svůj Sora na „pouze já“, což znamená, že videa sebe sama může generovat jen on. To omezuje sociální zábavu aplikace, ale považuje to za prohlášení o digitální důvěře: pokud nemůžete mít skutečnou kontrolu, možná byste se neměli účastnit.
Jak to vyjádřil sloupkař NYT Brian Chen (citováno v médiích): Realističnost Sory může znamenat „konec vizuálního faktu“ – video už nelze považovat za spolehlivý důkaz reality [68]. Brzy budou příspěvky s videi na sociálních sítích vnímány s takovou podezřívavostí jako texty napsané AI. Mezitím technologové zdůrazňují opatrnost: ověřujte obsah a dávejte si pozor na AI výměny obličejů.
Cesta vpřed: Politika a ochrana
Všechny tyto problémy ukazují na jedno: pravidla pro AI video se teprve tvoří. OpenAI se snaží rychle přidávat bezpečnostní prvky a společnosti jako Loti (startup) získávají pozornost. CEO Loti Luke Arrigoni říká, že zájem exploduje: lidé chtějí nástroje, jak aktivně spravovat svou digitální podobu, nejen reagovat zpětně. Uvádí, že jeho služba pro správu AI identity zaznamenala v poslední době 30násobný růst [69]. Technologičtí a právní experti naznačují, že budou pravděpodobně potřeba nové zákony – například dánská legislativa (citovaná Trevorem Noahem) nedávno dala jednotlivcům výslovnou kontrolu nad jejich digitálním obrazem. V USA někteří věří, že zákony o právu na publicitu se budou muset pro AI vyvíjet.
Jedno je jasné: uživatelé, tvůrci i platformy budou muset více pracovat na nastavení norem souhlasu. Pobouření kolem Sora 2 už přimělo OpenAI upravit své zásady. V budoucích AI nástrojích možná uvidíme povinné mechanismy předběžného schválení nebo detailnější možnosti sdílení zabudované od začátku. Mezitím by spotřebitelé měli k videím na sociálních sítích přistupovat skepticky a dvakrát si rozmyslet, zda aplikacím poskytnou přístup ke svým obličejovým datům.
Shrnutí: Sora od OpenAI ukázala neuvěřitelnou sílu AI videa – ale také místa, kde právo, etika a bezpečnost narážejí na limity. Falešné aplikace a fanoušci deepfake využili její popularity; Hollywood a držitelé práv tvrdě bojují zpět; a běžní lidé teprve začínají řešit, co znamená „vlastnit“ svou tvář online. Jak řekl jeden odborník, naše společnost bude pravděpodobně muset na všechna videa nahlížet novýma, zvídavýma očima [70].
Zdroje: Nedávné zprávy a analýzy o Sora z TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer a dalších (viz citace). Tyto podrobně popisují statistiky spuštění Sora, podvody s falešnými aplikacemi [71] [72], námitky Hollywoodu [73] [74] a obavy o soukromí/deepfake s odbornými komentáři [75] [76] [77], spolu s dalšími událostmi. Všichni citovaní odborníci a údaje jsou řádně uvedeni.
References
1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com