- Viralny start: Nowa aplikacja wideo OpenAI oparta na AI Sora (tylko na iOS, tylko na zaproszenie) zadebiutowała na początku października 2025 roku i natychmiast znalazła się na szczycie list pobrań Techcrunch. W ciągu kilku dni osiągnęła #1 w App Store, a OpenAI zgłosiło ponad 1 milion pobrań Techcrunch. Użytkownicy mogą wprowadzać tekstowe polecenia (lub „cameo” prawdziwych osób), aby generować hiperrealistyczne krótkie filmy.
- Fala oszustw w App Store: Oszuści pospieszyli, by wykorzystać szum wokół Sory. Wkrótce po premierze w App Store pojawiło się ponad tuzin fałszywych aplikacji „Sora” lub „Sora 2” Techcrunch. Te podróbki łącznie przyciągnęły około 300 000 instalacji i ponad 160 000 dolarów przychodu w ciągu kilku dni Techcrunch Emarketer. (Dla porównania, badanie wykazało, że liczba fałszywych aplikacji na iOS wzrosła o 300% w 2025 roku, a na Androidzie o 600%, napędzana przez oszustwa oparte na AI 9To5Mac.) Apple od tego czasu usunęło wiele klonów, ale niektóre wciąż przechodzą przez weryfikację Techcrunch. Analitycy technologiczni ostrzegają, że odzwierciedla to szerszą „gospodarkę oszustw”, gdzie wirusowy sukces natychmiast przyciąga naśladowców Emarketer Gadgethacks.
- Hollywoodzki sprzeciw: Gdy OpenAI zaprezentowało Sora 2 (30 września) z funkcją „Cameo” umożliwiającą użycie prawdziwych twarzy/postaci w filmach, branża rozrywkowa wybuchła. Główne studia, agencje (WME, CAA, UTA) i związki zawodowe (SAG-AFTRA) zażądały, by OpenAI przestało wykorzystywać wizerunki aktorów lub postaci bez zgody lub wynagrodzenia Latimes Latimes. Prezes SAG-AFTRA Sean Astin ostrzegł, że podejście Sory „opt-out” „zagraża ekonomicznym podstawom całej naszej branży” Latimes. Warner Bros. i inni podkreślili, że dekady prawa autorskiego dają właścicielom praw kontrolę niezależnie od polityki „opt-out” Latimes. Dyrektor generalny OpenAI Sam Altman odpowiedział na swoim blogu, że zaoferują bardziej szczegółowe opcje kontroli i podział przychodów dla właścicieli praw Latimes Geekwire. Prawnicy z Hollywood przewidują, że „dwa tytany” (Dolina Krzemowa kontra Hollywood) będą walczyć o przyszłość AI w mediach Latimes Geekwire.
- Obawy dotyczące prywatności i deepfake’ów: Użytkownicy i eksperci wyrazili zaniepokojenie osobistymi deepfake’ami. Dziennikarz technologiczny Washington Post, Geoffrey Fowler, doświadczył sytuacji, w której znajomi użyli Sory do „deepfake’owania” go w kompromitujących filmach bez jego zgody Washingtonpost Washingtonpost. Przeprowadził wywiady z ekspertami, którzy podkreślają konieczność uzyskania zgody. Eva Galperin (EFF) zauważa, że takie filmy „są znacznie bardziej niebezpieczne dla niektórych grup… Zasadniczo, to, czego OpenAI nie rozumie, to dynamika władzy” Washingtonpost. Hany Farid z UC Berkeley dodaje: „Powinniśmy mieć znacznie większą kontrolę nad naszą tożsamością”, ale firmy obawiają się, że surowsze regulacje zaszkodzą wiralności Washingtonpost. Jak ostrzega Brian Chen, dziennikarz technologiczny New York Times, wraz z pojawieniem się ultrarealistycznych filmów, „idea, że wideo może służyć jako obiektywny zapis rzeczywistości” może się skończyć – będziemy musieli oglądać filmy z taką samą dozą sceptycyzmu, jaką obecnie rezerwujemy dla tekstu Geekwire.
- Opinie ekspertów: Przedstawiciele branży podkreślają wagę problemu. Szef MPAA Charles Rivkin wezwał OpenAI do „podjęcia natychmiastowych i zdecydowanych działań”, powołując się na prawo autorskie Latimes. Prawnik medialny Kraig Baker (Davis Wright Tremaine) twierdzi, że zalew swobodnych treści wideo generowanych przez AI wystawi na próbę prawo do wizerunku, zwłaszcza w przypadku osób zmarłych Geekwire. Komik Trevor Noah ostrzegł, że Sora może być „katastrofalna”, jeśli wizerunki ludzi będą wykorzystywane bez ich zgody Geekwire. Z drugiej strony, OpenAI zapewnia, że użytkownicy „mają pełną kontrolę nad swoim wizerunkiem w Sora” (promując swój model opt-in) Washingtonpost, choć krytycy zauważają, że szczegóły w regulaminie mają realne ograniczenia.
Na tym tle przyjrzyjmy się całej historii:
Czym jest Sora i dlaczego to przełom
Sora to nowa, dostępna tylko na zaproszenie aplikacja mobilna OpenAI (iOS, web), która zamienia polecenia tekstowe – a nawet krótkie filmy (cameos) – w żywe, krótkie klipy wideo za pomocą generatywnej AI. Wypuszczona pod koniec września 2025 roku, szybko stała się sensacją. Dane OpenAI pokazują ponad milion instalacji w ciągu kilku dni Techcrunch, a aplikacja błyskawicznie wskoczyła na szczyt darmowych aplikacji Apple. Szum napędzały klipy demo z ludźmi i postaciami z kreskówek w absurdalnych lub pełnych akcji scenariuszach (na przykład SpongeBob przemawiający z Gabinetu Owalnego) Latimes. Użytkownicy chwalili niezwykły realizm: twarze, mimika, a nawet głosy wyglądały przekonująco po ludzku Washingtonpost Washingtonpost.
Sora podąża za wcześniejszymi wydaniami OpenAI (ChatGPT, DALL·E) i stanowi skok w dziedzinie mediów generowanych przez AI. 30 września Sam Altman ogłosił Sora 2 – dodając tryb „Cameo”, w którym każdy mógł przesłać krótkie selfie lub zdjęcia referencyjne, a następnie umieścić siebie (lub innych) w generowanych filmach Latimes. Efekt: fani mogli zobaczyć siebie w zwariowanych filmach AI. Ale to oznacza też, że Sora 2 z założenia zaciera granicę między fikcją a rzeczywistością: możesz wpisać „ja zamawiam tacos w klubie tanecznym”, a Sora wygeneruje film, na którym robisz dokładnie to.
Fałszywe aplikacje Sora zalewają App Store
Gdy tylko pojawiły się wieści o Sora, App Store został zalany przez aplikacje-podróbki. TechCrunch donosił, że „ponad tuzin” aplikacji z marką Sora pojawiło się natychmiast po oficjalnej premierze Techcrunch. Wiele z nich to stare aplikacje AI lub wideo, pospiesznie przemianowane na „Sora”, „Sora Video Generator” czy nawet „Sora 2 Pro”. Niektóre istniały od miesięcy pod innymi nazwami i po prostu zmieniły markę z dnia na dzień. Przeszły przez recenzję Apple mimo używania zastrzeżonej nazwy OpenAI Techcrunch.
Te podróbki odnotowały ogromne liczby: firma zajmująca się analizą aplikacji, Appfigures, naliczyła około 300 000 instalacji fałszywych aplikacji Sora (i 160 000 dolarów przychodu) w zaledwie kilka pierwszych dni Emarketer. Jeden z klonów („Sora 2 – Video Generator AI”) przyciągnął ponad 50 000 instalacji, agresywnie wykorzystując słowo kluczowe „Sora”. (Dla porównania, OpenAI twierdzi, że oficjalna aplikacja Sory osiągnęła oficjalnie milion pobrań w tym samym okresie Techcrunch.) Według eMarketer, Apple szybko zaczęło usuwać najgorszych oszustów, ale kilka „miękkich scamów” wciąż pozostaje ukrytych. Na przykład aplikacja o nazwie „PetReels – Sora for Pets” zdobyła kilkaset instalacji, a nawet pseudo-nazwa „Vi-sora” żerująca na popularności zdobyła tysiące Techcrunch.
Eksperci twierdzą, że to nie jest zaskakujące, lecz raczej część schematu: każdy przełomowy trend technologiczny natychmiast przyciąga scamowe podróbki. Po premierze ChatGPT w 2022 roku podobne aplikacje typu „fleeceware” zalały sklepy, a wzrost popularności kryptowalut doprowadził do pojawienia się fałszywych portfeli w 2024 roku Emarketer. Według analiz branżowych, liczba fałszywych aplikacji na iOS wzrosła o 300% w 2025 roku (a na Androidzie o 600%), w dużej mierze dzięki narzędziom AI, które ułatwiają klonowanie Gadgethacks 9To5Mac. Te klony Sory wykorzystały tę podatność. Jeden z technologów ostrzega, że AI pozwala nowicjuszom tworzyć w pełni dopracowane aplikacje (opisy, ikony itd.), by oszukać recenzentów i użytkowników Gadgethacks 9To5Mac.
Ostrzeżenie dla konsumentów: Aby uniknąć podróbek, eksperci zalecają instalowanie Sora wyłącznie z oficjalnych źródeł (np. strony OpenAI) i dokładne sprawdzanie informacji o deweloperze Gadgethacks Emarketer. Obecnie oryginalna Sora jest dostępna tylko na zaproszenie; każda aplikacja obiecująca natychmiastowy dostęp lub pobranie za opłatą jest podejrzana. Ta fala oszustw podkreśla trudną lekcję: wirusowy sukces AI może przynieść oszustom duże pieniądze, zanim platformy zareagują Emarketer Gadgethacks.
Hollywood kontratakuje: prawa do wizerunku i opcja rezygnacji
Tymczasem w Hollywood, Sora 2 wywołała alarm. Do tej pory Sora mogła tworzyć tylko ogólne fikcyjne postacie. Jednak dzięki funkcji cameo mogła domyślnie naśladować prawdziwe gwiazdy i postacie – niezależnie od tego, czy studia tego chciały, czy nie. W ciągu kilku godzin od debiutu Sora 2, Motion Picture Assn. (MPA) i agencje talentów wydały rzadkie wspólne upomnienie. Przewodniczący MPA Charles Rivkin stwierdził wprost: „OpenAI musi podjąć natychmiastowe i zdecydowane działania, aby rozwiązać ten problem”, powołując się na długo obowiązujące prawa autorskie chroniące wizerunek Latimes. Sean Astin z SAG-AFTRA nazwał to podejście (domyślna rezygnacja) „zagrożeniem dla ekonomicznych podstaw całej naszej branży” Latimes.
W praktyce Sora 2 początkowo obejmowała wszystkie publiczne wizerunki i występy, jakie udało się znaleźć – chyba że właściciel praw proaktywnie zrezygnował z udziału w systemie OpenAI. (Jeden z informatorów twierdzi, że OpenAI po cichu poinformowało studia przed premierą, by zgłosiły wszelkie postacie lub aktorów, którzy nie powinni się pojawić Latimes.) Jednak największe agencje nie zaakceptowały tego. W ciągu kilku dni WME (reprezentująca gwiazdy takie jak Oprah Winfrey i Michael B. Jordan) powiadomiła OpenAI, że wszyscy ich klienci muszą zrezygnować natychmiast Latimes. CAA i UTA dołączyły, domagając się, by aktorzy mieli kontrolę i otrzymywali wynagrodzenie. Warner Bros. Discovery publicznie przypomniało, że „dziesięciolecia egzekwowalnego prawa autorskiego” już dają twórcom prawa; nikt nie musi rezygnować, by zablokować naruszenie Latimes.Nawet obrońcy technologii przyznają, że dochodzi do starcia: Varun Shetty z OpenAI (VP ds. partnerstw medialnych) próbował przedstawić to pozytywnie, zauważając, że fani „tworzą oryginalne filmy i są podekscytowani możliwością interakcji ze swoimi ulubionymi postaciami, co postrzegamy jako szansę dla właścicieli praw na nawiązanie kontaktu z fanami” Latimes. Jednak studia widzą w tym ogromne ryzyko. Byli prawnicy ostrzegają, że kolejna generacja narzędzi AI do wideo (od Google, Meta itd.) poważnie przetestuje przepisy dotyczące praw autorskich i wizerunku. Prawnik z Seattle, Anthony Glukhov, zauważa, że ta walka przeciwstawia etos „działaj szybko” z Doliny Krzemowej hollywoodzkiemu lękowi przed utratą kontroli nad własnością intelektualną Latimes.
OpenAI odpowiedziało, że Sora 2 już posiada ograniczenia (nie generuje celowo znanych postaci, chyba że użyje się funkcji cameo) i pracuje nad nowymi zabezpieczeniami. Sam Altman napisał na blogu, że OpenAI doda „szczegółowe kontrolki” dla właścicieli praw, a nawet stworzy system podziału przychodów za korzystanie z treści objętych prawem autorskim Latimes Geekwire. Firma opublikowała także przewodnik bezpieczeństwa Sora 2, w którym stwierdza: „Tylko ty decydujesz, kto może użyć twojego cameo i możesz cofnąć dostęp w dowolnym momencie” Geekwire. (W rzeczywistości, jak zauważają krytycy, kontrolujesz jedynie dostęp, a nie treść po jej stworzeniu – na co zwrócił uwagę dziennikarz Geoffrey Fowler, gdy OpenAI przyznało, że „i tak to wypuścili”, mimo że wiedzieli o problemie Washingtonpost.)
Artyści i związki zawodowe zapowiedzieli monitorowanie i egzekwowanie zasad. SAG-AFTRA jest szczególnie czujna po niedawnym incydencie: aktor wygenerowany przez AI („Tilly Norwood”) był o krok od podpisania kontraktu z agencją, co wywołało poruszenie i zbiegło się w czasie z sagą Sory. Jeden z prawników branżowych podsumowuje: „Pytanie nie brzmi, czy studia spróbują się zaangażować, ale kiedy i jak” Latimes. Krótko mówiąc, batalia prawna wydaje się nieunikniona. Na razie impas już ostudził entuzjazm wobec Sory w Hollywood – wiele logotypów i wizerunków jest domyślnie blokowanych.
Zgoda i etyka deepfake
Poza prawami korporacyjnymi, Sora 2 wzbudziła obawy o prywatność i zgodę zwykłych ludzi. W przeciwieństwie do początkowej Sory (tylko tekst), Sora 2 wyraźnie zachęca do udostępniania własnej twarzy, by umożliwić cameo. Ale ten system ma wady. Jak donosi The Washington Post, „wyrażasz zgodę”, nagrywając selfie wideo i wybierając, kto może zobaczyć twoje cameo (znajomi, wszyscy lub tylko ty) Washingtonpost. Po włączeniu, każda uprawniona osoba może generować filmy z twoim udziałem, wpisując dowolne polecenia. Aplikacja powiadamia cię dopiero po wygenerowaniu filmu z twoim udziałem Washingtonpost – wtedy mógł on już zostać szeroko udostępniony.
Felietonista WP, Geoff Fowler, przetestował to i na początku uznał za zabawne: znajomi tworzyli śmieszne cameo z jego udziałem w programach telewizyjnych i kulinarnych wpadkach Washingtonpost. Jednak wkrótce pojawiło się wideo, na którym opowiada sprośny żart, którego nigdy nie powiedział – na tyle wiarygodne, by go zaniepokoić Washingtonpost. Zdał sobie sprawę z zagrożenia: jeśli AI może realistycznie podrobić, jak ja popełniam przestępstwa lub akty nienawiści, widzowie będą się zastanawiać, czy to prawda. Fowler zadzwonił do ekspertów, takich jak Eva Galperin (EFF), która ostrzega, że swobodne, celebryckie zamiany wideo mogą być bardzo szkodliwe dla osób wrażliwych. Galperin ujęła to dosadnie: „Filmy z przyjaciółmi kradnącymi w Target są znacznie bardziej niebezpieczne dla niektórych grup niż dla innych… To, czego OpenAI nie rozumie, to dynamika władzy.” Washingtonpost Innymi słowy, rozdawanie mocy deepfake ignoruje fakt, że nie każdy jest równie chroniony, jeśli ta moc zostanie nadużyta.
Badacze AI podzielają to zdanie. Hany Farid (UC Berkeley) powiedział wprost: „Powinniśmy mieć znacznie większą kontrolę nad naszą tożsamością”, ale zauważa, że każdy dodatkowy środek ostrożności zwykle sprawia, że aplikacja społecznościowa staje się mniej wiralowa Washingtonpost. Domyślne ustawienia Sory są rzeczywiście dość otwarte: nowi użytkownicy automatycznie udostępniają cameo wszystkim „wzajemnym” (obserwującym, którzy również ich obserwują) Washingtonpost, zakładając przyjacielskie relacje, które mogą się z czasem zmienić. Galperin zauważa, że ludzie często zbyt łatwo ufają; przyjaźnie mogą przerodzić się we wrogość.
OpenAI od tego czasu dodało ustawienia „wytycznych” dla cameo – można określić, jakie tematy lub przedstawienia są zabronione – i podkreśliło, że użytkownicy mogą całkowicie usunąć swoje cameo. Treści Sory są również oznaczane jako wygenerowane przez AI Washingtonpost. Jednak obserwatorzy zauważają, że znaki wodne można wyciąć w minutę podczas edycji. I jak zauważa Fowler, zwykli użytkownicy (w przeciwieństwie do celebrytów, takich jak Sam Altman czy iJustine) nie będą mieli czasu, by sprawdzać każdą wersję wideo z ich udziałem. Nawet iJustine, która udostępniła swoje cameo wszystkim, musiała aktywnie monitorować i usuwać obraźliwe klipy na swój temat Washingtonpost.
Eksperci twierdzą, że ta technologia wymusza zmianę kulturową: być może będziemy musieli na nowo wprowadzić praktykę kultury zgody. Jeden z młodych twórców argumentuje, że ludzie powinni wyraźnie pytać o pozwolenie, zanim publicznie opublikują wideo z udziałem znajomego Washingtonpost. Sam Fowler przyjął rygorystyczne stanowisko: ustawił swojego Sora na „tylko ja”, co oznacza, że tylko on może generować filmy ze swoim udziałem. To ogranicza społeczną zabawę z aplikacji, ale uważa to za manifest zaufania cyfrowego: jeśli nie możesz naprawdę mieć kontroli, może lepiej nie uczestniczyć.
Jak ujął to felietonista NYT Brian Chen (cytowany w mediach): realizm Sory może oznaczać „koniec wizualnego faktu” – wideo nie można już uznawać za wiarygodny dowód rzeczywistości Geekwire. Wkrótce posty wideo w mediach społecznościowych będą traktowane z taką samą podejrzliwością jak teksty napisane przez AI. Tymczasem technolodzy podkreślają ostrożność: weryfikuj treści i uważaj na podmiany twarzy przez AI.
Droga przed nami: polityka i ochrona
Wszystkie te kwestie wskazują na jedno: zasady dotyczące wideo AI wciąż są tworzone. OpenAI ściga się z dodawaniem funkcji bezpieczeństwa, a firmy takie jak Loti (startup) zyskują na znaczeniu. CEO Loti, Luke Arrigoni, mówi, że zainteresowanie eksploduje: ludzie chcą narzędzi do aktywnego zarządzania swoim cyfrowym wizerunkiem, a nie tylko reagowania po fakcie. Informuje, że jego usługa zarządzania tożsamością AI odnotowała ostatnio 30-krotny wzrost Geekwire. Eksperci technologiczni i prawnicy sugerują, że prawdopodobnie potrzebne będą nowe przepisy – na przykład duńskie ustawodawstwo (cytowane przez Trevora Noaha) niedawno dało jednostkom wyraźną kontrolę nad swoim cyfrowym wizerunkiem. W USA niektórzy uważają, że prawo do wizerunku będzie musiało ewoluować na potrzeby AI.
Jedno jest pewne: użytkownicy, twórcy i platformy muszą bardziej się starać, by ustalać normy zgody. Oburzenie wokół Sory 2 już wywarło presję na OpenAI, by zmieniło swoje zasady. W przyszłych narzędziach AI możemy zobaczyć obowiązkowe mechanizmy wstępnej akceptacji lub bardziej szczegółowe opcje udostępniania od samego początku. Tymczasem konsumenci powinni podchodzić sceptycznie do postów wideo w mediach społecznościowych i dwa razy się zastanowić, zanim dadzą aplikacjom dostęp do danych o swojej twarzy.
Podsumowanie: Sora od OpenAI pokazała niesamowitą moc wideo AI – ale także miejsca, gdzie prawo, etyka i bezpieczeństwo są napięte do granic. Fałszywe aplikacje i fani deepfake’ów wykorzystali jej popularność; Hollywood i właściciele praw stanowczo się temu przeciwstawiają; a zwykli ludzie dopiero zaczynają się zastanawiać, co to znaczy „posiadać” swoją twarz w internecie. Jak ujął to jeden z ekspertów, nasza społeczność prawdopodobnie będzie musiała patrzeć na wszystkie filmy nowym, dociekliwym okiem Geekwire.
Źródła: Najnowsze wiadomości i analizy dotyczące Sora z TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer i innych (zobacz cytowania). Opisują one statystyki startu Sora, oszustwa z fałszywymi aplikacjami Techcrunch Emarketer, sprzeciw Hollywood Latimes Latimes oraz obawy dotyczące prywatności i deepfake’ów wraz z komentarzami ekspertów Washingtonpost Washingtonpost Geekwire, a także inne wydarzenia. Wszyscy cytowani eksperci i dane są odpowiednio oznaczeni.
