- Вирусен старт: Новото видео приложение с изкуствен интелект на OpenAI Sora (само за iOS, само с покана) дебютира в началото на октомври 2025 г. и моментално оглави класациите за изтегляния [1]. Само за няколко дни достигна №1 в App Store, с над 1 милион изтегляния според OpenAI [2]. Потребителите могат да въвеждат текстови подсказки (или „камео“ на реални хора), за да генерират хиперреалистични кратки видеа.
- Вълна от измами в App Store: Измамници побързаха да се възползват от шума около Sora. Повече от дузина фалшиви приложения „Sora“ или „Sora 2“ се появиха в App Store на Apple скоро след старта [3]. Тези имитатори събраха общо около 300 000 инсталации и над $160 000 приходи само за няколко дни [4] [5]. (За сравнение, проучване показва, че измамните iOS приложения са се увеличили с 300% през 2025 г., а на Android – с 600%, задвижвани от измами с изкуствен интелект [6].) Apple оттогава е премахнала много от копията, но някои все още преминават през прегледа [7]. Технологични анализатори предупреждават, че това отразява по-широка „икономика на измамите“, при която вирусният успех моментално привлича имитатори [8] [9].
- Холивудски отзвук: Когато OpenAI представи Sora 2 (30 септември) с функцията „Cameo“, позволяваща използването на истински лица/герои във видеа, развлекателната индустрия избухна. Големи студия, агенции (WME, CAA, UTA) и синдикати (SAG-AFTRA) изискаха от OpenAI да спре да използва образите на актьори или герои без разрешение или заплащане [10] [11]. Президентът на SAG-AFTRA Шон Астин предупреди, че подходът на Sora „opt-out“ „застрашава икономическата основа на цялата ни индустрия“ [12]. Warner Bros. и други подчертаха, че десетилетия авторско право дават контрол на притежателите на права, независимо от политиките за „opt-out“ [13]. Главният изпълнителен директор на OpenAI Сам Алтман отговори в блога си, че ще предложат по-прецизни контроли и споделяне на приходи за притежателите на права [14] [15]. Холивудски адвокати предвиждат, че „два титана“ (Силициевата долина срещу Холивуд) ще се борят за бъдещето на ИИ в медиите [16] [17].
- Поверителност и притеснения относно дийпфейкове: Потребители и експерти изразиха тревога относно лични дийпфейкове. Технологичният колумнист на Washington Post Джефри Фаулър преживя как приятели използват Sora, за да го „дийпфейкнат“ в смущаващи видеа без неговото съгласие [18] [19]. Той интервюира експерти, които подчертават необходимостта от съгласие. Ева Галперин (EFF) отбелязва, че такива видеа „са много по-опасни за някои групи… По същество, това, което OpenAI не разбира, са властовите динамики“ [20]. Хани Фарид от UC Berkeley добавя: „Трябва да имаме много по-голям контрол върху нашата идентичност“, но компаниите се страхуват, че по-строгият контрол ще навреди на вирусното разпространение [21]. Както предупреждава технологичният колумнист на New York Times Брайън Чен, с ултрареалистичното видео, „идеята, че видеото може да служи като обективен запис на реалността“ може би е приключила – ще трябва да гледаме на видеото със скептицизма, който сега запазваме за текста [22].
- Мнения на експерти: Представители на индустрията подчертават залозите. Шефът на MPAA Чарлз Ривкин призова OpenAI да „предприеме незабавни и решителни действия“, позовавайки се на закона за авторското право [23]. Медийният адвокат Крейг Бейкър (Davis Wright Tremaine) казва, че напливът от небрежно AI видео съдържание ще натовари законите за публичност и прилика, особено за починали личности [24]. Комикът Тревър Ноа предупреди, че Sora може да бъде „катастрофална“, ако образите на хора се използват без съгласие [25]. От друга страна, OpenAI настоява, че потребителите „контролират изцяло своя образ със Sora“ (рекламирайки своя opt-in модел) [26], въпреки че критиците отбелязват, че дребният шрифт има реални ограничения.
На този фон, нека разгледаме цялата история:
Какво е Sora и защо е толкова важно
Sora е новото мобилно приложение на OpenAI, достъпно само с покана (iOS, уеб), което превръща текстови подсказки – или дори кратки видеа (cameos) – във впечатляващи, кратки видеоклипове с помощта на генеративен ИИ. Пуснато в края на септември 2025 г., то бързо се превърна в сензация. Данните на OpenAI показват над един милион инсталации само за няколко дни [27], а приложението се изкачи на върха на класацията за безплатни приложения на Apple. Вълнението беше подхранено от демонстрационни клипове с хора и анимационни герои в абсурдни или изпълнени с екшън ситуации (например СпонджБоб, който говори от Овалния кабинет) [28]. Потребителите похвалиха поразителния реализъм: лицата, израженията и дори гласовете изглеждаха убедително човешки [29] [30].
Sora следва по-ранните продукти на OpenAI (ChatGPT, DALL·E) и представлява скок в ИИ-генерираните медии. До 30 септември Сам Алтман обяви Sora 2 – с добавен режим “Cameo”, в който всеки може да качи кратко селфи или референтно изображение и след това да постави себе си (или други) в генерираните видеа [31]. Резултатът: феновете можеха да видят себе си в луди ИИ видеа. Но това означава и че Sora 2 по дизайн размива границата между измислица и реалност: можеш да напишеш “аз поръчвам тако в нощен клуб” и Sora ще генерира видео, в което правиш точно това.
Фалшиви Sora приложения заливат App Store
Веднага след като новината за Sora излезе, App Store беше залят с имитиращи приложения. TechCrunch съобщи, че “над дузина” приложения с марката Sora се появиха веднага след официалния старт [32]. Много от тях бяха стари ИИ или видео приложения, набързо прекръстени на “Sora”, “Sora Video Generator” или дори “Sora 2 Pro”. Някои съществуваха с месеци под други имена и просто смениха брандирането си за една нощ. Те преминаха през прегледа на Apple, въпреки че използваха запазената марка на OpenAI [33].
Тези имитатори отчетоха огромни числа: фирмата за анализ на приложения Appfigures преброи приблизително 300 000 инсталации на фалшиви Sora приложения (и $160 000 приходи) само за първите няколко дни [34]. Само един клонинг („Sora 2 – Video Generator AI“) привлече над 50 000 инсталации чрез агресивно използване на ключовата дума „Sora“. (За сравнение, OpenAI съобщава, че официалното приложение на Sora е достигнало 1 милион изтегляния за същия период [35].) Според eMarketer, Apple бързо започна да премахва най-лошите нарушители, но някои „меки измами“ все още остават скрити. Например, приложение, наречено „PetReels – Sora for Pets“, е събрало няколкостотин инсталации, а дори и псевдонимът „Vi-sora“, който се възползва от шума, е получил хиляди [36].Експертите казват, че това не е изненадващо, а по-скоро част от модел: всяка нова технологична тенденция веднага води до измамни имитатори. След пускането на ChatGPT през 2022 г., подобни „fleeceware“ приложения заляха магазините, а крипто вълните доведоха до фалшиви портфейл приложения през 2024 г. [37]. Според анализ на новини за джаджи, измамните приложения за iOS са се увеличили с 300% през 2025 г. (и с 600% за Android), най-вече заради AI инструменти, които улесняват клонирането [38] [39]. Тези Sora клонинги се възползваха от тази уязвимост. Един технологичен експерт предупреждава, че AI позволява на начинаещи да създават напълно завършени приложения (описания, икони и др.), с които да заблуждават проверяващите и потребителите [40] [41].
Потребителско предупреждение: За да избегнете фалшификати, експертите препоръчват да инсталирате Sora само от официални канали (напр. сайта на OpenAI) и внимателно да проверявате информацията за разработчика [42] [43]. В момента истинската Sora е само с покана; всяко приложение, което обещава незабавен достъп или изтегляния срещу заплащане, е подозрително. Тази вълна от измами подчертава труден урок: вирусният успех на ИИ може да донесе големи печалби на измамниците, преди платформите да реагират [44] [45].
Холивуд отвръща на удара: Права върху образа и отказване от участие
Междувременно в Холивуд Sora 2 предизвика тревога. Досега Sora можеше да създава само generic измислени хора. Но с функцията за камео, тя можеше по подразбиране да имитира actual знаменитости и персонажи – независимо дали студиата са съгласни или не. Само часове след дебюта на Sora 2, Асоциацията на филмовата индустрия (MPA) и агенциите за таланти излязоха с рядко съвместно порицание. Председателят на MPA Чарлз Ривкин заяви директно: „OpenAI трябва да предприеме незабавни и решителни действия за решаване на този проблем“, позовавайки се на отдавна установени закони за авторското право, които защитават образа [46]. Шон Астин от SAG-AFTRA нарече подхода (отказване по подразбиране) „заплаха за икономическата основа на цялата ни индустрия“ [47].
На практика, Sora 2 първоначално включваше всяко публично изображение и изпълнение, което можеше да намери – освен ако притежател на права проактивно не се откаже чрез системата на OpenAI. (Един вътрешен човек казва, че OpenAI тихомълком е казал на студиата преди пускането да подадат списък с герои или актьори, които не бива да се появяват [48].) Но големите агенции не приеха това. Само за няколко дни WME (която представлява звезди като Опра Уинфри и Майкъл Б. Джордан) уведоми OpenAI, че всички техни клиенти трябва да бъдат отписани незабавно [49]. CAA и UTA също настояха актьорите да имат контрол и компенсация. Warner Bros. Discovery публично напомни, че „десетилетия приложимо авторско право“ вече дават права на създателите; никой не е длъжен да се отписва, за да блокира нарушението [50].
Дори защитниците на технологиите признават конфликта: Варуун Шети от OpenAI (вицепрезидент „Медийни партньорства“) се опита да представи нещата положително, отбелязвайки, че феновете „създават оригинални видеа и са развълнувани да взаимодействат с любимите си герои, което виждаме като възможност за притежателите на права да се свържат с феновете“ [51]. Но студиата виждат огромен риск. Бивши адвокати предупреждават, че следващото поколение AI видео инструменти (от Google, Meta и др.) ще подложи на сериозен тест правилата за авторско право и публичност. Сиатълският адвокат Антъни Глухов отбелязва, че тази битка противопоставя „действай бързо“ етиката на Силициевата долина срещу нежеланието на Холивуд да губи контрол върху интелектуалната собственост [52].
OpenAI отговори, че Sora 2 вече има ограничения (тя не генерира умишлено известни личности, освен ако не се използва cameo функцията), и работи по нови защитни механизми. Сам Алтман написа в блога си, че OpenAI ще добави „детайлни контроли“ за притежателите на права и дори ще създаде споделяне на приходи при използване на защитено с авторски права съдържание [53] [54]. Компанията публикува и ръководство за безопасност на Sora 2, в което се казва: „Само вие решавате кой може да използва вашето cameo, и можете да отнемете достъпа по всяко време“ [55]. (В действителност, както отбелязват критици, вие контролирате само достъпа, а не съдържанието, след като е създадено – ограничение, на което журналистът Джефри Фаулър обърна внимание, когато OpenAI признаха, че „все пак го пуснаха“, въпреки че са знаели за проблема [56].)
Талантите и синдикатите обещаха да следят и да налагат контрол. SAG-AFTRA е особено бдителен след скорошен инцидент: актьор, генериран от ИИ („Тили Норууд“), почти беше подписан от агенция, което изплаши хората и съвпадна с тази сага около Sora. Един адвокат от индустрията обобщава: „Въпросът не е дали студиата ще се опитат да се наложат, а кога и как“ [57]. Накратко, правна битка изглежда неизбежна. Засега противопоставянето вече е охладило ентусиазма към Sora в Холивуд, като много лога и образи по подразбиране са блокирани.
Съгласие и етика на дийпфейковете
Освен корпоративните права, Sora 2 повдигна тревоги за поверителност и съгласие за обикновените хора. За разлика от първоначалната Sora (само текст), Sora 2 изрично насърчава да споделите своето лице, за да активирате cameo. Но тази система има недостатъци. Както съобщава The Washington Post, вие „се съгласявате“, като записвате селфи видео и избирате кой може да вижда вашето cameo (приятели, всички или само вие) [58]. След като е активирано, всеки позволен човек може да генерира видеа с вас, правещи каквото и да е, само като напише подсказка. Приложението ви уведомява чак след, като вече е създадено видео с вас [59] – а дотогава то може вече да е споделено широко.
Колумнистът на WP Джеф Фаулър тества това и в началото го намери за забавно: приятели направиха забавни камео видеа с него в телевизионни предавания и кулинарни провали [60]. Но скоро се появи видео, в което той разказва неприлична шега, която никога не е казвал – достатъчно правдоподобно, за да го разтревожи [61]. Той осъзна опасността: ако ИИ може реалистично да фалшифицира me да извършва престъпления или омразни действия, зрителите ще се чудят дали е истинско. Фаулър се обади на експерти като Ева Гълперин (EFF), която предупреждава, че небрежните видеа в стил „селебрити“ могат да бъдат много вредни за уязвими хора. Гълперин го каза директно: „Видеа с приятели, които крадат от Target, са много по-опасни за някои групи хора, отколкото за други… Това, което OpenAI не разбира, са динамиките на властта.“ [62] С други думи, раздаването на deepfake възможности пренебрегва факта, че не всеки е еднакво защитен, ако тази сила се използва неправомерно.
Изследователите по ИИ споделят това мнение. Хани Фарид (UC Berkeley) каза директно: „Трябва да имаме много повече контрол върху нашата идентичност,“ но отбелязва, че всяка допълнителна мярка за сигурност обикновено прави социалното приложение по-малко вирусно [63]. Настройките по подразбиране на Sora наистина са доста отворени: новите потребители автоматично споделят камео видеата си с всички „взаимни“ (последователи, които също ги следват) [64], като се предполага приятелски отношения, които могат да се променят с времето. Гълперин отбелязва, че хората често се доверяват твърде лесно; приятелствата могат да се превърнат във враждебност.
OpenAI оттогава добави настройки за „насоки“ при камео – можете да посочите теми или образи, които са забранени – и отново подчерта, че потребителите могат напълно да изтрият своето камео. Съдържанието на Sora също е водно маркирано като генерирано от ИИ [65]. Наблюдателите обаче отбелязват, че водните знаци могат да бъдат изрязани за минута с редактиране. И както отбелязва Фаулър, обикновените потребители (за разлика от знаменитости като Сам Алтман или iJustine) няма да имат време да проверяват всяко видео, в което се появяват. Дори iJustine, която отвори своето камео за всички, трябваше активно да следи и изтрива обидни клипове, направени за нея [66].
Експертите казват, че тази технология налага културна промяна: може да се наложи да възстановим практиката на култура на съгласие. Един млад създател твърди, че хората трябва изрично да искат разрешение, преди публично да публикуват видео с приятел в cameo [67]. Самият Фаулър възприе строг подход: той настрои своя Sora на „само аз“, което означава, че само той може да генерира видеа със себе си. Това ограничава социалното забавление на приложението, но той го смята за изявление за дигиталното доверие: ако не можеш да имаш истински контрол, може би не трябва да участваш.
Както каза колумнистът на NYT Брайън Чен (цитиран в медиите): реализъмът на Sora може да означава „края на визуалния факт“ – вече не може да се приема, че видеото е надеждно доказателство за реалността [68]. Скоро публикациите с видеа в социалните мрежи ще се гледат с толкова подозрение, колкото и текст, написан от AI. Междувременно технолозите подчертават предпазливост: проверявайте съдържанието и внимавайте с AI face-swaps.
Пътят напред: Политики и защита
Всички тези проблеми сочат едно: правилата за AI видео все още се пишат. OpenAI бърза да добави функции за безопасност, а компании като Loti (стартъп) привличат внимание. Изпълнителният директор на Loti Люк Аригони казва, че интересът експлодира: хората искат инструменти, с които да управляват активно своя дигитален образ, а не просто да реагират постфактум. Той съобщава, че услугата му за AI-идентичност е нараснала 30 пъти наскоро [69]. Технологични и правни експерти предполагат, че вероятно са нужни нови закони – например, датското законодателство (цитирано от Тревър Ноа) наскоро даде на хората изричен контрол върху дигиталния им образ. В САЩ някои смятат, че законите за правото на публичност ще трябва да се развият заради AI.
Едно е ясно: потребителите, създателите и платформите трябва да работят по-усилено за установяване на норми за съгласие. Общественото недоволство около Sora 2 вече принуди OpenAI да промени политиките си. В бъдещите AI инструменти може да видим задължителни механизми за предварително одобрение или по-прецизни контроли за споделяне, вградени от самото начало. Междувременно потребителите трябва да подхождат скептично към видеата в социалните мрежи и да помислят два пъти, преди да дадат на приложения достъп до данните за лицето си.
В обобщение: Sora на OpenAI показа невероятната сила на AI видеото – но и местата, където законът, етиката и сигурността се напрягат. Фалшиви приложения и фенове на deepfake се възползваха от популярността ѝ; Холивуд и притежателите на права оказват сериозен натиск; а обикновените хора тепърва започват да осмислят какво означава да „притежаваш“ лицето си онлайн. Както каза един експерт, вероятно обществото ни ще трябва да гледа на всички видеа с нов, критичен поглед [70].
Източници: Последни новини и анализи за Sora от TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer и други (вижте източниците). Те описват статистиката при старта на Sora, измамите с фалшиви приложения [71] [72], възраженията на Холивуд [73] [74], както и притесненията относно поверителността/дълбоките фалшификати с експертни коментари [75] [76] [77], наред с други развития. Всички цитирани експерти и данни са посочени съответно.
References
1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com