Sora-AI сензация предизвиква фалшиви приложения, холивудски фурор и драма с дийпфейкове

октомври 13, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Вирусен старт: Новото видео приложение с изкуствен интелект на OpenAI Sora (само за iOS, само с покана) дебютира в началото на октомври 2025 г. и моментално оглави класациите за изтегляния [1]. Само за няколко дни достигна №1 в App Store, с над 1 милион изтегляния според OpenAI [2]. Потребителите могат да въвеждат текстови подсказки (или „камео“ на реални хора), за да генерират хиперреалистични кратки видеа.
  • Вълна от измами в App Store: Измамници побързаха да се възползват от шума около Sora. Повече от дузина фалшиви приложения „Sora“ или „Sora 2“ се появиха в App Store на Apple скоро след старта [3]. Тези имитатори събраха общо около 300 000 инсталации и над $160 000 приходи само за няколко дни [4] [5]. (За сравнение, проучване показва, че измамните iOS приложения са се увеличили с 300% през 2025 г., а на Android – с 600%, задвижвани от измами с изкуствен интелект [6].) Apple оттогава е премахнала много от копията, но някои все още преминават през прегледа [7]. Технологични анализатори предупреждават, че това отразява по-широка „икономика на измамите“, при която вирусният успех моментално привлича имитатори [8] [9].
  • Холивудски отзвук: Когато OpenAI представи Sora 2 (30 септември) с функцията „Cameo“, позволяваща използването на истински лица/герои във видеа, развлекателната индустрия избухна. Големи студия, агенции (WME, CAA, UTA) и синдикати (SAG-AFTRA) изискаха от OpenAI да спре да използва образите на актьори или герои без разрешение или заплащане [10] [11]. Президентът на SAG-AFTRA Шон Астин предупреди, че подходът на Sora „opt-out“ „застрашава икономическата основа на цялата ни индустрия“ [12]. Warner Bros. и други подчертаха, че десетилетия авторско право дават контрол на притежателите на права, независимо от политиките за „opt-out“ [13]. Главният изпълнителен директор на OpenAI Сам Алтман отговори в блога си, че ще предложат по-прецизни контроли и споделяне на приходи за притежателите на права [14] [15]. Холивудски адвокати предвиждат, че „два титана“ (Силициевата долина срещу Холивуд) ще се борят за бъдещето на ИИ в медиите [16] [17].
  • Поверителност и притеснения относно дийпфейкове: Потребители и експерти изразиха тревога относно лични дийпфейкове. Технологичният колумнист на Washington Post Джефри Фаулър преживя как приятели използват Sora, за да го „дийпфейкнат“ в смущаващи видеа без неговото съгласие [18] [19]. Той интервюира експерти, които подчертават необходимостта от съгласие. Ева Галперин (EFF) отбелязва, че такива видеа „са много по-опасни за някои групи… По същество, това, което OpenAI не разбира, са властовите динамики“ [20]. Хани Фарид от UC Berkeley добавя: „Трябва да имаме много по-голям контрол върху нашата идентичност“, но компаниите се страхуват, че по-строгият контрол ще навреди на вирусното разпространение [21]. Както предупреждава технологичният колумнист на New York Times Брайън Чен, с ултрареалистичното видео, „идеята, че видеото може да служи като обективен запис на реалността“ може би е приключила – ще трябва да гледаме на видеото със скептицизма, който сега запазваме за текста [22].
  • Мнения на експерти: Представители на индустрията подчертават залозите. Шефът на MPAA Чарлз Ривкин призова OpenAI да „предприеме незабавни и решителни действия“, позовавайки се на закона за авторското право [23]. Медийният адвокат Крейг Бейкър (Davis Wright Tremaine) казва, че напливът от небрежно AI видео съдържание ще натовари законите за публичност и прилика, особено за починали личности [24]. Комикът Тревър Ноа предупреди, че Sora може да бъде „катастрофална“, ако образите на хора се използват без съгласие [25]. От друга страна, OpenAI настоява, че потребителите „контролират изцяло своя образ със Sora“ (рекламирайки своя opt-in модел) [26], въпреки че критиците отбелязват, че дребният шрифт има реални ограничения.

На този фон, нека разгледаме цялата история:

Какво е Sora и защо е толкова важно

Sora е новото мобилно приложение на OpenAI, достъпно само с покана (iOS, уеб), което превръща текстови подсказки – или дори кратки видеа (cameos) – във впечатляващи, кратки видеоклипове с помощта на генеративен ИИ. Пуснато в края на септември 2025 г., то бързо се превърна в сензация. Данните на OpenAI показват над един милион инсталации само за няколко дни [27], а приложението се изкачи на върха на класацията за безплатни приложения на Apple. Вълнението беше подхранено от демонстрационни клипове с хора и анимационни герои в абсурдни или изпълнени с екшън ситуации (например СпонджБоб, който говори от Овалния кабинет) [28]. Потребителите похвалиха поразителния реализъм: лицата, израженията и дори гласовете изглеждаха убедително човешки [29] [30].

Sora следва по-ранните продукти на OpenAI (ChatGPT, DALL·E) и представлява скок в ИИ-генерираните медии. До 30 септември Сам Алтман обяви Sora 2 – с добавен режим “Cameo”, в който всеки може да качи кратко селфи или референтно изображение и след това да постави себе си (или други) в генерираните видеа [31]. Резултатът: феновете можеха да видят себе си в луди ИИ видеа. Но това означава и че Sora 2 по дизайн размива границата между измислица и реалност: можеш да напишеш “аз поръчвам тако в нощен клуб” и Sora ще генерира видео, в което правиш точно това.

Фалшиви Sora приложения заливат App Store

Веднага след като новината за Sora излезе, App Store беше залят с имитиращи приложения. TechCrunch съобщи, че “над дузина” приложения с марката Sora се появиха веднага след официалния старт [32]. Много от тях бяха стари ИИ или видео приложения, набързо прекръстени на “Sora”, “Sora Video Generator” или дори “Sora 2 Pro”. Някои съществуваха с месеци под други имена и просто смениха брандирането си за една нощ. Те преминаха през прегледа на Apple, въпреки че използваха запазената марка на OpenAI [33].

Тези имитатори отчетоха огромни числа: фирмата за анализ на приложения Appfigures преброи приблизително 300 000 инсталации на фалшиви Sora приложения (и $160 000 приходи) само за първите няколко дни [34]. Само един клонинг („Sora 2 – Video Generator AI“) привлече над 50 000 инсталации чрез агресивно използване на ключовата дума „Sora“. (За сравнение, OpenAI съобщава, че официалното приложение на Sora е достигнало 1 милион изтегляния за същия период [35].) Според eMarketer, Apple бързо започна да премахва най-лошите нарушители, но някои „меки измами“ все още остават скрити. Например, приложение, наречено „PetReels – Sora for Pets“, е събрало няколкостотин инсталации, а дори и псевдонимът „Vi-sora“, който се възползва от шума, е получил хиляди [36].

Експертите казват, че това не е изненадващо, а по-скоро част от модел: всяка нова технологична тенденция веднага води до измамни имитатори. След пускането на ChatGPT през 2022 г., подобни „fleeceware“ приложения заляха магазините, а крипто вълните доведоха до фалшиви портфейл приложения през 2024 г. [37]. Според анализ на новини за джаджи, измамните приложения за iOS са се увеличили с 300% през 2025 г. (и с 600% за Android), най-вече заради AI инструменти, които улесняват клонирането [38] [39]. Тези Sora клонинги се възползваха от тази уязвимост. Един технологичен експерт предупреждава, че AI позволява на начинаещи да създават напълно завършени приложения (описания, икони и др.), с които да заблуждават проверяващите и потребителите [40] [41].

Потребителско предупреждение: За да избегнете фалшификати, експертите препоръчват да инсталирате Sora само от официални канали (напр. сайта на OpenAI) и внимателно да проверявате информацията за разработчика [42] [43]. В момента истинската Sora е само с покана; всяко приложение, което обещава незабавен достъп или изтегляния срещу заплащане, е подозрително. Тази вълна от измами подчертава труден урок: вирусният успех на ИИ може да донесе големи печалби на измамниците, преди платформите да реагират [44] [45].

Холивуд отвръща на удара: Права върху образа и отказване от участие

Междувременно в Холивуд Sora 2 предизвика тревога. Досега Sora можеше да създава само generic измислени хора. Но с функцията за камео, тя можеше по подразбиране да имитира actual знаменитости и персонажи – независимо дали студиата са съгласни или не. Само часове след дебюта на Sora 2, Асоциацията на филмовата индустрия (MPA) и агенциите за таланти излязоха с рядко съвместно порицание. Председателят на MPA Чарлз Ривкин заяви директно: „OpenAI трябва да предприеме незабавни и решителни действия за решаване на този проблем“, позовавайки се на отдавна установени закони за авторското право, които защитават образа [46]. Шон Астин от SAG-AFTRA нарече подхода (отказване по подразбиране) „заплаха за икономическата основа на цялата ни индустрия“ [47].

На практика, Sora 2 първоначално включваше всяко публично изображение и изпълнение, което можеше да намери – освен ако притежател на права проактивно не се откаже чрез системата на OpenAI. (Един вътрешен човек казва, че OpenAI тихомълком е казал на студиата преди пускането да подадат списък с герои или актьори, които не бива да се появяват [48].) Но големите агенции не приеха това. Само за няколко дни WME (която представлява звезди като Опра Уинфри и Майкъл Б. Джордан) уведоми OpenAI, че всички техни клиенти трябва да бъдат отписани незабавно [49]. CAA и UTA също настояха актьорите да имат контрол и компенсация. Warner Bros. Discovery публично напомни, че „десетилетия приложимо авторско право“ вече дават права на създателите; никой не е длъжен да се отписва, за да блокира нарушението [50].

Дори защитниците на технологиите признават конфликта: Варуун Шети от OpenAI (вицепрезидент „Медийни партньорства“) се опита да представи нещата положително, отбелязвайки, че феновете „създават оригинални видеа и са развълнувани да взаимодействат с любимите си герои, което виждаме като възможност за притежателите на права да се свържат с феновете“ [51]. Но студиата виждат огромен риск. Бивши адвокати предупреждават, че следващото поколение AI видео инструменти (от Google, Meta и др.) ще подложи на сериозен тест правилата за авторско право и публичност. Сиатълският адвокат Антъни Глухов отбелязва, че тази битка противопоставя „действай бързо“ етиката на Силициевата долина срещу нежеланието на Холивуд да губи контрол върху интелектуалната собственост [52].

OpenAI отговори, че Sora 2 вече има ограничения (тя не генерира умишлено известни личности, освен ако не се използва cameo функцията), и работи по нови защитни механизми. Сам Алтман написа в блога си, че OpenAI ще добави „детайлни контроли“ за притежателите на права и дори ще създаде споделяне на приходи при използване на защитено с авторски права съдържание [53] [54]. Компанията публикува и ръководство за безопасност на Sora 2, в което се казва: „Само вие решавате кой може да използва вашето cameo, и можете да отнемете достъпа по всяко време“ [55]. (В действителност, както отбелязват критици, вие контролирате само достъпа, а не съдържанието, след като е създадено – ограничение, на което журналистът Джефри Фаулър обърна внимание, когато OpenAI признаха, че „все пак го пуснаха“, въпреки че са знаели за проблема [56].)

Талантите и синдикатите обещаха да следят и да налагат контрол. SAG-AFTRA е особено бдителен след скорошен инцидент: актьор, генериран от ИИ („Тили Норууд“), почти беше подписан от агенция, което изплаши хората и съвпадна с тази сага около Sora. Един адвокат от индустрията обобщава: „Въпросът не е дали студиата ще се опитат да се наложат, а кога и как“ [57]. Накратко, правна битка изглежда неизбежна. Засега противопоставянето вече е охладило ентусиазма към Sora в Холивуд, като много лога и образи по подразбиране са блокирани.

Съгласие и етика на дийпфейковете

Освен корпоративните права, Sora 2 повдигна тревоги за поверителност и съгласие за обикновените хора. За разлика от първоначалната Sora (само текст), Sora 2 изрично насърчава да споделите своето лице, за да активирате cameo. Но тази система има недостатъци. Както съобщава The Washington Post, вие „се съгласявате“, като записвате селфи видео и избирате кой може да вижда вашето cameo (приятели, всички или само вие) [58]. След като е активирано, всеки позволен човек може да генерира видеа с вас, правещи каквото и да е, само като напише подсказка. Приложението ви уведомява чак след, като вече е създадено видео с вас [59] – а дотогава то може вече да е споделено широко.

Колумнистът на WP Джеф Фаулър тества това и в началото го намери за забавно: приятели направиха забавни камео видеа с него в телевизионни предавания и кулинарни провали [60]. Но скоро се появи видео, в което той разказва неприлична шега, която никога не е казвал – достатъчно правдоподобно, за да го разтревожи [61]. Той осъзна опасността: ако ИИ може реалистично да фалшифицира me да извършва престъпления или омразни действия, зрителите ще се чудят дали е истинско. Фаулър се обади на експерти като Ева Гълперин (EFF), която предупреждава, че небрежните видеа в стил „селебрити“ могат да бъдат много вредни за уязвими хора. Гълперин го каза директно: „Видеа с приятели, които крадат от Target, са много по-опасни за някои групи хора, отколкото за други… Това, което OpenAI не разбира, са динамиките на властта.“ [62] С други думи, раздаването на deepfake възможности пренебрегва факта, че не всеки е еднакво защитен, ако тази сила се използва неправомерно.

Изследователите по ИИ споделят това мнение. Хани Фарид (UC Berkeley) каза директно: „Трябва да имаме много повече контрол върху нашата идентичност,“ но отбелязва, че всяка допълнителна мярка за сигурност обикновено прави социалното приложение по-малко вирусно [63]. Настройките по подразбиране на Sora наистина са доста отворени: новите потребители автоматично споделят камео видеата си с всички „взаимни“ (последователи, които също ги следват) [64], като се предполага приятелски отношения, които могат да се променят с времето. Гълперин отбелязва, че хората често се доверяват твърде лесно; приятелствата могат да се превърнат във враждебност.

OpenAI оттогава добави настройки за „насоки“ при камео – можете да посочите теми или образи, които са забранени – и отново подчерта, че потребителите могат напълно да изтрият своето камео. Съдържанието на Sora също е водно маркирано като генерирано от ИИ [65]. Наблюдателите обаче отбелязват, че водните знаци могат да бъдат изрязани за минута с редактиране. И както отбелязва Фаулър, обикновените потребители (за разлика от знаменитости като Сам Алтман или iJustine) няма да имат време да проверяват всяко видео, в което се появяват. Дори iJustine, която отвори своето камео за всички, трябваше активно да следи и изтрива обидни клипове, направени за нея [66].

Експертите казват, че тази технология налага културна промяна: може да се наложи да възстановим практиката на култура на съгласие. Един млад създател твърди, че хората трябва изрично да искат разрешение, преди публично да публикуват видео с приятел в cameo [67]. Самият Фаулър възприе строг подход: той настрои своя Sora на „само аз“, което означава, че само той може да генерира видеа със себе си. Това ограничава социалното забавление на приложението, но той го смята за изявление за дигиталното доверие: ако не можеш да имаш истински контрол, може би не трябва да участваш.

Както каза колумнистът на NYT Брайън Чен (цитиран в медиите): реализъмът на Sora може да означава „края на визуалния факт“ – вече не може да се приема, че видеото е надеждно доказателство за реалността [68]. Скоро публикациите с видеа в социалните мрежи ще се гледат с толкова подозрение, колкото и текст, написан от AI. Междувременно технолозите подчертават предпазливост: проверявайте съдържанието и внимавайте с AI face-swaps.

Пътят напред: Политики и защита

Всички тези проблеми сочат едно: правилата за AI видео все още се пишат. OpenAI бърза да добави функции за безопасност, а компании като Loti (стартъп) привличат внимание. Изпълнителният директор на Loti Люк Аригони казва, че интересът експлодира: хората искат инструменти, с които да управляват активно своя дигитален образ, а не просто да реагират постфактум. Той съобщава, че услугата му за AI-идентичност е нараснала 30 пъти наскоро [69]. Технологични и правни експерти предполагат, че вероятно са нужни нови закони – например, датското законодателство (цитирано от Тревър Ноа) наскоро даде на хората изричен контрол върху дигиталния им образ. В САЩ някои смятат, че законите за правото на публичност ще трябва да се развият заради AI.

Едно е ясно: потребителите, създателите и платформите трябва да работят по-усилено за установяване на норми за съгласие. Общественото недоволство около Sora 2 вече принуди OpenAI да промени политиките си. В бъдещите AI инструменти може да видим задължителни механизми за предварително одобрение или по-прецизни контроли за споделяне, вградени от самото начало. Междувременно потребителите трябва да подхождат скептично към видеата в социалните мрежи и да помислят два пъти, преди да дадат на приложения достъп до данните за лицето си.

В обобщение: Sora на OpenAI показа невероятната сила на AI видеото – но и местата, където законът, етиката и сигурността се напрягат. Фалшиви приложения и фенове на deepfake се възползваха от популярността ѝ; Холивуд и притежателите на права оказват сериозен натиск; а обикновените хора тепърва започват да осмислят какво означава да „притежаваш“ лицето си онлайн. Както каза един експерт, вероятно обществото ни ще трябва да гледа на всички видеа с нов, критичен поглед [70].

Източници: Последни новини и анализи за Sora от TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer и други (вижте източниците). Те описват статистиката при старта на Sora, измамите с фалшиви приложения [71] [72], възраженията на Холивуд [73] [74], както и притесненията относно поверителността/дълбоките фалшификати с експертни коментари [75] [76] [77], наред с други развития. Всички цитирани експерти и данни са посочени съответно.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • HPE Analyst Day Set to Highlight AI Growth, Juniper Deal Impact
    October 14, 2025, 4:14 PM EDT. Hewlett Packard Enterprise is set to outline its long-term AI strategy and the impact of the Juniper Networks acquisition at its investor day. Analysts will look for targets that reflect growth from the Juniper deal and ongoing AI demand, including a backlog of $3.7 billion. Citi notes a potential uptick in long-term revenue growth, while HPE stock has surged, hitting a record and gaining about 17% in 2025. UBS and others expect a fiscal 2026 outlook and a three-year framework, with EPS growth in the low double digits to low teens, possibly below consensus mid-teens. Attendees will also assess AI server competition with Dell and decisions on capital returns versus debt paydown as four months of Juniper results are folded into 2025 guidance.
  • HPE Analyst Day to Spotlight AI Growth Outlook, Juniper Deal Impact
    October 14, 2025, 4:12 PM EDT. At its investor day, Hewlett Packard Enterprise will outline its long-term growth trajectory amid the Juniper Networks acquisition and an expanding AI strategy. Citi expects the Juniper deal to push revenue growth into mid- to high-single digits as AI backlog climbs toward $3.7 billion. HPE stock has hit record highs on expectations for stronger returns and new details on integration. In Q3, adjusted earnings were 44 cents per share, with the core server business facing margin pressures. Analysts anticipate a fiscal 2026 outlook and a three-year plan, with EPS growth in the low-double digits to low teens, below some consensus. DoJ approved the Juniper deal; Dell competition in AI servers remains a key driver for HPE's data-center business.
  • HPE Analyst Day Eyes AI Growth and Juniper Deal Impact
    October 14, 2025, 4:10 PM EDT. At HPE's investor day, analysts will assess the long-term outlook after the Juniper Networks acquisition and the company's AI strategy. Shares recently hit a record high on elevated expectations as Citi highlighted an AI backlog and potential mid-to-high single-digit revenue growth tied to the deal. UBS and others expect a fiscal 2026 outlook and a three-year plan, with EPS growth in the low double digits to the low teens, pending Juniper integration. The event also frames competitive dynamics in AI servers with Dell Technologies, and HPE's margin pressures in its core server business. DOJ clearance for the Juniper deal and capital-return plans will influence investor sentiment.
  • HPE Analyst Day: AI Growth Outlook and Juniper Deal Impact
    October 14, 2025, 4:08 PM EDT. Hewlett Packard Enterprise is set to outline a longer-term AI-centric growth plan at its investor day, buoyed by the Juniper Networks acquisition. Analysts expect the company to lift long-term revenue targets into the mid-to-high single digits as the Juniper deal integrates and AI backlog climbs toward $3.7 billion. HPE stock has touched record highs as momentum persists into 2025, though margin pressure remains in the core server business. Competition with Dell Technologies over AI servers is intensifying. Management is expected to provide a fiscal 2026 outlook and a three-year framework, with EPS growth projected to the low double digits to low teens, below some consensus estimates. DOJ approved the Juniper deal earlier this year.
  • HPE Analyst Day Focuses on AI Growth Outlook and Juniper Deal Impact
    October 14, 2025, 4:06 PM EDT. Hewlett Packard Enterprise (HPE) is gearing up for an analyst day to detail its long-term plan, focusing on an AI growth strategy and the financial impact of acquiring Juniper Networks. Analysts expect higher mid- to high-single-digit revenue targets aided by the Juniper merger and ongoing demand across data-center segments, with HPE's AI backlog reported at about $3.7 billion. Shares recently hit new highs on renewed optimism, though margins in the core server business remain a headwind. Competition with Dell Technologies in AI servers has intensified. UBS and others see a multi-year EPS path in the low double digits to low teens, but note the integration adds complexity to the fiscal 2026-2028 outlook. The DOJ approved the Juniper deal.

Don't Miss

5G Breakthroughs, 3G Farewells & Telecom Power Moves – Global GSM Internet Update (Oct 3–4, 2025)

Пробиви в 5G, сбогуване с 3G и силни ходове в телекома – Глобална актуализация за GSM интернет (3–4 октомври 2025)

Основни акценти Честотен спектър и регулаторни новини Съединени щати –
Neuromorphic Computing: The Brain-Inspired Tech Revolutionizing AI and Beyond

Невроморфни изчисления: Вдъхновената от мозъка технология, която революционизира изкуствения интелект и още много

Невроморфното изчисление използва спайкови невронни мрежи (SNNs), които комуникират чрез