Sora-AI сензация предизвиква фалшиви приложения, холивудски фурор и драма с дийпфейкове

октомври 13, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Вирусен старт: Новото видео приложение с изкуствен интелект на OpenAI Sora (само за iOS, само с покана) дебютира в началото на октомври 2025 г. и моментално оглави класациите за изтегляния [1]. Само за няколко дни достигна №1 в App Store, с над 1 милион изтегляния според OpenAI [2]. Потребителите могат да въвеждат текстови подсказки (или „камео“ на реални хора), за да генерират хиперреалистични кратки видеа.
  • Вълна от измами в App Store: Измамници побързаха да се възползват от шума около Sora. Повече от дузина фалшиви приложения „Sora“ или „Sora 2“ се появиха в App Store на Apple скоро след старта [3]. Тези имитатори събраха общо около 300 000 инсталации и над $160 000 приходи само за няколко дни [4] [5]. (За сравнение, проучване показва, че измамните iOS приложения са се увеличили с 300% през 2025 г., а на Android – с 600%, задвижвани от измами с изкуствен интелект [6].) Apple оттогава е премахнала много от копията, но някои все още преминават през прегледа [7]. Технологични анализатори предупреждават, че това отразява по-широка „икономика на измамите“, при която вирусният успех моментално привлича имитатори [8] [9].
  • Холивудски отзвук: Когато OpenAI представи Sora 2 (30 септември) с функцията „Cameo“, позволяваща използването на истински лица/герои във видеа, развлекателната индустрия избухна. Големи студия, агенции (WME, CAA, UTA) и синдикати (SAG-AFTRA) изискаха от OpenAI да спре да използва образите на актьори или герои без разрешение или заплащане [10] [11]. Президентът на SAG-AFTRA Шон Астин предупреди, че подходът на Sora „opt-out“ „застрашава икономическата основа на цялата ни индустрия“ [12]. Warner Bros. и други подчертаха, че десетилетия авторско право дават контрол на притежателите на права, независимо от политиките за „opt-out“ [13]. Главният изпълнителен директор на OpenAI Сам Алтман отговори в блога си, че ще предложат по-прецизни контроли и споделяне на приходи за притежателите на права [14] [15]. Холивудски адвокати предвиждат, че „два титана“ (Силициевата долина срещу Холивуд) ще се борят за бъдещето на ИИ в медиите [16] [17].
  • Поверителност и притеснения относно дийпфейкове: Потребители и експерти изразиха тревога относно лични дийпфейкове. Технологичният колумнист на Washington Post Джефри Фаулър преживя как приятели използват Sora, за да го „дийпфейкнат“ в смущаващи видеа без неговото съгласие [18] [19]. Той интервюира експерти, които подчертават необходимостта от съгласие. Ева Галперин (EFF) отбелязва, че такива видеа „са много по-опасни за някои групи… По същество, това, което OpenAI не разбира, са властовите динамики“ [20]. Хани Фарид от UC Berkeley добавя: „Трябва да имаме много по-голям контрол върху нашата идентичност“, но компаниите се страхуват, че по-строгият контрол ще навреди на вирусното разпространение [21]. Както предупреждава технологичният колумнист на New York Times Брайън Чен, с ултрареалистичното видео, „идеята, че видеото може да служи като обективен запис на реалността“ може би е приключила – ще трябва да гледаме на видеото със скептицизма, който сега запазваме за текста [22].
  • Мнения на експерти: Представители на индустрията подчертават залозите. Шефът на MPAA Чарлз Ривкин призова OpenAI да „предприеме незабавни и решителни действия“, позовавайки се на закона за авторското право [23]. Медийният адвокат Крейг Бейкър (Davis Wright Tremaine) казва, че напливът от небрежно AI видео съдържание ще натовари законите за публичност и прилика, особено за починали личности [24]. Комикът Тревър Ноа предупреди, че Sora може да бъде „катастрофална“, ако образите на хора се използват без съгласие [25]. От друга страна, OpenAI настоява, че потребителите „контролират изцяло своя образ със Sora“ (рекламирайки своя opt-in модел) [26], въпреки че критиците отбелязват, че дребният шрифт има реални ограничения.

На този фон, нека разгледаме цялата история:

Какво е Sora и защо е толкова важно

Sora е новото мобилно приложение на OpenAI, достъпно само с покана (iOS, уеб), което превръща текстови подсказки – или дори кратки видеа (cameos) – във впечатляващи, кратки видеоклипове с помощта на генеративен ИИ. Пуснато в края на септември 2025 г., то бързо се превърна в сензация. Данните на OpenAI показват над един милион инсталации само за няколко дни [27], а приложението се изкачи на върха на класацията за безплатни приложения на Apple. Вълнението беше подхранено от демонстрационни клипове с хора и анимационни герои в абсурдни или изпълнени с екшън ситуации (например СпонджБоб, който говори от Овалния кабинет) [28]. Потребителите похвалиха поразителния реализъм: лицата, израженията и дори гласовете изглеждаха убедително човешки [29] [30].

Sora следва по-ранните продукти на OpenAI (ChatGPT, DALL·E) и представлява скок в ИИ-генерираните медии. До 30 септември Сам Алтман обяви Sora 2 – с добавен режим “Cameo”, в който всеки може да качи кратко селфи или референтно изображение и след това да постави себе си (или други) в генерираните видеа [31]. Резултатът: феновете можеха да видят себе си в луди ИИ видеа. Но това означава и че Sora 2 по дизайн размива границата между измислица и реалност: можеш да напишеш “аз поръчвам тако в нощен клуб” и Sora ще генерира видео, в което правиш точно това.

Фалшиви Sora приложения заливат App Store

Веднага след като новината за Sora излезе, App Store беше залят с имитиращи приложения. TechCrunch съобщи, че “над дузина” приложения с марката Sora се появиха веднага след официалния старт [32]. Много от тях бяха стари ИИ или видео приложения, набързо прекръстени на “Sora”, “Sora Video Generator” или дори “Sora 2 Pro”. Някои съществуваха с месеци под други имена и просто смениха брандирането си за една нощ. Те преминаха през прегледа на Apple, въпреки че използваха запазената марка на OpenAI [33].

Тези имитатори отчетоха огромни числа: фирмата за анализ на приложения Appfigures преброи приблизително 300 000 инсталации на фалшиви Sora приложения (и $160 000 приходи) само за първите няколко дни [34]. Само един клонинг („Sora 2 – Video Generator AI“) привлече над 50 000 инсталации чрез агресивно използване на ключовата дума „Sora“. (За сравнение, OpenAI съобщава, че официалното приложение на Sora е достигнало 1 милион изтегляния за същия период [35].) Според eMarketer, Apple бързо започна да премахва най-лошите нарушители, но някои „меки измами“ все още остават скрити. Например, приложение, наречено „PetReels – Sora for Pets“, е събрало няколкостотин инсталации, а дори и псевдонимът „Vi-sora“, който се възползва от шума, е получил хиляди [36].

Експертите казват, че това не е изненадващо, а по-скоро част от модел: всяка нова технологична тенденция веднага води до измамни имитатори. След пускането на ChatGPT през 2022 г., подобни „fleeceware“ приложения заляха магазините, а крипто вълните доведоха до фалшиви портфейл приложения през 2024 г. [37]. Според анализ на новини за джаджи, измамните приложения за iOS са се увеличили с 300% през 2025 г. (и с 600% за Android), най-вече заради AI инструменти, които улесняват клонирането [38] [39]. Тези Sora клонинги се възползваха от тази уязвимост. Един технологичен експерт предупреждава, че AI позволява на начинаещи да създават напълно завършени приложения (описания, икони и др.), с които да заблуждават проверяващите и потребителите [40] [41].

Потребителско предупреждение: За да избегнете фалшификати, експертите препоръчват да инсталирате Sora само от официални канали (напр. сайта на OpenAI) и внимателно да проверявате информацията за разработчика [42] [43]. В момента истинската Sora е само с покана; всяко приложение, което обещава незабавен достъп или изтегляния срещу заплащане, е подозрително. Тази вълна от измами подчертава труден урок: вирусният успех на ИИ може да донесе големи печалби на измамниците, преди платформите да реагират [44] [45].

Холивуд отвръща на удара: Права върху образа и отказване от участие

Междувременно в Холивуд Sora 2 предизвика тревога. Досега Sora можеше да създава само generic измислени хора. Но с функцията за камео, тя можеше по подразбиране да имитира actual знаменитости и персонажи – независимо дали студиата са съгласни или не. Само часове след дебюта на Sora 2, Асоциацията на филмовата индустрия (MPA) и агенциите за таланти излязоха с рядко съвместно порицание. Председателят на MPA Чарлз Ривкин заяви директно: „OpenAI трябва да предприеме незабавни и решителни действия за решаване на този проблем“, позовавайки се на отдавна установени закони за авторското право, които защитават образа [46]. Шон Астин от SAG-AFTRA нарече подхода (отказване по подразбиране) „заплаха за икономическата основа на цялата ни индустрия“ [47].

На практика, Sora 2 първоначално включваше всяко публично изображение и изпълнение, което можеше да намери – освен ако притежател на права проактивно не се откаже чрез системата на OpenAI. (Един вътрешен човек казва, че OpenAI тихомълком е казал на студиата преди пускането да подадат списък с герои или актьори, които не бива да се появяват [48].) Но големите агенции не приеха това. Само за няколко дни WME (която представлява звезди като Опра Уинфри и Майкъл Б. Джордан) уведоми OpenAI, че всички техни клиенти трябва да бъдат отписани незабавно [49]. CAA и UTA също настояха актьорите да имат контрол и компенсация. Warner Bros. Discovery публично напомни, че „десетилетия приложимо авторско право“ вече дават права на създателите; никой не е длъжен да се отписва, за да блокира нарушението [50].

Дори защитниците на технологиите признават конфликта: Варуун Шети от OpenAI (вицепрезидент „Медийни партньорства“) се опита да представи нещата положително, отбелязвайки, че феновете „създават оригинални видеа и са развълнувани да взаимодействат с любимите си герои, което виждаме като възможност за притежателите на права да се свържат с феновете“ [51]. Но студиата виждат огромен риск. Бивши адвокати предупреждават, че следващото поколение AI видео инструменти (от Google, Meta и др.) ще подложи на сериозен тест правилата за авторско право и публичност. Сиатълският адвокат Антъни Глухов отбелязва, че тази битка противопоставя „действай бързо“ етиката на Силициевата долина срещу нежеланието на Холивуд да губи контрол върху интелектуалната собственост [52].

OpenAI отговори, че Sora 2 вече има ограничения (тя не генерира умишлено известни личности, освен ако не се използва cameo функцията), и работи по нови защитни механизми. Сам Алтман написа в блога си, че OpenAI ще добави „детайлни контроли“ за притежателите на права и дори ще създаде споделяне на приходи при използване на защитено с авторски права съдържание [53] [54]. Компанията публикува и ръководство за безопасност на Sora 2, в което се казва: „Само вие решавате кой може да използва вашето cameo, и можете да отнемете достъпа по всяко време“ [55]. (В действителност, както отбелязват критици, вие контролирате само достъпа, а не съдържанието, след като е създадено – ограничение, на което журналистът Джефри Фаулър обърна внимание, когато OpenAI признаха, че „все пак го пуснаха“, въпреки че са знаели за проблема [56].)

Талантите и синдикатите обещаха да следят и да налагат контрол. SAG-AFTRA е особено бдителен след скорошен инцидент: актьор, генериран от ИИ („Тили Норууд“), почти беше подписан от агенция, което изплаши хората и съвпадна с тази сага около Sora. Един адвокат от индустрията обобщава: „Въпросът не е дали студиата ще се опитат да се наложат, а кога и как“ [57]. Накратко, правна битка изглежда неизбежна. Засега противопоставянето вече е охладило ентусиазма към Sora в Холивуд, като много лога и образи по подразбиране са блокирани.

Съгласие и етика на дийпфейковете

Освен корпоративните права, Sora 2 повдигна тревоги за поверителност и съгласие за обикновените хора. За разлика от първоначалната Sora (само текст), Sora 2 изрично насърчава да споделите своето лице, за да активирате cameo. Но тази система има недостатъци. Както съобщава The Washington Post, вие „се съгласявате“, като записвате селфи видео и избирате кой може да вижда вашето cameo (приятели, всички или само вие) [58]. След като е активирано, всеки позволен човек може да генерира видеа с вас, правещи каквото и да е, само като напише подсказка. Приложението ви уведомява чак след, като вече е създадено видео с вас [59] – а дотогава то може вече да е споделено широко.

Колумнистът на WP Джеф Фаулър тества това и в началото го намери за забавно: приятели направиха забавни камео видеа с него в телевизионни предавания и кулинарни провали [60]. Но скоро се появи видео, в което той разказва неприлична шега, която никога не е казвал – достатъчно правдоподобно, за да го разтревожи [61]. Той осъзна опасността: ако ИИ може реалистично да фалшифицира me да извършва престъпления или омразни действия, зрителите ще се чудят дали е истинско. Фаулър се обади на експерти като Ева Гълперин (EFF), която предупреждава, че небрежните видеа в стил „селебрити“ могат да бъдат много вредни за уязвими хора. Гълперин го каза директно: „Видеа с приятели, които крадат от Target, са много по-опасни за някои групи хора, отколкото за други… Това, което OpenAI не разбира, са динамиките на властта.“ [62] С други думи, раздаването на deepfake възможности пренебрегва факта, че не всеки е еднакво защитен, ако тази сила се използва неправомерно.

Изследователите по ИИ споделят това мнение. Хани Фарид (UC Berkeley) каза директно: „Трябва да имаме много повече контрол върху нашата идентичност,“ но отбелязва, че всяка допълнителна мярка за сигурност обикновено прави социалното приложение по-малко вирусно [63]. Настройките по подразбиране на Sora наистина са доста отворени: новите потребители автоматично споделят камео видеата си с всички „взаимни“ (последователи, които също ги следват) [64], като се предполага приятелски отношения, които могат да се променят с времето. Гълперин отбелязва, че хората често се доверяват твърде лесно; приятелствата могат да се превърнат във враждебност.

OpenAI оттогава добави настройки за „насоки“ при камео – можете да посочите теми или образи, които са забранени – и отново подчерта, че потребителите могат напълно да изтрият своето камео. Съдържанието на Sora също е водно маркирано като генерирано от ИИ [65]. Наблюдателите обаче отбелязват, че водните знаци могат да бъдат изрязани за минута с редактиране. И както отбелязва Фаулър, обикновените потребители (за разлика от знаменитости като Сам Алтман или iJustine) няма да имат време да проверяват всяко видео, в което се появяват. Дори iJustine, която отвори своето камео за всички, трябваше активно да следи и изтрива обидни клипове, направени за нея [66].

Експертите казват, че тази технология налага културна промяна: може да се наложи да възстановим практиката на култура на съгласие. Един млад създател твърди, че хората трябва изрично да искат разрешение, преди публично да публикуват видео с приятел в cameo [67]. Самият Фаулър възприе строг подход: той настрои своя Sora на „само аз“, което означава, че само той може да генерира видеа със себе си. Това ограничава социалното забавление на приложението, но той го смята за изявление за дигиталното доверие: ако не можеш да имаш истински контрол, може би не трябва да участваш.

Както каза колумнистът на NYT Брайън Чен (цитиран в медиите): реализъмът на Sora може да означава „края на визуалния факт“ – вече не може да се приема, че видеото е надеждно доказателство за реалността [68]. Скоро публикациите с видеа в социалните мрежи ще се гледат с толкова подозрение, колкото и текст, написан от AI. Междувременно технолозите подчертават предпазливост: проверявайте съдържанието и внимавайте с AI face-swaps.

Пътят напред: Политики и защита

Всички тези проблеми сочат едно: правилата за AI видео все още се пишат. OpenAI бърза да добави функции за безопасност, а компании като Loti (стартъп) привличат внимание. Изпълнителният директор на Loti Люк Аригони казва, че интересът експлодира: хората искат инструменти, с които да управляват активно своя дигитален образ, а не просто да реагират постфактум. Той съобщава, че услугата му за AI-идентичност е нараснала 30 пъти наскоро [69]. Технологични и правни експерти предполагат, че вероятно са нужни нови закони – например, датското законодателство (цитирано от Тревър Ноа) наскоро даде на хората изричен контрол върху дигиталния им образ. В САЩ някои смятат, че законите за правото на публичност ще трябва да се развият заради AI.

Едно е ясно: потребителите, създателите и платформите трябва да работят по-усилено за установяване на норми за съгласие. Общественото недоволство около Sora 2 вече принуди OpenAI да промени политиките си. В бъдещите AI инструменти може да видим задължителни механизми за предварително одобрение или по-прецизни контроли за споделяне, вградени от самото начало. Междувременно потребителите трябва да подхождат скептично към видеата в социалните мрежи и да помислят два пъти, преди да дадат на приложения достъп до данните за лицето си.

В обобщение: Sora на OpenAI показа невероятната сила на AI видеото – но и местата, където законът, етиката и сигурността се напрягат. Фалшиви приложения и фенове на deepfake се възползваха от популярността ѝ; Холивуд и притежателите на права оказват сериозен натиск; а обикновените хора тепърва започват да осмислят какво означава да „притежаваш“ лицето си онлайн. Както каза един експерт, вероятно обществото ни ще трябва да гледа на всички видеа с нов, критичен поглед [70].

Източници: Последни новини и анализи за Sora от TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer и други (вижте източниците). Те описват статистиката при старта на Sora, измамите с фалшиви приложения [71] [72], възраженията на Холивуд [73] [74], както и притесненията относно поверителността/дълбоките фалшификати с експертни коментари [75] [76] [77], наред с други развития. Всички цитирани експерти и данни са посочени съответно.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • Android Auto 15.2 Bug Breaks Taskbar Widgets; Fix Pending as Google Investigates
    October 15, 2025, 1:58 AM EDT. Android Auto 15.2 introduces a bug that hides taskbar widgets and reorients the bar to a left, vertical layout. The issue surfaced in late September during the staged rollout, with many users on Pixel and Samsung devices reporting that toggling Taskbar widgets does not restore the elements, and the UI briefly redraws before reverting. Some workarounds-clearing cache/data or reverting to older builds-offer only temporary relief. Google has opened an investigation but has not provided a timeline. A clearer path is expected with the Android Auto 15.4 beta, but for now users should wait for a stable update or temporarily roll back. The episode shows how even polished interfaces can stumble around core UI elements.
  • Google blocks Pixel IMS VoLTE hack; developer releases workaround
    October 15, 2025, 1:57 AM EDT. Google's October 2025 Pixel update blocked the 'shell' workaround used by the Pixel IMS app to enable VoLTE and VoWiFi on unsupported carriers, breaking functionality for importers. The patch targeted an internal API call that overrides carrier config - a capability Pixel IMS exploited via the open-source tool Shizuku to run with elevated shell privileges. In response, the developer released a new workaround that bypasses the restriction by laundering the API call through another component so the system doesn't detect it as coming from shell. The episode highlights the ongoing tug-of-war between device flexibility, carrier support, and platform security, and how developers react when patches close holes.
  • Experts warn about kids getting smartphones too early - how to handle it
    October 15, 2025, 1:56 AM EDT. New Pew Research Center findings show most parents of kids ages 11-12 report their child has a smartphone, even as many experts urge delaying social media access until about age 16. The study highlights how smartphones are just part of a broader rise in kids' screen time: 85% watch YouTube, including more youngsters under 2 than in 2020. While 86% of parents have rules for screen use, only 19% consistently enforce them, and 80% worry that the harms of social media outweigh the benefits. The article offers practical approaches: stay in touch without a smartphone via a dumbphone or a child-friendly watch; use a family device that's shared with a parent; and befriend other parents to coordinate norms. The takeaway: rethink techniques for managing kids' tech while keeping them connected.
  • Honor appoints Nicholas Tse as Future Technology Experience Officer and contrasts Magic8 Pro with iPhone 17 Pro in night photos
    October 15, 2025, 1:55 AM EDT. Honor has appointed Nicholas Tse as its Future Technology Experience Officer ahead of the Oct 15 unveiling of the Magic8 lineup. The actor and multimedia icon features in a promo image that spotlights the device's AI self-evolution concept, designed to learn habits and optimize over time. Honor also released a promo video comparing the Magic8 Pro with the iPhone 17 Pro in high-altitude night shots captured from a helicopter, claiming the Magic8 Pro comes out on top. Teased specs include a 50 MP main camera, a 50 MP ultrawide, and a 200 MP periscope telephoto (85mm, f/2.6, 1/1.4" sensor).
  • NVIDIA Ships DGX Spark, the World's Smallest AI Supercomputer, to Elon Musk
    October 15, 2025, 1:53 AM EDT. NVIDIA says its DGX Spark, billed as the world's smallest AI supercomputer, ships from Oct 15 for $3,999. CEO Jensen Huang delivered the first units to Elon Musk. DGX Spark bundles NVIDIA's entire AI stack-GPUs, CPUs, networking, CUDA libraries-into a compact system delivering a petaflop of AI performance with 128 GB of unified memory. Powered by the GB10 Blackwell Superchip, it can run inferences on models up to 200 billion parameters and fine-tune up to 70 billion parameters. It enables local AI agents and advanced software stacks. Pre-orders open on NVIDIA's site, with partners like Acer, ASUS, Dell, HP, MSI. Other tech giants-Microsoft, Google, Hugging Face, Meta-are testing DGX Spark to optimize their tools.

Don't Miss

NPUs vs. TPUs: How On-Device AI Is Supercharging Your Gadgets in 2025

NPU срещу TPU: Как вградените AI технологии ускоряват вашите устройства през 2025

Apple стартира вградената AI през 2017 г. с Neural Engine
Your Smartphone Can Now Text via SpaceX’s Starlink Satellites – Here’s Everything You Need to Know

Вашият смартфон вече може да изпраща съобщения чрез сателитите на Starlink на SpaceX – Ето всичко, което трябва да знаете

Нова ера на сателитно-към-телефон свързаност В продължение на десетилетия, осъществяването