Sora-AI сензация предизвиква фалшиви приложения, холивудски фурор и драма с дийпфейкове

октомври 13, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Вирусен старт: Новото видео приложение с изкуствен интелект на OpenAI Sora (само за iOS, само с покана) дебютира в началото на октомври 2025 г. и моментално оглави класациите за изтегляния [1]. Само за няколко дни достигна №1 в App Store, с над 1 милион изтегляния според OpenAI [2]. Потребителите могат да въвеждат текстови подсказки (или „камео“ на реални хора), за да генерират хиперреалистични кратки видеа.
  • Вълна от измами в App Store: Измамници побързаха да се възползват от шума около Sora. Повече от дузина фалшиви приложения „Sora“ или „Sora 2“ се появиха в App Store на Apple скоро след старта [3]. Тези имитатори събраха общо около 300 000 инсталации и над $160 000 приходи само за няколко дни [4] [5]. (За сравнение, проучване показва, че измамните iOS приложения са се увеличили с 300% през 2025 г., а на Android – с 600%, задвижвани от измами с изкуствен интелект [6].) Apple оттогава е премахнала много от копията, но някои все още преминават през прегледа [7]. Технологични анализатори предупреждават, че това отразява по-широка „икономика на измамите“, при която вирусният успех моментално привлича имитатори [8] [9].
  • Холивудски отзвук: Когато OpenAI представи Sora 2 (30 септември) с функцията „Cameo“, позволяваща използването на истински лица/герои във видеа, развлекателната индустрия избухна. Големи студия, агенции (WME, CAA, UTA) и синдикати (SAG-AFTRA) изискаха от OpenAI да спре да използва образите на актьори или герои без разрешение или заплащане [10] [11]. Президентът на SAG-AFTRA Шон Астин предупреди, че подходът на Sora „opt-out“ „застрашава икономическата основа на цялата ни индустрия“ [12]. Warner Bros. и други подчертаха, че десетилетия авторско право дават контрол на притежателите на права, независимо от политиките за „opt-out“ [13]. Главният изпълнителен директор на OpenAI Сам Алтман отговори в блога си, че ще предложат по-прецизни контроли и споделяне на приходи за притежателите на права [14] [15]. Холивудски адвокати предвиждат, че „два титана“ (Силициевата долина срещу Холивуд) ще се борят за бъдещето на ИИ в медиите [16] [17].
  • Поверителност и притеснения относно дийпфейкове: Потребители и експерти изразиха тревога относно лични дийпфейкове. Технологичният колумнист на Washington Post Джефри Фаулър преживя как приятели използват Sora, за да го „дийпфейкнат“ в смущаващи видеа без неговото съгласие [18] [19]. Той интервюира експерти, които подчертават необходимостта от съгласие. Ева Галперин (EFF) отбелязва, че такива видеа „са много по-опасни за някои групи… По същество, това, което OpenAI не разбира, са властовите динамики“ [20]. Хани Фарид от UC Berkeley добавя: „Трябва да имаме много по-голям контрол върху нашата идентичност“, но компаниите се страхуват, че по-строгият контрол ще навреди на вирусното разпространение [21]. Както предупреждава технологичният колумнист на New York Times Брайън Чен, с ултрареалистичното видео, „идеята, че видеото може да служи като обективен запис на реалността“ може би е приключила – ще трябва да гледаме на видеото със скептицизма, който сега запазваме за текста [22].
  • Мнения на експерти: Представители на индустрията подчертават залозите. Шефът на MPAA Чарлз Ривкин призова OpenAI да „предприеме незабавни и решителни действия“, позовавайки се на закона за авторското право [23]. Медийният адвокат Крейг Бейкър (Davis Wright Tremaine) казва, че напливът от небрежно AI видео съдържание ще натовари законите за публичност и прилика, особено за починали личности [24]. Комикът Тревър Ноа предупреди, че Sora може да бъде „катастрофална“, ако образите на хора се използват без съгласие [25]. От друга страна, OpenAI настоява, че потребителите „контролират изцяло своя образ със Sora“ (рекламирайки своя opt-in модел) [26], въпреки че критиците отбелязват, че дребният шрифт има реални ограничения.

На този фон, нека разгледаме цялата история:

Какво е Sora и защо е толкова важно

Sora е новото мобилно приложение на OpenAI, достъпно само с покана (iOS, уеб), което превръща текстови подсказки – или дори кратки видеа (cameos) – във впечатляващи, кратки видеоклипове с помощта на генеративен ИИ. Пуснато в края на септември 2025 г., то бързо се превърна в сензация. Данните на OpenAI показват над един милион инсталации само за няколко дни [27], а приложението се изкачи на върха на класацията за безплатни приложения на Apple. Вълнението беше подхранено от демонстрационни клипове с хора и анимационни герои в абсурдни или изпълнени с екшън ситуации (например СпонджБоб, който говори от Овалния кабинет) [28]. Потребителите похвалиха поразителния реализъм: лицата, израженията и дори гласовете изглеждаха убедително човешки [29] [30].

Sora следва по-ранните продукти на OpenAI (ChatGPT, DALL·E) и представлява скок в ИИ-генерираните медии. До 30 септември Сам Алтман обяви Sora 2 – с добавен режим “Cameo”, в който всеки може да качи кратко селфи или референтно изображение и след това да постави себе си (или други) в генерираните видеа [31]. Резултатът: феновете можеха да видят себе си в луди ИИ видеа. Но това означава и че Sora 2 по дизайн размива границата между измислица и реалност: можеш да напишеш “аз поръчвам тако в нощен клуб” и Sora ще генерира видео, в което правиш точно това.

Фалшиви Sora приложения заливат App Store

Веднага след като новината за Sora излезе, App Store беше залят с имитиращи приложения. TechCrunch съобщи, че “над дузина” приложения с марката Sora се появиха веднага след официалния старт [32]. Много от тях бяха стари ИИ или видео приложения, набързо прекръстени на “Sora”, “Sora Video Generator” или дори “Sora 2 Pro”. Някои съществуваха с месеци под други имена и просто смениха брандирането си за една нощ. Те преминаха през прегледа на Apple, въпреки че използваха запазената марка на OpenAI [33].

Тези имитатори отчетоха огромни числа: фирмата за анализ на приложения Appfigures преброи приблизително 300 000 инсталации на фалшиви Sora приложения (и $160 000 приходи) само за първите няколко дни [34]. Само един клонинг („Sora 2 – Video Generator AI“) привлече над 50 000 инсталации чрез агресивно използване на ключовата дума „Sora“. (За сравнение, OpenAI съобщава, че официалното приложение на Sora е достигнало 1 милион изтегляния за същия период [35].) Според eMarketer, Apple бързо започна да премахва най-лошите нарушители, но някои „меки измами“ все още остават скрити. Например, приложение, наречено „PetReels – Sora for Pets“, е събрало няколкостотин инсталации, а дори и псевдонимът „Vi-sora“, който се възползва от шума, е получил хиляди [36].

Експертите казват, че това не е изненадващо, а по-скоро част от модел: всяка нова технологична тенденция веднага води до измамни имитатори. След пускането на ChatGPT през 2022 г., подобни „fleeceware“ приложения заляха магазините, а крипто вълните доведоха до фалшиви портфейл приложения през 2024 г. [37]. Според анализ на новини за джаджи, измамните приложения за iOS са се увеличили с 300% през 2025 г. (и с 600% за Android), най-вече заради AI инструменти, които улесняват клонирането [38] [39]. Тези Sora клонинги се възползваха от тази уязвимост. Един технологичен експерт предупреждава, че AI позволява на начинаещи да създават напълно завършени приложения (описания, икони и др.), с които да заблуждават проверяващите и потребителите [40] [41].

Потребителско предупреждение: За да избегнете фалшификати, експертите препоръчват да инсталирате Sora само от официални канали (напр. сайта на OpenAI) и внимателно да проверявате информацията за разработчика [42] [43]. В момента истинската Sora е само с покана; всяко приложение, което обещава незабавен достъп или изтегляния срещу заплащане, е подозрително. Тази вълна от измами подчертава труден урок: вирусният успех на ИИ може да донесе големи печалби на измамниците, преди платформите да реагират [44] [45].

Холивуд отвръща на удара: Права върху образа и отказване от участие

Междувременно в Холивуд Sora 2 предизвика тревога. Досега Sora можеше да създава само generic измислени хора. Но с функцията за камео, тя можеше по подразбиране да имитира actual знаменитости и персонажи – независимо дали студиата са съгласни или не. Само часове след дебюта на Sora 2, Асоциацията на филмовата индустрия (MPA) и агенциите за таланти излязоха с рядко съвместно порицание. Председателят на MPA Чарлз Ривкин заяви директно: „OpenAI трябва да предприеме незабавни и решителни действия за решаване на този проблем“, позовавайки се на отдавна установени закони за авторското право, които защитават образа [46]. Шон Астин от SAG-AFTRA нарече подхода (отказване по подразбиране) „заплаха за икономическата основа на цялата ни индустрия“ [47].

На практика, Sora 2 първоначално включваше всяко публично изображение и изпълнение, което можеше да намери – освен ако притежател на права проактивно не се откаже чрез системата на OpenAI. (Един вътрешен човек казва, че OpenAI тихомълком е казал на студиата преди пускането да подадат списък с герои или актьори, които не бива да се появяват [48].) Но големите агенции не приеха това. Само за няколко дни WME (която представлява звезди като Опра Уинфри и Майкъл Б. Джордан) уведоми OpenAI, че всички техни клиенти трябва да бъдат отписани незабавно [49]. CAA и UTA също настояха актьорите да имат контрол и компенсация. Warner Bros. Discovery публично напомни, че „десетилетия приложимо авторско право“ вече дават права на създателите; никой не е длъжен да се отписва, за да блокира нарушението [50].

Дори защитниците на технологиите признават конфликта: Варуун Шети от OpenAI (вицепрезидент „Медийни партньорства“) се опита да представи нещата положително, отбелязвайки, че феновете „създават оригинални видеа и са развълнувани да взаимодействат с любимите си герои, което виждаме като възможност за притежателите на права да се свържат с феновете“ [51]. Но студиата виждат огромен риск. Бивши адвокати предупреждават, че следващото поколение AI видео инструменти (от Google, Meta и др.) ще подложи на сериозен тест правилата за авторско право и публичност. Сиатълският адвокат Антъни Глухов отбелязва, че тази битка противопоставя „действай бързо“ етиката на Силициевата долина срещу нежеланието на Холивуд да губи контрол върху интелектуалната собственост [52].

OpenAI отговори, че Sora 2 вече има ограничения (тя не генерира умишлено известни личности, освен ако не се използва cameo функцията), и работи по нови защитни механизми. Сам Алтман написа в блога си, че OpenAI ще добави „детайлни контроли“ за притежателите на права и дори ще създаде споделяне на приходи при използване на защитено с авторски права съдържание [53] [54]. Компанията публикува и ръководство за безопасност на Sora 2, в което се казва: „Само вие решавате кой може да използва вашето cameo, и можете да отнемете достъпа по всяко време“ [55]. (В действителност, както отбелязват критици, вие контролирате само достъпа, а не съдържанието, след като е създадено – ограничение, на което журналистът Джефри Фаулър обърна внимание, когато OpenAI признаха, че „все пак го пуснаха“, въпреки че са знаели за проблема [56].)

Талантите и синдикатите обещаха да следят и да налагат контрол. SAG-AFTRA е особено бдителен след скорошен инцидент: актьор, генериран от ИИ („Тили Норууд“), почти беше подписан от агенция, което изплаши хората и съвпадна с тази сага около Sora. Един адвокат от индустрията обобщава: „Въпросът не е дали студиата ще се опитат да се наложат, а кога и как“ [57]. Накратко, правна битка изглежда неизбежна. Засега противопоставянето вече е охладило ентусиазма към Sora в Холивуд, като много лога и образи по подразбиране са блокирани.

Съгласие и етика на дийпфейковете

Освен корпоративните права, Sora 2 повдигна тревоги за поверителност и съгласие за обикновените хора. За разлика от първоначалната Sora (само текст), Sora 2 изрично насърчава да споделите своето лице, за да активирате cameo. Но тази система има недостатъци. Както съобщава The Washington Post, вие „се съгласявате“, като записвате селфи видео и избирате кой може да вижда вашето cameo (приятели, всички или само вие) [58]. След като е активирано, всеки позволен човек може да генерира видеа с вас, правещи каквото и да е, само като напише подсказка. Приложението ви уведомява чак след, като вече е създадено видео с вас [59] – а дотогава то може вече да е споделено широко.

Колумнистът на WP Джеф Фаулър тества това и в началото го намери за забавно: приятели направиха забавни камео видеа с него в телевизионни предавания и кулинарни провали [60]. Но скоро се появи видео, в което той разказва неприлична шега, която никога не е казвал – достатъчно правдоподобно, за да го разтревожи [61]. Той осъзна опасността: ако ИИ може реалистично да фалшифицира me да извършва престъпления или омразни действия, зрителите ще се чудят дали е истинско. Фаулър се обади на експерти като Ева Гълперин (EFF), която предупреждава, че небрежните видеа в стил „селебрити“ могат да бъдат много вредни за уязвими хора. Гълперин го каза директно: „Видеа с приятели, които крадат от Target, са много по-опасни за някои групи хора, отколкото за други… Това, което OpenAI не разбира, са динамиките на властта.“ [62] С други думи, раздаването на deepfake възможности пренебрегва факта, че не всеки е еднакво защитен, ако тази сила се използва неправомерно.

Изследователите по ИИ споделят това мнение. Хани Фарид (UC Berkeley) каза директно: „Трябва да имаме много повече контрол върху нашата идентичност,“ но отбелязва, че всяка допълнителна мярка за сигурност обикновено прави социалното приложение по-малко вирусно [63]. Настройките по подразбиране на Sora наистина са доста отворени: новите потребители автоматично споделят камео видеата си с всички „взаимни“ (последователи, които също ги следват) [64], като се предполага приятелски отношения, които могат да се променят с времето. Гълперин отбелязва, че хората често се доверяват твърде лесно; приятелствата могат да се превърнат във враждебност.

OpenAI оттогава добави настройки за „насоки“ при камео – можете да посочите теми или образи, които са забранени – и отново подчерта, че потребителите могат напълно да изтрият своето камео. Съдържанието на Sora също е водно маркирано като генерирано от ИИ [65]. Наблюдателите обаче отбелязват, че водните знаци могат да бъдат изрязани за минута с редактиране. И както отбелязва Фаулър, обикновените потребители (за разлика от знаменитости като Сам Алтман или iJustine) няма да имат време да проверяват всяко видео, в което се появяват. Дори iJustine, която отвори своето камео за всички, трябваше активно да следи и изтрива обидни клипове, направени за нея [66].

Експертите казват, че тази технология налага културна промяна: може да се наложи да възстановим практиката на култура на съгласие. Един млад създател твърди, че хората трябва изрично да искат разрешение, преди публично да публикуват видео с приятел в cameo [67]. Самият Фаулър възприе строг подход: той настрои своя Sora на „само аз“, което означава, че само той може да генерира видеа със себе си. Това ограничава социалното забавление на приложението, но той го смята за изявление за дигиталното доверие: ако не можеш да имаш истински контрол, може би не трябва да участваш.

Както каза колумнистът на NYT Брайън Чен (цитиран в медиите): реализъмът на Sora може да означава „края на визуалния факт“ – вече не може да се приема, че видеото е надеждно доказателство за реалността [68]. Скоро публикациите с видеа в социалните мрежи ще се гледат с толкова подозрение, колкото и текст, написан от AI. Междувременно технолозите подчертават предпазливост: проверявайте съдържанието и внимавайте с AI face-swaps.

Пътят напред: Политики и защита

Всички тези проблеми сочат едно: правилата за AI видео все още се пишат. OpenAI бърза да добави функции за безопасност, а компании като Loti (стартъп) привличат внимание. Изпълнителният директор на Loti Люк Аригони казва, че интересът експлодира: хората искат инструменти, с които да управляват активно своя дигитален образ, а не просто да реагират постфактум. Той съобщава, че услугата му за AI-идентичност е нараснала 30 пъти наскоро [69]. Технологични и правни експерти предполагат, че вероятно са нужни нови закони – например, датското законодателство (цитирано от Тревър Ноа) наскоро даде на хората изричен контрол върху дигиталния им образ. В САЩ някои смятат, че законите за правото на публичност ще трябва да се развият заради AI.

Едно е ясно: потребителите, създателите и платформите трябва да работят по-усилено за установяване на норми за съгласие. Общественото недоволство около Sora 2 вече принуди OpenAI да промени политиките си. В бъдещите AI инструменти може да видим задължителни механизми за предварително одобрение или по-прецизни контроли за споделяне, вградени от самото начало. Междувременно потребителите трябва да подхождат скептично към видеата в социалните мрежи и да помислят два пъти, преди да дадат на приложения достъп до данните за лицето си.

В обобщение: Sora на OpenAI показа невероятната сила на AI видеото – но и местата, където законът, етиката и сигурността се напрягат. Фалшиви приложения и фенове на deepfake се възползваха от популярността ѝ; Холивуд и притежателите на права оказват сериозен натиск; а обикновените хора тепърва започват да осмислят какво означава да „притежаваш“ лицето си онлайн. Както каза един експерт, вероятно обществото ни ще трябва да гледа на всички видеа с нов, критичен поглед [70].

Източници: Последни новини и анализи за Sora от TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer и други (вижте източниците). Те описват статистиката при старта на Sora, измамите с фалшиви приложения [71] [72], възраженията на Холивуд [73] [74], както и притесненията относно поверителността/дълбоките фалшификати с експертни коментари [75] [76] [77], наред с други развития. Всички цитирани експерти и данни са посочени съответно.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • Coastal Construction Uses Togal.AI to Speed Pre-Construction on Pendry Tampa Project
    October 15, 2025, 8:18 AM EDT. Coastal Construction in Tampa Bay is deploying Togal.AI, an AI tool, to measure, plan and design major projects faster. By uploading blueprints or detailed plans, the system reads floor plans, wall center lines, wall perimeters and areas to generate precise quantities of materials and an estimate. The platform can also answer questions via Togal.CHAT about windows and other components, tying design details directly to execution. The Pendry Tampa and Pendry Residences Tampa project on Ashley Drive-a 38-story luxury hotel and condominiums-illustrates the approach. Coastal says the system can compress pre-construction time and costs by about 20-25%, reducing weeks of manual counting and calculation.
  • Coastal Construction Uses Togal.AI to Speed Up Tampa Pendry Project
    October 15, 2025, 8:16 AM EDT. Coastal Construction in Tampa Bay is deploying Togal.AI, an AI-powered tool, to measure, plan and design the Pendry Tampa and Pendry Residences Tampa on Ashley Drive. The 38-story luxury hotel and residential tower broke ground in late 2023. Togal.AI founder Patrick Murphy says teams can upload blueprints and automatically compute wall lines, areas and material counts, dramatically shortening pre-construction time. Estimators previously counted doors, drywall and wiring by hand; now AI delivers wall center line, perimeter, gross/net area and costs. Togal.CHAT lets users ask about materials and provides labeled results with sourcing links. The goal is to compress pre-construction time and costs-roughly 20-25%-to accelerate a project that can run two to four years.
  • Tampa Construction Firm Uses Togal.AI to Slash Pre-Construction Time on Pendry Tampa Project
    October 15, 2025, 8:14 AM EDT. Coastal Construction in the Tampa Bay area is deploying Togal.AI to streamline measuring, planning and design for major projects, including the Pendry Tampa and Pendry Residences Tampa on Ashley Drive. The system can upload blueprints and read floor plans, returning precise data such as wall center lines, perimeter, area, and net area. The accompanying Togal.CHAT lets engineers ask questions about building materials or other project specifics. The goal is to cut pre-construction time and costs by about 20-25%, replacing weeks of manual counting with near-instant AI insights while still relying on human oversight. The Pendry project is a 38-story luxury hotel and condominium tower that kicked off in late 2023.
  • Tampa Construction Firm Leverages Togal.AI to Speed Up Pre-Construction for Pendry Tampa
    October 15, 2025, 8:12 AM EDT. Coastal Construction in Tampa uses Togal.AI to measure, plan, and design major projects, including the Pendry Tampa tower. Estimators can upload blueprints and have the system read floor plans, count materials, and calculate wall area, perimeter, and other metrics, reducing weeks of manual work. Togal.CHAT lets teams ask questions about windows, materials, and project specifics. The AI-driven workflow speeds pre-construction and aims to cut time and costs by streamlining planning, quantities, and communication. The Pendry Tampa and Pendry Residences Tampa on Ashley Drive are a 38-story luxury hotel/condo complex that broke ground in late 2023, with Coastal using this technology to expedite delivery.
  • Coastal Construction Uses Togal.AI to Accelerate Tampa's Pendry Project
    October 15, 2025, 8:10 AM EDT. Coastal Construction in the Tampa Bay area is deploying Togal.AI, an in-house tool created by CIO Patrick Murphy, to measure, plan, and design a major project-the Pendry Tampa and Pendry Residences Tampa on Ashley Drive. The AI reads blueprints, tallies materials, and generates wall center line, wall perimeter, and area data, letting estimators replace weeks of manual counting with instant calculations. Togal.CHAT lets engineers ask questions about materials and window types, with labeled outputs and source links. By streamlining pre-construction, Murphy says the tech can cut planning time and costs by roughly 20-25%. The project suite includes a 38-story hotel and condo tower with residential, hotel, parking, retail, and dining spaces, showing how AI-driven workflows are reshaping large-scale construction.

Don't Miss

Satellites Powered by Water? The Revolutionary Propellant Changing Spaceflight

Сателити, задвижвани с вода? Революционното гориво, което променя космическите полети

Momentus Vigoride използва MET двигател, който нагрява водата с микровълни,
Mobile Mayhem: iPhone 17 Frenzy, Galaxy S26 Leaks & More (Sept 12–13, 2025)

Мобилен хаос: Лудост по iPhone 17, изтичания за Galaxy S26 и още (12–13 септември 2025)

Ключови факти Основни премиери и анонси на смартфони Дебют на