Sora-AI wywołuje sensację: fałszywe aplikacje, burza w Hollywood i dramat deepfake

13 października, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Viralny start: Nowa aplikacja wideo OpenAI oparta na AI Sora (tylko na iOS, tylko na zaproszenie) zadebiutowała na początku października 2025 roku i natychmiast znalazła się na szczycie list pobrań [1]. W ciągu kilku dni osiągnęła #1 w App Store, a OpenAI zgłosiło ponad 1 milion pobrań [2]. Użytkownicy mogą wprowadzać tekstowe polecenia (lub „cameo” prawdziwych osób), aby generować hiperrealistyczne krótkie filmy.
  • Fala oszustw w App Store: Oszuści pospieszyli, by wykorzystać szum wokół Sory. Wkrótce po premierze w App Store pojawiło się ponad tuzin fałszywych aplikacji „Sora” lub „Sora 2” [3]. Te podróbki łącznie przyciągnęły około 300 000 instalacji i ponad 160 000 dolarów przychodu w ciągu kilku dni [4] [5]. (Dla porównania, badanie wykazało, że liczba fałszywych aplikacji na iOS wzrosła o 300% w 2025 roku, a na Androidzie o 600%, napędzana przez oszustwa oparte na AI [6].) Apple od tego czasu usunęło wiele klonów, ale niektóre wciąż przechodzą przez weryfikację [7]. Analitycy technologiczni ostrzegają, że odzwierciedla to szerszą „gospodarkę oszustw”, gdzie wirusowy sukces natychmiast przyciąga naśladowców [8] [9].
  • Hollywoodzki sprzeciw: Gdy OpenAI zaprezentowało Sora 2 (30 września) z funkcją „Cameo” umożliwiającą użycie prawdziwych twarzy/postaci w filmach, branża rozrywkowa wybuchła. Główne studia, agencje (WME, CAA, UTA) i związki zawodowe (SAG-AFTRA) zażądały, by OpenAI przestało wykorzystywać wizerunki aktorów lub postaci bez zgody lub wynagrodzenia [10] [11]. Prezes SAG-AFTRA Sean Astin ostrzegł, że podejście Sory „opt-out” „zagraża ekonomicznym podstawom całej naszej branży” [12]. Warner Bros. i inni podkreślili, że dekady prawa autorskiego dają właścicielom praw kontrolę niezależnie od polityki „opt-out” [13]. Dyrektor generalny OpenAI Sam Altman odpowiedział na swoim blogu, że zaoferują bardziej szczegółowe opcje kontroli i podział przychodów dla właścicieli praw [14] [15]. Prawnicy z Hollywood przewidują, że „dwa tytany” (Dolina Krzemowa kontra Hollywood) będą walczyć o przyszłość AI w mediach [16] [17].
  • Obawy dotyczące prywatności i deepfake’ów: Użytkownicy i eksperci wyrazili zaniepokojenie osobistymi deepfake’ami. Dziennikarz technologiczny Washington Post, Geoffrey Fowler, doświadczył sytuacji, w której znajomi użyli Sory do „deepfake’owania” go w kompromitujących filmach bez jego zgody [18] [19]. Przeprowadził wywiady z ekspertami, którzy podkreślają konieczność uzyskania zgody. Eva Galperin (EFF) zauważa, że takie filmy „są znacznie bardziej niebezpieczne dla niektórych grup… Zasadniczo, to, czego OpenAI nie rozumie, to dynamika władzy” [20]. Hany Farid z UC Berkeley dodaje: „Powinniśmy mieć znacznie większą kontrolę nad naszą tożsamością”, ale firmy obawiają się, że surowsze regulacje zaszkodzą wiralności [21]. Jak ostrzega Brian Chen, dziennikarz technologiczny New York Times, wraz z pojawieniem się ultrarealistycznych filmów, „idea, że wideo może służyć jako obiektywny zapis rzeczywistości” może się skończyć – będziemy musieli oglądać filmy z taką samą dozą sceptycyzmu, jaką obecnie rezerwujemy dla tekstu [22].
  • Opinie ekspertów: Przedstawiciele branży podkreślają wagę problemu. Szef MPAA Charles Rivkin wezwał OpenAI do „podjęcia natychmiastowych i zdecydowanych działań”, powołując się na prawo autorskie [23]. Prawnik medialny Kraig Baker (Davis Wright Tremaine) twierdzi, że zalew swobodnych treści wideo generowanych przez AI wystawi na próbę prawo do wizerunku, zwłaszcza w przypadku osób zmarłych [24]. Komik Trevor Noah ostrzegł, że Sora może być „katastrofalna”, jeśli wizerunki ludzi będą wykorzystywane bez ich zgody [25]. Z drugiej strony, OpenAI zapewnia, że użytkownicy „mają pełną kontrolę nad swoim wizerunkiem w Sora” (promując swój model opt-in) [26], choć krytycy zauważają, że szczegóły w regulaminie mają realne ograniczenia.

Na tym tle przyjrzyjmy się całej historii:

Czym jest Sora i dlaczego to przełom

Sora to nowa, dostępna tylko na zaproszenie aplikacja mobilna OpenAI (iOS, web), która zamienia polecenia tekstowe – a nawet krótkie filmy (cameos) – w żywe, krótkie klipy wideo za pomocą generatywnej AI. Wypuszczona pod koniec września 2025 roku, szybko stała się sensacją. Dane OpenAI pokazują ponad milion instalacji w ciągu kilku dni [27], a aplikacja błyskawicznie wskoczyła na szczyt darmowych aplikacji Apple. Szum napędzały klipy demo z ludźmi i postaciami z kreskówek w absurdalnych lub pełnych akcji scenariuszach (na przykład SpongeBob przemawiający z Gabinetu Owalnego) [28]. Użytkownicy chwalili niezwykły realizm: twarze, mimika, a nawet głosy wyglądały przekonująco po ludzku [29] [30].

Sora podąża za wcześniejszymi wydaniami OpenAI (ChatGPT, DALL·E) i stanowi skok w dziedzinie mediów generowanych przez AI. 30 września Sam Altman ogłosił Sora 2 – dodając tryb „Cameo”, w którym każdy mógł przesłać krótkie selfie lub zdjęcia referencyjne, a następnie umieścić siebie (lub innych) w generowanych filmach [31]. Efekt: fani mogli zobaczyć siebie w zwariowanych filmach AI. Ale to oznacza też, że Sora 2 z założenia zaciera granicę między fikcją a rzeczywistością: możesz wpisać „ja zamawiam tacos w klubie tanecznym”, a Sora wygeneruje film, na którym robisz dokładnie to.

Fałszywe aplikacje Sora zalewają App Store

Gdy tylko pojawiły się wieści o Sora, App Store został zalany przez aplikacje-podróbki. TechCrunch donosił, że „ponad tuzin” aplikacji z marką Sora pojawiło się natychmiast po oficjalnej premierze [32]. Wiele z nich to stare aplikacje AI lub wideo, pospiesznie przemianowane na „Sora”, „Sora Video Generator” czy nawet „Sora 2 Pro”. Niektóre istniały od miesięcy pod innymi nazwami i po prostu zmieniły markę z dnia na dzień. Przeszły przez recenzję Apple mimo używania zastrzeżonej nazwy OpenAI [33].

Te podróbki odnotowały ogromne liczby: firma zajmująca się analizą aplikacji, Appfigures, naliczyła około 300 000 instalacji fałszywych aplikacji Sora (i 160 000 dolarów przychodu) w zaledwie kilka pierwszych dni [34]. Jeden z klonów („Sora 2 – Video Generator AI”) przyciągnął ponad 50 000 instalacji, agresywnie wykorzystując słowo kluczowe „Sora”. (Dla porównania, OpenAI twierdzi, że oficjalna aplikacja Sory osiągnęła oficjalnie milion pobrań w tym samym okresie [35].) Według eMarketer, Apple szybko zaczęło usuwać najgorszych oszustów, ale kilka „miękkich scamów” wciąż pozostaje ukrytych. Na przykład aplikacja o nazwie „PetReels – Sora for Pets” zdobyła kilkaset instalacji, a nawet pseudo-nazwa „Vi-sora” żerująca na popularności zdobyła tysiące [36].

Eksperci twierdzą, że to nie jest zaskakujące, lecz raczej część schematu: każdy przełomowy trend technologiczny natychmiast przyciąga scamowe podróbki. Po premierze ChatGPT w 2022 roku podobne aplikacje typu „fleeceware” zalały sklepy, a wzrost popularności kryptowalut doprowadził do pojawienia się fałszywych portfeli w 2024 roku [37]. Według analiz branżowych, liczba fałszywych aplikacji na iOS wzrosła o 300% w 2025 roku (a na Androidzie o 600%), w dużej mierze dzięki narzędziom AI, które ułatwiają klonowanie [38] [39]. Te klony Sory wykorzystały tę podatność. Jeden z technologów ostrzega, że AI pozwala nowicjuszom tworzyć w pełni dopracowane aplikacje (opisy, ikony itd.), by oszukać recenzentów i użytkowników [40] [41].

Ostrzeżenie dla konsumentów: Aby uniknąć podróbek, eksperci zalecają instalowanie Sora wyłącznie z oficjalnych źródeł (np. strony OpenAI) i dokładne sprawdzanie informacji o deweloperze [42] [43]. Obecnie oryginalna Sora jest dostępna tylko na zaproszenie; każda aplikacja obiecująca natychmiastowy dostęp lub pobranie za opłatą jest podejrzana. Ta fala oszustw podkreśla trudną lekcję: wirusowy sukces AI może przynieść oszustom duże pieniądze, zanim platformy zareagują [44] [45].

Hollywood kontratakuje: prawa do wizerunku i opcja rezygnacji

Tymczasem w Hollywood, Sora 2 wywołała alarm. Do tej pory Sora mogła tworzyć tylko ogólne fikcyjne postacie. Jednak dzięki funkcji cameo mogła domyślnie naśladować prawdziwe gwiazdy i postacie – niezależnie od tego, czy studia tego chciały, czy nie. W ciągu kilku godzin od debiutu Sora 2, Motion Picture Assn. (MPA) i agencje talentów wydały rzadkie wspólne upomnienie. Przewodniczący MPA Charles Rivkin stwierdził wprost: „OpenAI musi podjąć natychmiastowe i zdecydowane działania, aby rozwiązać ten problem”, powołując się na długo obowiązujące prawa autorskie chroniące wizerunek [46]. Sean Astin z SAG-AFTRA nazwał to podejście (domyślna rezygnacja) „zagrożeniem dla ekonomicznych podstaw całej naszej branży” [47].

W praktyce Sora 2 początkowo obejmowała wszystkie publiczne wizerunki i występy, jakie udało się znaleźć – chyba że właściciel praw proaktywnie zrezygnował z udziału w systemie OpenAI. (Jeden z informatorów twierdzi, że OpenAI po cichu poinformowało studia przed premierą, by zgłosiły wszelkie postacie lub aktorów, którzy nie powinni się pojawić [48].) Jednak największe agencje nie zaakceptowały tego. W ciągu kilku dni WME (reprezentująca gwiazdy takie jak Oprah Winfrey i Michael B. Jordan) powiadomiła OpenAI, że wszyscy ich klienci muszą zrezygnować natychmiast [49]. CAA i UTA dołączyły, domagając się, by aktorzy mieli kontrolę i otrzymywali wynagrodzenie. Warner Bros. Discovery publicznie przypomniało, że „dziesięciolecia egzekwowalnego prawa autorskiego” już dają twórcom prawa; nikt nie musi rezygnować, by zablokować naruszenie [50].

Nawet obrońcy technologii przyznają, że dochodzi do starcia: Varun Shetty z OpenAI (VP ds. partnerstw medialnych) próbował przedstawić to pozytywnie, zauważając, że fani „tworzą oryginalne filmy i są podekscytowani możliwością interakcji ze swoimi ulubionymi postaciami, co postrzegamy jako szansę dla właścicieli praw na nawiązanie kontaktu z fanami” [51]. Jednak studia widzą w tym ogromne ryzyko. Byli prawnicy ostrzegają, że kolejna generacja narzędzi AI do wideo (od Google, Meta itd.) poważnie przetestuje przepisy dotyczące praw autorskich i wizerunku. Prawnik z Seattle, Anthony Glukhov, zauważa, że ta walka przeciwstawia etos „działaj szybko” z Doliny Krzemowej hollywoodzkiemu lękowi przed utratą kontroli nad własnością intelektualną [52].

OpenAI odpowiedziało, że Sora 2 już posiada ograniczenia (nie generuje celowo znanych postaci, chyba że użyje się funkcji cameo) i pracuje nad nowymi zabezpieczeniami. Sam Altman napisał na blogu, że OpenAI doda „szczegółowe kontrolki” dla właścicieli praw, a nawet stworzy system podziału przychodów za korzystanie z treści objętych prawem autorskim [53] [54]. Firma opublikowała także przewodnik bezpieczeństwa Sora 2, w którym stwierdza: „Tylko ty decydujesz, kto może użyć twojego cameo i możesz cofnąć dostęp w dowolnym momencie” [55]. (W rzeczywistości, jak zauważają krytycy, kontrolujesz jedynie dostęp, a nie treść po jej stworzeniu – na co zwrócił uwagę dziennikarz Geoffrey Fowler, gdy OpenAI przyznało, że „i tak to wypuścili”, mimo że wiedzieli o problemie [56].)

Artyści i związki zawodowe zapowiedzieli monitorowanie i egzekwowanie zasad. SAG-AFTRA jest szczególnie czujna po niedawnym incydencie: aktor wygenerowany przez AI („Tilly Norwood”) był o krok od podpisania kontraktu z agencją, co wywołało poruszenie i zbiegło się w czasie z sagą Sory. Jeden z prawników branżowych podsumowuje: „Pytanie nie brzmi, czy studia spróbują się zaangażować, ale kiedy i jak” [57]. Krótko mówiąc, batalia prawna wydaje się nieunikniona. Na razie impas już ostudził entuzjazm wobec Sory w Hollywood – wiele logotypów i wizerunków jest domyślnie blokowanych.

Zgoda i etyka deepfake

Poza prawami korporacyjnymi, Sora 2 wzbudziła obawy o prywatność i zgodę zwykłych ludzi. W przeciwieństwie do początkowej Sory (tylko tekst), Sora 2 wyraźnie zachęca do udostępniania własnej twarzy, by umożliwić cameo. Ale ten system ma wady. Jak donosi The Washington Post, „wyrażasz zgodę”, nagrywając selfie wideo i wybierając, kto może zobaczyć twoje cameo (znajomi, wszyscy lub tylko ty) [58]. Po włączeniu, każda uprawniona osoba może generować filmy z twoim udziałem, wpisując dowolne polecenia. Aplikacja powiadamia cię dopiero po wygenerowaniu filmu z twoim udziałem [59] – wtedy mógł on już zostać szeroko udostępniony.

Felietonista WP, Geoff Fowler, przetestował to i na początku uznał za zabawne: znajomi tworzyli śmieszne cameo z jego udziałem w programach telewizyjnych i kulinarnych wpadkach [60]. Jednak wkrótce pojawiło się wideo, na którym opowiada sprośny żart, którego nigdy nie powiedział – na tyle wiarygodne, by go zaniepokoić [61]. Zdał sobie sprawę z zagrożenia: jeśli AI może realistycznie podrobić, jak ja popełniam przestępstwa lub akty nienawiści, widzowie będą się zastanawiać, czy to prawda. Fowler zadzwonił do ekspertów, takich jak Eva Galperin (EFF), która ostrzega, że swobodne, celebryckie zamiany wideo mogą być bardzo szkodliwe dla osób wrażliwych. Galperin ujęła to dosadnie: „Filmy z przyjaciółmi kradnącymi w Target są znacznie bardziej niebezpieczne dla niektórych grup niż dla innych… To, czego OpenAI nie rozumie, to dynamika władzy.” [62] Innymi słowy, rozdawanie mocy deepfake ignoruje fakt, że nie każdy jest równie chroniony, jeśli ta moc zostanie nadużyta.

Badacze AI podzielają to zdanie. Hany Farid (UC Berkeley) powiedział wprost: „Powinniśmy mieć znacznie większą kontrolę nad naszą tożsamością”, ale zauważa, że każdy dodatkowy środek ostrożności zwykle sprawia, że aplikacja społecznościowa staje się mniej wiralowa [63]. Domyślne ustawienia Sory są rzeczywiście dość otwarte: nowi użytkownicy automatycznie udostępniają cameo wszystkim „wzajemnym” (obserwującym, którzy również ich obserwują) [64], zakładając przyjacielskie relacje, które mogą się z czasem zmienić. Galperin zauważa, że ludzie często zbyt łatwo ufają; przyjaźnie mogą przerodzić się we wrogość.

OpenAI od tego czasu dodało ustawienia „wytycznych” dla cameo – można określić, jakie tematy lub przedstawienia są zabronione – i podkreśliło, że użytkownicy mogą całkowicie usunąć swoje cameo. Treści Sory są również oznaczane jako wygenerowane przez AI [65]. Jednak obserwatorzy zauważają, że znaki wodne można wyciąć w minutę podczas edycji. I jak zauważa Fowler, zwykli użytkownicy (w przeciwieństwie do celebrytów, takich jak Sam Altman czy iJustine) nie będą mieli czasu, by sprawdzać każdą wersję wideo z ich udziałem. Nawet iJustine, która udostępniła swoje cameo wszystkim, musiała aktywnie monitorować i usuwać obraźliwe klipy na swój temat [66].

Eksperci twierdzą, że ta technologia wymusza zmianę kulturową: być może będziemy musieli na nowo wprowadzić praktykę kultury zgody. Jeden z młodych twórców argumentuje, że ludzie powinni wyraźnie pytać o pozwolenie, zanim publicznie opublikują wideo z udziałem znajomego [67]. Sam Fowler przyjął rygorystyczne stanowisko: ustawił swojego Sora na „tylko ja”, co oznacza, że tylko on może generować filmy ze swoim udziałem. To ogranicza społeczną zabawę z aplikacji, ale uważa to za manifest zaufania cyfrowego: jeśli nie możesz naprawdę mieć kontroli, może lepiej nie uczestniczyć.

Jak ujął to felietonista NYT Brian Chen (cytowany w mediach): realizm Sory może oznaczać „koniec wizualnego faktu” – wideo nie można już uznawać za wiarygodny dowód rzeczywistości [68]. Wkrótce posty wideo w mediach społecznościowych będą traktowane z taką samą podejrzliwością jak teksty napisane przez AI. Tymczasem technolodzy podkreślają ostrożność: weryfikuj treści i uważaj na podmiany twarzy przez AI.

Droga przed nami: polityka i ochrona

Wszystkie te kwestie wskazują na jedno: zasady dotyczące wideo AI wciąż są tworzone. OpenAI ściga się z dodawaniem funkcji bezpieczeństwa, a firmy takie jak Loti (startup) zyskują na znaczeniu. CEO Loti, Luke Arrigoni, mówi, że zainteresowanie eksploduje: ludzie chcą narzędzi do aktywnego zarządzania swoim cyfrowym wizerunkiem, a nie tylko reagowania po fakcie. Informuje, że jego usługa zarządzania tożsamością AI odnotowała ostatnio 30-krotny wzrost [69]. Eksperci technologiczni i prawnicy sugerują, że prawdopodobnie potrzebne będą nowe przepisy – na przykład duńskie ustawodawstwo (cytowane przez Trevora Noaha) niedawno dało jednostkom wyraźną kontrolę nad swoim cyfrowym wizerunkiem. W USA niektórzy uważają, że prawo do wizerunku będzie musiało ewoluować na potrzeby AI.

Jedno jest pewne: użytkownicy, twórcy i platformy muszą bardziej się starać, by ustalać normy zgody. Oburzenie wokół Sory 2 już wywarło presję na OpenAI, by zmieniło swoje zasady. W przyszłych narzędziach AI możemy zobaczyć obowiązkowe mechanizmy wstępnej akceptacji lub bardziej szczegółowe opcje udostępniania od samego początku. Tymczasem konsumenci powinni podchodzić sceptycznie do postów wideo w mediach społecznościowych i dwa razy się zastanowić, zanim dadzą aplikacjom dostęp do danych o swojej twarzy.

Podsumowanie: Sora od OpenAI pokazała niesamowitą moc wideo AI – ale także miejsca, gdzie prawo, etyka i bezpieczeństwo są napięte do granic. Fałszywe aplikacje i fani deepfake’ów wykorzystali jej popularność; Hollywood i właściciele praw stanowczo się temu przeciwstawiają; a zwykli ludzie dopiero zaczynają się zastanawiać, co to znaczy „posiadać” swoją twarz w internecie. Jak ujął to jeden z ekspertów, nasza społeczność prawdopodobnie będzie musiała patrzeć na wszystkie filmy nowym, dociekliwym okiem [70].

Źródła: Najnowsze wiadomości i analizy dotyczące Sora z TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer i innych (zobacz cytowania). Opisują one statystyki startu Sora, oszustwa z fałszywymi aplikacjami [71] [72], sprzeciw Hollywood [73] [74] oraz obawy dotyczące prywatności i deepfake’ów wraz z komentarzami ekspertów [75] [76] [77], a także inne wydarzenia. Wszyscy cytowani eksperci i dane są odpowiednio oznaczeni.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • HPE Analyst Day to Spotlight AI Growth and Juniper Deal Impact
    October 14, 2025, 4:18 PM EDT. Hewlett Packard Enterprise (HPE) will host an investor day focused on its AI growth outlook and the impact of its Juniper Networks acquisition. Analysts expect long-term revenue growth targets to rise to mid-to-high single digits, supported by Juniper's addition and sustained demand across segments, with an AI backlog of about $3.7 billion. HPE stock has climbed about 17% in 2025, reflecting optimism over the strategic fit and potential capital returns. In Q3, HPE reported adjusted EPS of $0.44, while its core server business faces margin pressures and AI server competition from Dell Technologies. UBS sees EPS growth of low double digits to low teens into fiscal 2026-2028, and the DoJ approved the Juniper deal; HPE also carries a solid IBD rating.
  • HPE Analyst Day to Spotlight AI Growth Outlook and Juniper Deal Impact
    October 14, 2025, 4:16 PM EDT. Hewlett Packard Enterprise is set to outline its AI growth strategy and the impact of its Juniper Networks acquisition at an upcoming investor day. Management aims for long-term revenue growth in the mid to high single digits, aided by the Juniper deal and ongoing AI backlog of $3.7 billion. With HPE stock at new highs and expectations for 2026-2028 EPS growth in the low double digits to low teens, analysts weigh how much the integration accelerates data center AI server demand, where competition with Dell Technologies remains keen. The DoJ approved the $14 billion Juniper deal, and investors will look for 2026 outlooks, three-year targets, and capital-return plans as HPE reframes its core server, networking, and storage franchises.
  • HPE Analyst Day Set to Highlight AI Growth, Juniper Deal Impact
    October 14, 2025, 4:14 PM EDT. Hewlett Packard Enterprise is set to outline its long-term AI strategy and the impact of the Juniper Networks acquisition at its investor day. Analysts will look for targets that reflect growth from the Juniper deal and ongoing AI demand, including a backlog of $3.7 billion. Citi notes a potential uptick in long-term revenue growth, while HPE stock has surged, hitting a record and gaining about 17% in 2025. UBS and others expect a fiscal 2026 outlook and a three-year framework, with EPS growth in the low double digits to low teens, possibly below consensus mid-teens. Attendees will also assess AI server competition with Dell and decisions on capital returns versus debt paydown as four months of Juniper results are folded into 2025 guidance.
  • HPE Analyst Day to Spotlight AI Growth Outlook, Juniper Deal Impact
    October 14, 2025, 4:12 PM EDT. At its investor day, Hewlett Packard Enterprise will outline its long-term growth trajectory amid the Juniper Networks acquisition and an expanding AI strategy. Citi expects the Juniper deal to push revenue growth into mid- to high-single digits as AI backlog climbs toward $3.7 billion. HPE stock has hit record highs on expectations for stronger returns and new details on integration. In Q3, adjusted earnings were 44 cents per share, with the core server business facing margin pressures. Analysts anticipate a fiscal 2026 outlook and a three-year plan, with EPS growth in the low-double digits to low teens, below some consensus. DoJ approved the Juniper deal; Dell competition in AI servers remains a key driver for HPE's data-center business.
  • HPE Analyst Day Eyes AI Growth and Juniper Deal Impact
    October 14, 2025, 4:10 PM EDT. At HPE's investor day, analysts will assess the long-term outlook after the Juniper Networks acquisition and the company's AI strategy. Shares recently hit a record high on elevated expectations as Citi highlighted an AI backlog and potential mid-to-high single-digit revenue growth tied to the deal. UBS and others expect a fiscal 2026 outlook and a three-year plan, with EPS growth in the low double digits to the low teens, pending Juniper integration. The event also frames competitive dynamics in AI servers with Dell Technologies, and HPE's margin pressures in its core server business. DOJ clearance for the Juniper deal and capital-return plans will influence investor sentiment.

Don't Miss