Sora-AI wywołuje sensację: fałszywe aplikacje, burza w Hollywood i dramat deepfake

13 października, 2025
Sora-AI Sensation Sparks Fake Apps, Hollywood Furor & Deepfake Drama
  • Viralny start: Nowa aplikacja wideo OpenAI oparta na AI Sora (tylko na iOS, tylko na zaproszenie) zadebiutowała na początku października 2025 roku i natychmiast znalazła się na szczycie list pobrań [1]. W ciągu kilku dni osiągnęła #1 w App Store, a OpenAI zgłosiło ponad 1 milion pobrań [2]. Użytkownicy mogą wprowadzać tekstowe polecenia (lub „cameo” prawdziwych osób), aby generować hiperrealistyczne krótkie filmy.
  • Fala oszustw w App Store: Oszuści pospieszyli, by wykorzystać szum wokół Sory. Wkrótce po premierze w App Store pojawiło się ponad tuzin fałszywych aplikacji „Sora” lub „Sora 2” [3]. Te podróbki łącznie przyciągnęły około 300 000 instalacji i ponad 160 000 dolarów przychodu w ciągu kilku dni [4] [5]. (Dla porównania, badanie wykazało, że liczba fałszywych aplikacji na iOS wzrosła o 300% w 2025 roku, a na Androidzie o 600%, napędzana przez oszustwa oparte na AI [6].) Apple od tego czasu usunęło wiele klonów, ale niektóre wciąż przechodzą przez weryfikację [7]. Analitycy technologiczni ostrzegają, że odzwierciedla to szerszą „gospodarkę oszustw”, gdzie wirusowy sukces natychmiast przyciąga naśladowców [8] [9].
  • Hollywoodzki sprzeciw: Gdy OpenAI zaprezentowało Sora 2 (30 września) z funkcją „Cameo” umożliwiającą użycie prawdziwych twarzy/postaci w filmach, branża rozrywkowa wybuchła. Główne studia, agencje (WME, CAA, UTA) i związki zawodowe (SAG-AFTRA) zażądały, by OpenAI przestało wykorzystywać wizerunki aktorów lub postaci bez zgody lub wynagrodzenia [10] [11]. Prezes SAG-AFTRA Sean Astin ostrzegł, że podejście Sory „opt-out” „zagraża ekonomicznym podstawom całej naszej branży” [12]. Warner Bros. i inni podkreślili, że dekady prawa autorskiego dają właścicielom praw kontrolę niezależnie od polityki „opt-out” [13]. Dyrektor generalny OpenAI Sam Altman odpowiedział na swoim blogu, że zaoferują bardziej szczegółowe opcje kontroli i podział przychodów dla właścicieli praw [14] [15]. Prawnicy z Hollywood przewidują, że „dwa tytany” (Dolina Krzemowa kontra Hollywood) będą walczyć o przyszłość AI w mediach [16] [17].
  • Obawy dotyczące prywatności i deepfake’ów: Użytkownicy i eksperci wyrazili zaniepokojenie osobistymi deepfake’ami. Dziennikarz technologiczny Washington Post, Geoffrey Fowler, doświadczył sytuacji, w której znajomi użyli Sory do „deepfake’owania” go w kompromitujących filmach bez jego zgody [18] [19]. Przeprowadził wywiady z ekspertami, którzy podkreślają konieczność uzyskania zgody. Eva Galperin (EFF) zauważa, że takie filmy „są znacznie bardziej niebezpieczne dla niektórych grup… Zasadniczo, to, czego OpenAI nie rozumie, to dynamika władzy” [20]. Hany Farid z UC Berkeley dodaje: „Powinniśmy mieć znacznie większą kontrolę nad naszą tożsamością”, ale firmy obawiają się, że surowsze regulacje zaszkodzą wiralności [21]. Jak ostrzega Brian Chen, dziennikarz technologiczny New York Times, wraz z pojawieniem się ultrarealistycznych filmów, „idea, że wideo może służyć jako obiektywny zapis rzeczywistości” może się skończyć – będziemy musieli oglądać filmy z taką samą dozą sceptycyzmu, jaką obecnie rezerwujemy dla tekstu [22].
  • Opinie ekspertów: Przedstawiciele branży podkreślają wagę problemu. Szef MPAA Charles Rivkin wezwał OpenAI do „podjęcia natychmiastowych i zdecydowanych działań”, powołując się na prawo autorskie [23]. Prawnik medialny Kraig Baker (Davis Wright Tremaine) twierdzi, że zalew swobodnych treści wideo generowanych przez AI wystawi na próbę prawo do wizerunku, zwłaszcza w przypadku osób zmarłych [24]. Komik Trevor Noah ostrzegł, że Sora może być „katastrofalna”, jeśli wizerunki ludzi będą wykorzystywane bez ich zgody [25]. Z drugiej strony, OpenAI zapewnia, że użytkownicy „mają pełną kontrolę nad swoim wizerunkiem w Sora” (promując swój model opt-in) [26], choć krytycy zauważają, że szczegóły w regulaminie mają realne ograniczenia.

Na tym tle przyjrzyjmy się całej historii:

Czym jest Sora i dlaczego to przełom

Sora to nowa, dostępna tylko na zaproszenie aplikacja mobilna OpenAI (iOS, web), która zamienia polecenia tekstowe – a nawet krótkie filmy (cameos) – w żywe, krótkie klipy wideo za pomocą generatywnej AI. Wypuszczona pod koniec września 2025 roku, szybko stała się sensacją. Dane OpenAI pokazują ponad milion instalacji w ciągu kilku dni [27], a aplikacja błyskawicznie wskoczyła na szczyt darmowych aplikacji Apple. Szum napędzały klipy demo z ludźmi i postaciami z kreskówek w absurdalnych lub pełnych akcji scenariuszach (na przykład SpongeBob przemawiający z Gabinetu Owalnego) [28]. Użytkownicy chwalili niezwykły realizm: twarze, mimika, a nawet głosy wyglądały przekonująco po ludzku [29] [30].

Sora podąża za wcześniejszymi wydaniami OpenAI (ChatGPT, DALL·E) i stanowi skok w dziedzinie mediów generowanych przez AI. 30 września Sam Altman ogłosił Sora 2 – dodając tryb „Cameo”, w którym każdy mógł przesłać krótkie selfie lub zdjęcia referencyjne, a następnie umieścić siebie (lub innych) w generowanych filmach [31]. Efekt: fani mogli zobaczyć siebie w zwariowanych filmach AI. Ale to oznacza też, że Sora 2 z założenia zaciera granicę między fikcją a rzeczywistością: możesz wpisać „ja zamawiam tacos w klubie tanecznym”, a Sora wygeneruje film, na którym robisz dokładnie to.

Fałszywe aplikacje Sora zalewają App Store

Gdy tylko pojawiły się wieści o Sora, App Store został zalany przez aplikacje-podróbki. TechCrunch donosił, że „ponad tuzin” aplikacji z marką Sora pojawiło się natychmiast po oficjalnej premierze [32]. Wiele z nich to stare aplikacje AI lub wideo, pospiesznie przemianowane na „Sora”, „Sora Video Generator” czy nawet „Sora 2 Pro”. Niektóre istniały od miesięcy pod innymi nazwami i po prostu zmieniły markę z dnia na dzień. Przeszły przez recenzję Apple mimo używania zastrzeżonej nazwy OpenAI [33].

Te podróbki odnotowały ogromne liczby: firma zajmująca się analizą aplikacji, Appfigures, naliczyła około 300 000 instalacji fałszywych aplikacji Sora (i 160 000 dolarów przychodu) w zaledwie kilka pierwszych dni [34]. Jeden z klonów („Sora 2 – Video Generator AI”) przyciągnął ponad 50 000 instalacji, agresywnie wykorzystując słowo kluczowe „Sora”. (Dla porównania, OpenAI twierdzi, że oficjalna aplikacja Sory osiągnęła oficjalnie milion pobrań w tym samym okresie [35].) Według eMarketer, Apple szybko zaczęło usuwać najgorszych oszustów, ale kilka „miękkich scamów” wciąż pozostaje ukrytych. Na przykład aplikacja o nazwie „PetReels – Sora for Pets” zdobyła kilkaset instalacji, a nawet pseudo-nazwa „Vi-sora” żerująca na popularności zdobyła tysiące [36].

Eksperci twierdzą, że to nie jest zaskakujące, lecz raczej część schematu: każdy przełomowy trend technologiczny natychmiast przyciąga scamowe podróbki. Po premierze ChatGPT w 2022 roku podobne aplikacje typu „fleeceware” zalały sklepy, a wzrost popularności kryptowalut doprowadził do pojawienia się fałszywych portfeli w 2024 roku [37]. Według analiz branżowych, liczba fałszywych aplikacji na iOS wzrosła o 300% w 2025 roku (a na Androidzie o 600%), w dużej mierze dzięki narzędziom AI, które ułatwiają klonowanie [38] [39]. Te klony Sory wykorzystały tę podatność. Jeden z technologów ostrzega, że AI pozwala nowicjuszom tworzyć w pełni dopracowane aplikacje (opisy, ikony itd.), by oszukać recenzentów i użytkowników [40] [41].

Ostrzeżenie dla konsumentów: Aby uniknąć podróbek, eksperci zalecają instalowanie Sora wyłącznie z oficjalnych źródeł (np. strony OpenAI) i dokładne sprawdzanie informacji o deweloperze [42] [43]. Obecnie oryginalna Sora jest dostępna tylko na zaproszenie; każda aplikacja obiecująca natychmiastowy dostęp lub pobranie za opłatą jest podejrzana. Ta fala oszustw podkreśla trudną lekcję: wirusowy sukces AI może przynieść oszustom duże pieniądze, zanim platformy zareagują [44] [45].

Hollywood kontratakuje: prawa do wizerunku i opcja rezygnacji

Tymczasem w Hollywood, Sora 2 wywołała alarm. Do tej pory Sora mogła tworzyć tylko ogólne fikcyjne postacie. Jednak dzięki funkcji cameo mogła domyślnie naśladować prawdziwe gwiazdy i postacie – niezależnie od tego, czy studia tego chciały, czy nie. W ciągu kilku godzin od debiutu Sora 2, Motion Picture Assn. (MPA) i agencje talentów wydały rzadkie wspólne upomnienie. Przewodniczący MPA Charles Rivkin stwierdził wprost: „OpenAI musi podjąć natychmiastowe i zdecydowane działania, aby rozwiązać ten problem”, powołując się na długo obowiązujące prawa autorskie chroniące wizerunek [46]. Sean Astin z SAG-AFTRA nazwał to podejście (domyślna rezygnacja) „zagrożeniem dla ekonomicznych podstaw całej naszej branży” [47].

W praktyce Sora 2 początkowo obejmowała wszystkie publiczne wizerunki i występy, jakie udało się znaleźć – chyba że właściciel praw proaktywnie zrezygnował z udziału w systemie OpenAI. (Jeden z informatorów twierdzi, że OpenAI po cichu poinformowało studia przed premierą, by zgłosiły wszelkie postacie lub aktorów, którzy nie powinni się pojawić [48].) Jednak największe agencje nie zaakceptowały tego. W ciągu kilku dni WME (reprezentująca gwiazdy takie jak Oprah Winfrey i Michael B. Jordan) powiadomiła OpenAI, że wszyscy ich klienci muszą zrezygnować natychmiast [49]. CAA i UTA dołączyły, domagając się, by aktorzy mieli kontrolę i otrzymywali wynagrodzenie. Warner Bros. Discovery publicznie przypomniało, że „dziesięciolecia egzekwowalnego prawa autorskiego” już dają twórcom prawa; nikt nie musi rezygnować, by zablokować naruszenie [50].

Nawet obrońcy technologii przyznają, że dochodzi do starcia: Varun Shetty z OpenAI (VP ds. partnerstw medialnych) próbował przedstawić to pozytywnie, zauważając, że fani „tworzą oryginalne filmy i są podekscytowani możliwością interakcji ze swoimi ulubionymi postaciami, co postrzegamy jako szansę dla właścicieli praw na nawiązanie kontaktu z fanami” [51]. Jednak studia widzą w tym ogromne ryzyko. Byli prawnicy ostrzegają, że kolejna generacja narzędzi AI do wideo (od Google, Meta itd.) poważnie przetestuje przepisy dotyczące praw autorskich i wizerunku. Prawnik z Seattle, Anthony Glukhov, zauważa, że ta walka przeciwstawia etos „działaj szybko” z Doliny Krzemowej hollywoodzkiemu lękowi przed utratą kontroli nad własnością intelektualną [52].

OpenAI odpowiedziało, że Sora 2 już posiada ograniczenia (nie generuje celowo znanych postaci, chyba że użyje się funkcji cameo) i pracuje nad nowymi zabezpieczeniami. Sam Altman napisał na blogu, że OpenAI doda „szczegółowe kontrolki” dla właścicieli praw, a nawet stworzy system podziału przychodów za korzystanie z treści objętych prawem autorskim [53] [54]. Firma opublikowała także przewodnik bezpieczeństwa Sora 2, w którym stwierdza: „Tylko ty decydujesz, kto może użyć twojego cameo i możesz cofnąć dostęp w dowolnym momencie” [55]. (W rzeczywistości, jak zauważają krytycy, kontrolujesz jedynie dostęp, a nie treść po jej stworzeniu – na co zwrócił uwagę dziennikarz Geoffrey Fowler, gdy OpenAI przyznało, że „i tak to wypuścili”, mimo że wiedzieli o problemie [56].)

Artyści i związki zawodowe zapowiedzieli monitorowanie i egzekwowanie zasad. SAG-AFTRA jest szczególnie czujna po niedawnym incydencie: aktor wygenerowany przez AI („Tilly Norwood”) był o krok od podpisania kontraktu z agencją, co wywołało poruszenie i zbiegło się w czasie z sagą Sory. Jeden z prawników branżowych podsumowuje: „Pytanie nie brzmi, czy studia spróbują się zaangażować, ale kiedy i jak” [57]. Krótko mówiąc, batalia prawna wydaje się nieunikniona. Na razie impas już ostudził entuzjazm wobec Sory w Hollywood – wiele logotypów i wizerunków jest domyślnie blokowanych.

Zgoda i etyka deepfake

Poza prawami korporacyjnymi, Sora 2 wzbudziła obawy o prywatność i zgodę zwykłych ludzi. W przeciwieństwie do początkowej Sory (tylko tekst), Sora 2 wyraźnie zachęca do udostępniania własnej twarzy, by umożliwić cameo. Ale ten system ma wady. Jak donosi The Washington Post, „wyrażasz zgodę”, nagrywając selfie wideo i wybierając, kto może zobaczyć twoje cameo (znajomi, wszyscy lub tylko ty) [58]. Po włączeniu, każda uprawniona osoba może generować filmy z twoim udziałem, wpisując dowolne polecenia. Aplikacja powiadamia cię dopiero po wygenerowaniu filmu z twoim udziałem [59] – wtedy mógł on już zostać szeroko udostępniony.

Felietonista WP, Geoff Fowler, przetestował to i na początku uznał za zabawne: znajomi tworzyli śmieszne cameo z jego udziałem w programach telewizyjnych i kulinarnych wpadkach [60]. Jednak wkrótce pojawiło się wideo, na którym opowiada sprośny żart, którego nigdy nie powiedział – na tyle wiarygodne, by go zaniepokoić [61]. Zdał sobie sprawę z zagrożenia: jeśli AI może realistycznie podrobić, jak ja popełniam przestępstwa lub akty nienawiści, widzowie będą się zastanawiać, czy to prawda. Fowler zadzwonił do ekspertów, takich jak Eva Galperin (EFF), która ostrzega, że swobodne, celebryckie zamiany wideo mogą być bardzo szkodliwe dla osób wrażliwych. Galperin ujęła to dosadnie: „Filmy z przyjaciółmi kradnącymi w Target są znacznie bardziej niebezpieczne dla niektórych grup niż dla innych… To, czego OpenAI nie rozumie, to dynamika władzy.” [62] Innymi słowy, rozdawanie mocy deepfake ignoruje fakt, że nie każdy jest równie chroniony, jeśli ta moc zostanie nadużyta.

Badacze AI podzielają to zdanie. Hany Farid (UC Berkeley) powiedział wprost: „Powinniśmy mieć znacznie większą kontrolę nad naszą tożsamością”, ale zauważa, że każdy dodatkowy środek ostrożności zwykle sprawia, że aplikacja społecznościowa staje się mniej wiralowa [63]. Domyślne ustawienia Sory są rzeczywiście dość otwarte: nowi użytkownicy automatycznie udostępniają cameo wszystkim „wzajemnym” (obserwującym, którzy również ich obserwują) [64], zakładając przyjacielskie relacje, które mogą się z czasem zmienić. Galperin zauważa, że ludzie często zbyt łatwo ufają; przyjaźnie mogą przerodzić się we wrogość.

OpenAI od tego czasu dodało ustawienia „wytycznych” dla cameo – można określić, jakie tematy lub przedstawienia są zabronione – i podkreśliło, że użytkownicy mogą całkowicie usunąć swoje cameo. Treści Sory są również oznaczane jako wygenerowane przez AI [65]. Jednak obserwatorzy zauważają, że znaki wodne można wyciąć w minutę podczas edycji. I jak zauważa Fowler, zwykli użytkownicy (w przeciwieństwie do celebrytów, takich jak Sam Altman czy iJustine) nie będą mieli czasu, by sprawdzać każdą wersję wideo z ich udziałem. Nawet iJustine, która udostępniła swoje cameo wszystkim, musiała aktywnie monitorować i usuwać obraźliwe klipy na swój temat [66].

Eksperci twierdzą, że ta technologia wymusza zmianę kulturową: być może będziemy musieli na nowo wprowadzić praktykę kultury zgody. Jeden z młodych twórców argumentuje, że ludzie powinni wyraźnie pytać o pozwolenie, zanim publicznie opublikują wideo z udziałem znajomego [67]. Sam Fowler przyjął rygorystyczne stanowisko: ustawił swojego Sora na „tylko ja”, co oznacza, że tylko on może generować filmy ze swoim udziałem. To ogranicza społeczną zabawę z aplikacji, ale uważa to za manifest zaufania cyfrowego: jeśli nie możesz naprawdę mieć kontroli, może lepiej nie uczestniczyć.

Jak ujął to felietonista NYT Brian Chen (cytowany w mediach): realizm Sory może oznaczać „koniec wizualnego faktu” – wideo nie można już uznawać za wiarygodny dowód rzeczywistości [68]. Wkrótce posty wideo w mediach społecznościowych będą traktowane z taką samą podejrzliwością jak teksty napisane przez AI. Tymczasem technolodzy podkreślają ostrożność: weryfikuj treści i uważaj na podmiany twarzy przez AI.

Droga przed nami: polityka i ochrona

Wszystkie te kwestie wskazują na jedno: zasady dotyczące wideo AI wciąż są tworzone. OpenAI ściga się z dodawaniem funkcji bezpieczeństwa, a firmy takie jak Loti (startup) zyskują na znaczeniu. CEO Loti, Luke Arrigoni, mówi, że zainteresowanie eksploduje: ludzie chcą narzędzi do aktywnego zarządzania swoim cyfrowym wizerunkiem, a nie tylko reagowania po fakcie. Informuje, że jego usługa zarządzania tożsamością AI odnotowała ostatnio 30-krotny wzrost [69]. Eksperci technologiczni i prawnicy sugerują, że prawdopodobnie potrzebne będą nowe przepisy – na przykład duńskie ustawodawstwo (cytowane przez Trevora Noaha) niedawno dało jednostkom wyraźną kontrolę nad swoim cyfrowym wizerunkiem. W USA niektórzy uważają, że prawo do wizerunku będzie musiało ewoluować na potrzeby AI.

Jedno jest pewne: użytkownicy, twórcy i platformy muszą bardziej się starać, by ustalać normy zgody. Oburzenie wokół Sory 2 już wywarło presję na OpenAI, by zmieniło swoje zasady. W przyszłych narzędziach AI możemy zobaczyć obowiązkowe mechanizmy wstępnej akceptacji lub bardziej szczegółowe opcje udostępniania od samego początku. Tymczasem konsumenci powinni podchodzić sceptycznie do postów wideo w mediach społecznościowych i dwa razy się zastanowić, zanim dadzą aplikacjom dostęp do danych o swojej twarzy.

Podsumowanie: Sora od OpenAI pokazała niesamowitą moc wideo AI – ale także miejsca, gdzie prawo, etyka i bezpieczeństwo są napięte do granic. Fałszywe aplikacje i fani deepfake’ów wykorzystali jej popularność; Hollywood i właściciele praw stanowczo się temu przeciwstawiają; a zwykli ludzie dopiero zaczynają się zastanawiać, co to znaczy „posiadać” swoją twarz w internecie. Jak ujął to jeden z ekspertów, nasza społeczność prawdopodobnie będzie musiała patrzeć na wszystkie filmy nowym, dociekliwym okiem [70].

Źródła: Najnowsze wiadomości i analizy dotyczące Sora z TechCrunch, Washington Post, LA Times, GeekWire, 9to5Mac, eMarketer i innych (zobacz cytowania). Opisują one statystyki startu Sora, oszustwa z fałszywymi aplikacjami [71] [72], sprzeciw Hollywood [73] [74] oraz obawy dotyczące prywatności i deepfake’ów wraz z komentarzami ekspertów [75] [76] [77], a także inne wydarzenia. Wszyscy cytowani eksperci i dane są odpowiednio oznaczeni.

SORA 2 Just Broke Reality and the Internet Exploded (Gone Too Far)

References

1. techcrunch.com, 2. techcrunch.com, 3. techcrunch.com, 4. techcrunch.com, 5. www.emarketer.com, 6. 9to5mac.com, 7. techcrunch.com, 8. www.emarketer.com, 9. apple.gadgethacks.com, 10. www.latimes.com, 11. www.latimes.com, 12. www.latimes.com, 13. www.latimes.com, 14. www.latimes.com, 15. www.geekwire.com, 16. www.latimes.com, 17. www.geekwire.com, 18. www.washingtonpost.com, 19. www.washingtonpost.com, 20. www.washingtonpost.com, 21. www.washingtonpost.com, 22. www.geekwire.com, 23. www.latimes.com, 24. www.geekwire.com, 25. www.geekwire.com, 26. www.washingtonpost.com, 27. techcrunch.com, 28. www.latimes.com, 29. www.washingtonpost.com, 30. www.washingtonpost.com, 31. www.latimes.com, 32. techcrunch.com, 33. techcrunch.com, 34. www.emarketer.com, 35. techcrunch.com, 36. techcrunch.com, 37. www.emarketer.com, 38. apple.gadgethacks.com, 39. 9to5mac.com, 40. apple.gadgethacks.com, 41. 9to5mac.com, 42. apple.gadgethacks.com, 43. www.emarketer.com, 44. www.emarketer.com, 45. apple.gadgethacks.com, 46. www.latimes.com, 47. www.latimes.com, 48. www.latimes.com, 49. www.latimes.com, 50. www.latimes.com, 51. www.latimes.com, 52. www.latimes.com, 53. www.latimes.com, 54. www.geekwire.com, 55. www.geekwire.com, 56. www.washingtonpost.com, 57. www.latimes.com, 58. www.washingtonpost.com, 59. www.washingtonpost.com, 60. www.washingtonpost.com, 61. www.washingtonpost.com, 62. www.washingtonpost.com, 63. www.washingtonpost.com, 64. www.washingtonpost.com, 65. www.washingtonpost.com, 66. www.washingtonpost.com, 67. www.washingtonpost.com, 68. www.geekwire.com, 69. www.geekwire.com, 70. www.geekwire.com, 71. techcrunch.com, 72. www.emarketer.com, 73. www.latimes.com, 74. www.latimes.com, 75. www.washingtonpost.com, 76. www.washingtonpost.com, 77. www.geekwire.com

Technology News

  • Ray-Ban Display & Neural Band Debuts Real-Time Translation and Visual-First AI in Smart Glasses
    October 14, 2025, 11:58 AM EDT. Meta and Ray-Ban unveil the Display & Neural Band, pairing a full-color in-lens display with a gesture-controlled wristband. The system overlays text, images, and AI responses onto the right lens via micro-projector and waveguide, delivering real-time translation and captions for hands-free use. The Neural Band includes electromyography sensors enabling navigation through finger movements; no voice prompts needed. Key specs include a 12-MP ultra-wide camera, open-ear audio, and up to six hours of active use (roughly 30 hours with the charging case). Frames come in sun/clear lenses and are prescription-ready. Demos at Best Buy precede purchase, as Meta leans on tactile, in-store discovery to ease adoption of high-tech eyewear with Best Buy as the exclusive large-format retailer.
  • Vivo X300 launches in China with Dimensity 9500, Cross-Device Apple ecosystem, up to 1TB storage
    October 14, 2025, 11:55 AM EDT. Vivo unveils the X300 series in China with a 6.78-inch LTPO AMOLED display, 7.95 mm thickness and 190 g weight. It runs on MediaTek Dimensity 9500 with LPDDR5X RAM and UFS 4.0 storage up to 1 TB, plus an enhanced thermal system for sustained AI and gaming. A key feature is Vivo's Cross-Device Ecosystem, enabling seamless interaction with Apple devices-iPhone calls/SMS/notifications, iPad file sharing, Mac clipboard/screen projection, Apple Watch health data, and AirPods battery/location display (some features may require a China-registered Apple ID). Pricing in China spans ¥4,399-¥5,799 for 12/16 GB RAM and 256 GB-1 TB storage. Available in four colors; global availability expected in November 2025.
  • Building reliable AI workflows with agentic primitives and context engineering
    October 14, 2025, 11:53 AM EDT. Learn how to transform ad-hoc AI exploration into a repeatable, reliable engineering practice using a three-layer framework built on Markdown prompt engineering, agent primitives, and context engineering. This GitHub Blog guide explains how agent primitives act as reusable building blocks that grant AI agents clear instructions and capabilities, while context engineering ensures agents focus on the right information. The approach, part of an AI-native development workflow, aims to make AI systems more reliable, predictable, and scalable. It also highlights practical tooling like the GitHub Copilot CLI to run, debug, and automate workflows locally, connected to repositories, pull requests, and issues. Learn how to design, scale, and share intelligent systems that learn and improve with every use.
  • Google Photos tests an album chip to streamline organizing photos
    October 14, 2025, 11:52 AM EDT. Google Photos is testing a new album chip that appears when viewing a photo in an album. In version 7.49, tapping the chip jumps to the corresponding album; if a photo sits in multiple albums, a dropdown lists all locations. This keeps album membership front and center and could save time when organizing large libraries. The same update also appears to add an opt-in setting for notifications about new tools or templates. Neither change is live yet, but they were unlocked in the latest release, hinting at a public rollout soon. As always with APK teardowns, features may be previewed and not reach everyone.
  • DJI appeals DoD ruling, challenges inclusion on the CMC list
    October 14, 2025, 11:49 AM EDT. DJI has filed an appeal with a U.S. federal appellate court to overturn a District of Columbia ruling that upheld its inclusion on the DoD's CMC list of Chinese military companies. DJI first appeared on the list in 2022 without public explanation and has repeatedly sought clarifications. The company sued the DoD in October 2024; in September 2025, a DC court found that most of the DoD's allegations lacked evidence but left DJI on the list, citing DJI's certification as a National Enterprise Technology Center by China's NDRC as indicating potential dual-use applications. DJI's new appeal, filed Oct. 14, argues the ruling is flawed and seeks to defend its reputation and legitimate interests, reiterating that it opposes misuse and has measures to prevent it.

Don't Miss