Miniaturowy komputer Spark 4K od Nvidii stawia 1-petaFLOPowy superkomputer AI na Twoim biurku

18 listopada, 2025
Nvidia’s Tiny $4K Spark PC Puts a 1-PetaFLOP AI Supercomputer on Your Desk
  • Najmniejszy na świecie superkomputer AI już dostępny: Osobisty „superkomputer AI” Nvidia DGX Spark jest już w sprzedaży (15 października) w cenie bazowej 3 999 USD [1]. Ten kompaktowy system biurkowy oferuje około 1 petaFLOP wydajności AI z 128 GB zunifikowanej pamięci, umożliwiając lokalne użycie modeli AI do ~200 miliardów parametrów [2].
  • Napędzany przez superchip Grace-Blackwell: W jego sercu znajduje się nowy superchip GB10 Grace-Blackwell firmy Nvidia, łączący 20-rdzeniowy procesor Arm i GPU Blackwell w jednym pakiecie [3] [4]. Zunifikowana pamięć CPU-GPU (128 GB LPDDR5X) oraz szybkie połączenie NVLink-C2C zapewniają 5× większą przepustowość niż PCIe Gen5 [5] [6], umożliwiając deweloperom dostrajanie modeli do ~70 mld parametrów lokalnie bez konieczności korzystania z chmury [7] [8].
  • Opóźniona premiera, wyższa cena: Nvidia początkowo zaprezentowała to urządzenie (o nazwie kodowej „Project Digits”) na CES 2025 i planowała letnią premierę w cenie 3 000 USD, ale po opóźnieniach zadebiutowało ono w tym tygodniu w cenie 3 999 USD [9] [10]. Pomimo podwyżki ceny o 1 000 USD, mocna specyfikacja Sparka, stosunkowo niewielki pobór mocy 240W oraz gotowy do użycia pakiet oprogramowania AI mają mu zapewnić „wielu fanów w rozwijającej się branży AI” [11].
  • Wielka AI w małym pudełku: Nvidia nazywa DGX Spark „najmniejszym na świecie superkomputerem AI”, wystarczająco małym, by zmieścić się na biurku lub w laboratorium [12]. Waży zaledwie około 1,2 kg i jest wielkości książki w twardej oprawie [13], a mimo to oferuje moc obliczeniową, która dorównuje serwerowi centrum danych. W rzeczywistości, przy 1 petaFLOP-ie Spark oferuje więcej mocy AI niż oryginalny superkomputer DGX-1 Nvidii z 2016 roku – przy ułamku kosztów i zużycia energii [14].
  • Deweloperzy i producenci OEM przyjmują to rozwiązanie: Skierowany do deweloperów AI, naukowców i entuzjastów, DGX Spark jest dostarczany z pełnym stosem oprogramowania AI Nvidia opartym na CUDA, zainstalowanym fabrycznie [15]. Najwięksi producenci komputerów, w tym Dell, HP, Lenovo, Asus, Acer, Gigabyte i MSI, wprowadzają na rynek własne spersonalizowane systemy oparte na Spark (wszystkie w cenie około 3999 dolarów) [16] [17]. Wczesnymi użytkownikami są uniwersytety, startupy i laboratoria robotyki, które już testują narzędzia i modele na Spark [18] [19].

Petaflops na Twoim biurku: „Osobisty superkomputer AI” od Nvidii już dostępny

Przez lata uruchamianie najnowocześniejszych modeli AI wymagało drogich instancji chmurowych lub serwerów wielkości pokoju. Teraz Nvidia DGX Spark ma na celu dosłownie przenieść tę moc w zasięg ręki. Od tego tygodnia każdy może zamówić DGX Spark – niewielki komputer AI na biurko, oferujący około jednego petaFLOP-a wydajności – za 3999 dolarów [20] [21]. Dyrektor generalny Nvidii, Jensen Huang, nazwał Spark nową klasą „osobistego superkomputera AI”, mającego przenieść AI klasy data center „z usług chmurowych na aplikacje biurkowe i brzegowe” [22]. W praktyce oznacza to, że naukowiec lub deweloper może dostrajać duży model językowy lub uruchomić generatywny model AI o 200 miliardach parametrówlokalnie na swoim biurku, bez potrzeby korzystania z klastra superkomputerowego [23].

Pomimo swojego imponującego działania, DGX Spark jest fizycznie niepozorny – około 15 cm kwadratowy i 5 cm wysoki, waży zaledwie ~1,2 kg (około 2,6 funta) [24]. „Jest wielkości kartki papieru do origami i grubości książki w twardej oprawie,” żartuje Nvidia, a w tym złoto-czarnym pudełku znajduje się „pełnoprawny superkomputer AI” [25]. Nvidia promuje Spark jako „najmniejszy na świecie superkomputer AI”, ponieważ upakowuje możliwości, które kiedyś były dostępne tylko w serwerach montowanych w szafach, do obudowy wielkości śniadaniówki [26]. Jak ujął to jeden z portali technologicznych, Nvidia „zaciera granicę między komputerami stacjonarnymi a superkomputerami” dzięki tym nowym maszynom stawiającym na AI [27]. Celem jest zapewnienie indywidualnym deweloperom i laboratoriom stacji roboczej AI klasy petaflopowej, która jest „zawsze włączona, zawsze czeka na ciebie” – w zasadzie osobistego laboratorium AI na twoim biurku [28].

Superchip Grace-Blackwell: jak Spark zyskuje swoją moc

Moc DGX Spark pochodzi z najnowszej architektury Grace-Blackwell firmy Nvidia, która łączy CPU i GPU dla AI w jednym, ściśle zintegrowanym pakiecie. Konkretnie, Spark oparty jest na superchipie Nvidia GB10 „Grace Blackwell”, będącym w istocie układem SoC łączącym 20-rdzeniowy procesor Grace ARM 2 GHz z nowoczesnym GPU Blackwell [29]. Ten układ jest zoptymalizowany pod kątem obciążeń AI: GPU Blackwell zawiera 5. generację rdzeni Tensor firmy Nvidia i obsługuje nowe formaty niskiej precyzji, takie jak FP4, aby osiągnąć do 1 000 TOPS (bilionów operacji na sekundę) mocy obliczeniowej AI [30] [31]. W praktyce te 1 000 TOPS to około 1 petaFLOP przy precyzji FP4 – stąd deklaracja wydajności na poziomie petaflopa. Konstrukcja Spark zakłada, że deweloperzy będą wykorzystywać techniki takie jak kwantyzacja INT8/FP4 i rzadkość, aby maksymalnie zwiększyć szybkość wnioskowania dla dużych modeli [32].

Kluczowe jest to, że CPU i GPU Grace-Blackwell dzielą zunifikowaną pulę pamięci o pojemności 128 GB pamięci LPDDR5x RAM [33]. To kluczowa cecha, która odróżnia Spark od zwykłych komputerów PC lub GPU. Tradycyjne karty graficzne do komputerów stacjonarnych mają maksymalnie 24–48 GB (karty gamingowe) lub około 96 GB (bardzo zaawansowane karty robocze) pamięci VRAM, co może ograniczać duże modele AI [34] [35]. Dla porównania, 128 GB zunifikowanej pamięci w DGX Spark oznacza, że zarówno CPU, jak i GPU mają dostęp do dużej, spójnej przestrzeni pamięci na dane AI [36]. Deweloperzy mogą ładować ogromne modele w całości do pamięci, co pozwala na przykład na wnioskowanie na modelach z nawet ~200 miliardami parametrów lub nawet dostrajanie modeli do ~70 miliardów parametrów lokalnie [37] [38]. Taka pojemność pamięci w komputerze stacjonarnym to przełom dla przepływów pracy AI, które wcześniej „wymagały znacznie, znacznie więcej pamięci lokalnej GPU niż nawet 32 GB w RTX 5090” [39]. Uwalnia to deweloperów od konieczności ciągłego dzielenia modeli lub korzystania z instancji w chmurze podczas pracy z dużymi sieciami neuronowymi.

DGX Spark jest również wyposażony w interfejsy I/O o dużej przepustowości, umożliwiające szybkie przesyłanie danych. Technologia NVLink-C2C firmy Nvidia łączy procesor Grace CPU i układ graficzny Blackwell, oferując 5× większą przepustowość niż PCIe Gen5 [40], co znacząco poprawia komunikację CPU–GPU w zadaniach AI wymagających intensywnego dostępu do pamięci. Do łączności zewnętrznej Spark posiada wbudowaną kartę sieciową ConnectX-7 200 Gb/s NIC [41], co oznacza, że dwie jednostki Spark mogą być połączone w klaster przez sieć, aby efektywnie podwoić moc obliczeniową i pamięć (osiągając 2 petaFLOPS i 256 GB łącznie) dla tych, którzy potrzebują większej wydajności [42]. Pamięć masowa to NVMe SSD (do 4 TB w konfiguracji) zapewniająca szybki dostęp do danych [43], a do tego jest nawet port HDMI 2.1 – choć Spark działa na niestandardowym Linuksie (DGX OS) i nie jest przeznaczony jako uniwersalny komputer PC ani sprzęt do gier [44] [45]. W rzeczywistości, dzięki procesorowi opartemu na architekturze Arm i środowisku Linuksa, jeden z recenzentów zauważył, że “charakter platformy Arm i Linuksa sprawia, że jest ona mniej atrakcyjna jako gotowa platforma do gier” – to małe urządzenie zostało zbudowane od podstaw z myślą o deweloperach AI [46].

Od „Project Digits” do premiery: opóźnienie, wzrost ceny i dostępność

Nvidia po raz pierwszy zajawiła DGX Spark na początku 2025 roku pod kryptonimem „Project DIGITS.” CEO Jensen Huang zaprezentował prototyp podczas swojego keynote na CES 2025 (trzymając maleńkiego, złotego Sparka na scenie) [47]. W tamtym czasie Nvidia przedstawiała go jako „najmniejszy na świecie superkomputer AI” dla naukowców, a nawet studentów, i wskazywała cenę początkową około $3,000 z dostępnością do połowy 2025 roku [48] [49]. Jednak premiera nie przebiegła całkowicie zgodnie z planem. Platforma Spark „napotkała opóźnienia na drodze do rynku,” nie dotrzymując pierwotnego terminu wysyłki w maju [50] [51]. Do czasu, gdy Nvidia ogłosiła oficjalną datę premiery na 15 października, cena po cichu wzrosła do $3,999 za podstawową konfigurację [52]. (Nvidia nie wyjaśniła wprost podwyżki ceny o $1K, która wywołała pewne narzekania na forach [53], ale prawdopodobnie wynika to z ostatnich poprawek sprzętowych lub po prostu z pozycjonowania Sparka jako narzędzia premium dla deweloperów.)

Pomimo kosztów porównywalnych z wysokiej klasy stacją roboczą, zainteresowanie DGX Spark jest wysokie. Od dziś (15 października) klienci mogą zamawiać bezpośrednio na stronie internetowej Nvidii lub u jej partnerów [54]. Warto zauważyć, że Nvidia zaprosiła wszystkich głównych producentów OEM do oferowania własnych wersji Spark pod własną marką. Veriton GN100 firmy Acer, AI Station firmy Asus, Pro Max z GB10 firmy Dell, ZGX Nano G1 firmy HP, ThinkStation PGX firmy Lenovo i inne to w zasadzie przemianowane systemy DGX Spark z drobnymi modyfikacjami [55] [56]. Nvidia potwierdziła, że Acer, ASUS, Dell, Gigabyte, HP, Lenovo i MSI wprowadzają na rynek desktopy oparte na Spark, zapewniając platformie szeroki kanał dystrybucji [57]. Oznacza to również, że kupujący mogą otrzymać różne wzornictwo lub nieco inne porty/SSD w zależności od dostawcy, ale podstawowa specyfikacja (układ Grace-Blackwell GB10 z 128 GB zunifikowanej pamięci) pozostaje niezmienna, podobnie jak cena około 4 tys. dolarów [58] [59]. W USA nawet detalista Micro Center będzie miał w ofercie jednostki DGX Spark do zakupu na miejscu [60], co wskazuje, że Nvidia widzi potencjalny rynek entuzjastów obok klientów biznesowych i naukowych.

Aby wzbudzić emocje, Nvidia zorganizowała małe technologiczne przedstawienie wokół premiery Spark. 13 października CEO Jensen Huang osobiście dostarczył jeden z pierwszych egzemplarzy DGX Spark Elonowi Muskowi w ośrodku SpaceX Starbase w Teksasie [61] [62]. Ten chwyt marketingowy nawiązywał do roku 2016, kiedy Huang przekazał oryginalną maszynę DGX-1 firmie OpenAI (której Musk był wtedy częścią) – systemowi, który pomógł w przełomowych osiągnięciach, takich jak GPT-3 [63] [64]. „Wyobraź sobie dostarczenie najmniejszego superkomputera obok największej rakiety” – żartował Huang, przekazując Spark wielkości śniadaniówki Muskowi wśród ogromnych rakiet Starship firmy SpaceX [65] [66]. Symbolika była jasna: Nvidia chce powiązać Spark z początkiem rewolucji AI, sugerując, że to małe urządzenie może zapoczątkować „kolejną falę przełomów”, udostępniając moc AI znacznie większej liczbie osób [67] [68]. Choć większość klientów nie otrzyma osobistej wizyty od Jensena, pierwsze egzemplarze trafiły już do deweloperów AI w firmach takich jak Anaconda, Hugging Face, Meta, Microsoft, JetBrains i innych, którzy testują i optymalizują swoje oprogramowanie na Spark [69]. Krótko mówiąc, Nvidia zasiewa ekosystem, by zapewnić, że popularne frameworki i narzędzia AI będą działać płynnie już od pierwszego dnia.

Dlaczego to ważne: Demokratyzacja rozwoju AI (i nie tylko)

DGX Spark pojawia się w momencie, gdy badacze i deweloperzy AI są głodni większej lokalnej mocy obliczeniowej. Trenowanie lub nawet dostrajanie dużych modeli AI często wymaga specjalistycznego sprzętu z ogromną pamięcią i mocą obliczeniową – zasobów, które zazwyczaj można znaleźć tylko w klastrach chmurowych lub drogich serwerowniach. Oferując stosunkowo przystępną cenowo (poniżej 5 tys. dolarów) jednostkę biurkową, która może obsłużyć poważne zadania AI, Nvidia „demokratyzuje dostęp do obliczeń na skalę peta”, jak to ujął profesor NYU Kyunghyun Cho [70]. „DGX Spark pozwala nam uzyskać dostęp do obliczeń na skalę peta na naszym biurku,” mówi Cho, którego laboratorium testowało ten system. „Ten nowy sposób prowadzenia badań i rozwoju AI umożliwia nam szybkie prototypowanie i eksperymentowanie z zaawansowanymi algorytmami i modelami AI — nawet w przypadku aplikacji wrażliwych na prywatność i bezpieczeństwo, takich jak opieka zdrowotna.” [71] Innymi słowy, badacze mogą iterować na dużych modelach lokalnie, trzymając wrażliwe dane na miejscu, i przechodzić do środowisk chmurowych lub klastrowych dopiero wtedy, gdy przychodzi czas na skalowanie treningu lub szerokie wdrożenie. To może przyspieszyć eksperymenty w dziedzinach od medycyny po robotykę, gdzie oczekiwanie w kolejkach na GPU w chmurze lub kwestie suwerenności danych mogą spowalniać postęp.

Kolejnym aspektem jest opłacalność. Przy cenie około 4 000 dolarów, DGX Spark nie jest może tani, ale w kontekście to „kropla w morzu” w porównaniu do tradycyjnych budżetów sprzętu AI [72]. Wysokiej klasy GPU NVIDIA A100 lub H100 do centrów danych mogą kosztować po kilkadziesiąt tysięcy dolarów za sztukę, a wynajem czasu GPU w chmurze dla dużych modeli może pochłonąć 4 tys. dolarów w ciągu kilku tygodni. Dzięki sprowadzeniu petaflopa do własnej siedziby za jednorazową opłatą, małe laboratoria lub startupy mogą w dłuższej perspektywie faktycznie zaoszczędzić pieniądze. Nawet pod względem zużycia energii, pobór mocy Sparka na poziomie 240 W jest umiarkowany – mniej więcej taki sam jak w komputerze do gier – co jest znacznie niższą wartością niż w przypadku wielokilowatowych szaf serwerowych [73]. „Nawet przy tej cenie, [Spark] dzięki swoim niewielkim rozmiarom, stosunkowo umiarkowanemu poborowi mocy 240 W i pełnemu wsparciu dla stosu CUDA, prawdopodobnie zyska wielu zwolenników w rozwijającej się branży AI,” zauważa Tom’s Hardware, wskazując na atrakcyjność dla deweloperów, którzy chcą bezproblemowej konfiguracji [74]. Krótko mówiąc, Spark obniża próg wejścia do poważnej pracy z AI: nie potrzeba dedykowanej serwerowni ani ogromnych kontraktów chmurowych – wystarczy podłączyć to urządzenie do gniazdka pod biurkiem.

Poza pojedynczymi deweloperami, analitycy dostrzegają szersze znaczenie tego, co reprezentuje Spark. Edge computing i „fizyczna AI” mogą być kolejną granicą, którą Nvidia zamierza zdobyć dzięki tym miniaturowym superkomputerom. Larry Dignan z Constellation Research zauważa, że DGX Spark oferuje większą moc AI niż DGX-1 z 2016 roku, ale w wytrzymałej, małej obudowie, co sugeruje, że może być wdrażany poza sterylnymi centrami danych [75] [76]. „Prawdziwy wpływ DGX Spark pojawi się dzięki wdrożeniom korporacyjnym na brzegu sieci”, pisze Dignan, wyobrażając sobie zastosowania na hali produkcyjnej, w magazynach lub w terenie, gdzie tradycyjne serwery nie są praktyczne [77] [78]. Sama Nvidia sugerowała robotykę jako kluczowy przypadek użycia – łączenie Sparka z robotami lub autonomicznymi maszynami, aby zapewnić im lokalną moc obliczeniową [79]. Na przykład wśród pierwszych testerów są laboratorium robotyki Uniwersytetu Stanowego Arizony oraz firma Zipline zajmująca się dostawami dronami, które testują Sparka do lokalnego wnioskowania AI w czasie rzeczywistym [80] [81]. Dzięki skondensowaniu superkomputera do rozmiarów umożliwiających umieszczenie go w laboratorium lub nawet na pojeździe, Nvidia może umożliwić rozwój „agentowej AI” (systemów AI zdolnych do działania w świecie fizycznym) bez konieczności stałego połączenia z chmurą [82] [83]. To część strategii Nvidii, by rozszerzyć swoją dominację w AI z chmury na brzeg sieci.

Reakcje ekspertów i perspektywy

DGX Spark zebrał pochwały za swoje inżynierskie wykonanie — upakowanie mocy i pamięci w bardzo małej obudowie — ale pojawił się też pewien sceptycyzm co do jego realnej niszy na rynku. Niektórzy obserwatorzy zauważają, że Spark w ogóle nie jest skierowany do zwykłych konsumentów; to przesada dla osób okazjonalnie bawiących się AI i brakuje mu wsparcia dla Windowsa czy gier. „To nie jest komputer stacjonarny dla konsumentów,” podkreśla recenzja PCMag, „lecz wejście Nvidii w segment mini-PC dla deweloperów AI”, który zaspokaja konkretne potrzeby profesjonalistów AI [84]. Rzeczywiście, sama Nvidia pozycjonuje go jako sprzęt dla „deweloperów natywnych AI” i naukowców [85]. Niemniej jednak pojawiła się grupa entuzjastów AI, którzy uruchamiają duże modele językowe lub generatory sztuki AI w domu na potrzeby własnych projektów. Dla nich DGX Spark to maszyna marzeń — jeśli tylko mogą sobie na nią pozwolić. Możliwe, że zamożni hobbyści i laboratoria technologiczne będą wykupywać pierwsze egzemplarze. Nvidia poinformowała, że początkowe partie produkcyjne DGX Spark szybko się wyprzedały w przedsprzedaży, co wskazuje na duże zainteresowanie wśród docelowej grupy odbiorców (choć nie ujawniono dokładnych liczb) [86] [87]. Jak zauważył jeden z analityków branżowych z przekąsem, „będzie wielu nabywców DGX Spark, którzy będą chcieli pochwalić się posiadaniem superkomputera, nawet jeśli [on] nie przyda się do codziennych zadań.” [88] Innymi słowy, niektórzy mogą go kupić dla prestiżu lub eksperymentów, nawet jeśli nie mają jeszcze pomysłu na codzienne zastosowanie poza uruchamianiem demonstracji AI.

Patrząc w przyszłość, linia osobistego sprzętu AI Nvidii może się rozszerzyć. Oprócz Spark, firma ogłosiła także większego „brata” o nazwie DGX Station – komputer w formie wieży biurkowej, który oferuje imponujące 20 petaFLOPS wydajności AI dzięki mocniejszemu układowi „GB300” Grace-Blackwell Ultra oraz 784GB pamięci RAM [89] [90]. To urządzenie to w zasadzie mały superkomputer dla zaawansowanych laboratoriów badawczych (i będzie kosztować odpowiednio dużo – prawdopodobnie dziesiątki tysięcy dolarów, gdy trafi do sprzedaży). Na razie DGX Station jest dostępny tylko dla wybranych partnerów i nie jest w ogólnej sprzedaży [91]. Natomiast DGX Spark za 3 999 dolarów to pierwsza próba Nvidii, by udostępnić superkomputery AI szerszemu gronu (przynajmniej szerokiemu gronu deweloperów AI). Jeśli się powiedzie, może przyspieszyć rozwój AI, umożliwiając przeprowadzanie większej liczby eksperymentów lokalnie i inspirując konkurencję do oferowania własnych „AI PC”. Już teraz widać pierwsze oznaki rywalizacji: najnowsze układy AMD Ryzen AI „Strix Halo” mogą zasilać mini-PC z maksymalnie 128GB RAM, ale brakuje im ekosystemu CUDA Nvidii i nadal nie dorównują Sparkowi z jego 1 petaFLOP mocy obliczeniowej [92] [93]. Na ten moment Nvidia prowadzi w tej rodzącej się kategorii osobistych stacji roboczych AI.

Podsumowując, DGX Spark oznacza ekscytujący kamień milowy, w którym „AI-first” komputery stacjonarne nie są już tylko demonstracjami koncepcyjnymi, ale rzeczywistymi produktami, które można kupić [94]. Umieszcza moc obliczeniową superkomputera AI w formacie dostępnym dla osób indywidualnych, potencjalnie zapalając nowe innowacje. „Bezpośredni potomkowie DGX-1, który zapoczątkował rewolucję AI, [są] teraz odrodzeni w kompaktowej formie, aby napędzać kolejną generację badań i rozwoju AI na każdym biurku,” powiedział Jensen Huang o premierze Spark [95]. Czas pokaże, jakie przełomy pojawią się, gdy tysiące deweloperów otrzymają własne maszyny o wydajności petaflopów. Ale jedno jest pewne: era osobistego superkomputera AI właśnie się rozpoczęła, a Nvidia stawia wszystko na to, że przeniesienie „wielkiej AI” na Twój pulpit wywoła kolejną falę kreatywności i produktywności AI [96] [97].

Źródła: Nvidia Newsroom [98] [99]; Nvidia Blog [100] [101]; The Verge [102] [103]; Tom’s Hardware [104] [105]; Constellation Research [106] [107]; TS2 Technology News [108] [109]; Nvidia GTC Announcement [110] [111]; Cytaty prasowe [112].

This AI Supercomputer can fit on your desk...

References

1. www.theverge.com, 2. www.theverge.com, 3. www.tomshardware.com, 4. www.tomshardware.com, 5. nvidianews.nvidia.com, 6. nvidianews.nvidia.com, 7. nvidianews.nvidia.com, 8. www.nvidia.com, 9. www.theverge.com, 10. www.tomshardware.com, 11. www.tomshardware.com, 12. www.theverge.com, 13. blogs.nvidia.com, 14. www.constellationr.com, 15. blogs.nvidia.com, 16. www.theverge.com, 17. www.theverge.com, 18. www.constellationr.com, 19. blogs.nvidia.com, 20. www.theverge.com, 21. www.theverge.com, 22. nvidianews.nvidia.com, 23. www.theverge.com, 24. blogs.nvidia.com, 25. blogs.nvidia.com, 26. www.theverge.com, 27. ts2.tech, 28. ts2.tech, 29. www.tomshardware.com, 30. nvidianews.nvidia.com, 31. nvidianews.nvidia.com, 32. www.tomshardware.com, 33. www.tomshardware.com, 34. www.tomshardware.com, 35. www.tomshardware.com, 36. www.tomshardware.com, 37. nvidianews.nvidia.com, 38. arstechnica.com, 39. www.tomshardware.com, 40. nvidianews.nvidia.com, 41. nvidianews.nvidia.com, 42. www.tomshardware.com, 43. www.theverge.com, 44. www.tomshardware.com, 45. www.tomshardware.com, 46. www.tomshardware.com, 47. www.theverge.com, 48. www.theverge.com, 49. www.theverge.com, 50. www.tomshardware.com, 51. www.tomshardware.com, 52. www.tomshardware.com, 53. www.tomshardware.com, 54. nvidianews.nvidia.com, 55. www.theverge.com, 56. blogs.nvidia.com, 57. www.theverge.com, 58. www.theverge.com, 59. www.theverge.com, 60. nvidianews.nvidia.com, 61. nvidianews.nvidia.com, 62. blogs.nvidia.com, 63. nvidianews.nvidia.com, 64. blogs.nvidia.com, 65. blogs.nvidia.com, 66. blogs.nvidia.com, 67. nvidianews.nvidia.com, 68. nvidianews.nvidia.com, 69. nvidianews.nvidia.com, 70. nvidianews.nvidia.com, 71. nvidianews.nvidia.com, 72. www.engadget.com, 73. www.tomshardware.com, 74. www.tomshardware.com, 75. www.constellationr.com, 76. www.constellationr.com, 77. www.constellationr.com, 78. www.constellationr.com, 79. www.constellationr.com, 80. blogs.nvidia.com, 81. blogs.nvidia.com, 82. blogs.nvidia.com, 83. blogs.nvidia.com, 84. www.threads.com, 85. nvidianews.nvidia.com, 86. www.constellationr.com, 87. www.constellationr.com, 88. www.constellationr.com, 89. ts2.tech, 90. ts2.tech, 91. nvidianews.nvidia.com, 92. www.tomshardware.com, 93. www.tomshardware.com, 94. ts2.tech, 95. ts2.tech, 96. ts2.tech, 97. nvidianews.nvidia.com, 98. nvidianews.nvidia.com, 99. nvidianews.nvidia.com, 100. blogs.nvidia.com, 101. blogs.nvidia.com, 102. www.theverge.com, 103. www.theverge.com, 104. www.tomshardware.com, 105. www.tomshardware.com, 106. www.constellationr.com, 107. www.constellationr.com, 108. ts2.tech, 109. ts2.tech, 110. nvidianews.nvidia.com, 111. nvidianews.nvidia.com, 112. nvidianews.nvidia.com

Technology News

  • One smartphone brand thieves won't steal - and it ain't Apple
    November 21, 2025, 7:18 PM EST. London police say more than 100,000 mobile phone thefts were reported in 2024, highlighting a holiday safety risk. A curious pattern emerges: thieves reportedly return or discard Samsung devices after hearing, "Don't want no Samsung." The article notes there are no official figures on brand popularity among criminals, but implies that resale value and device protections influence theft decisions. Samsung's Theft Detection Lock is cited as a potential deterrent, while high-value iPhones likely drive much of the market. Whether these cases reflect a wider trend or isolated incidents remains unclear; the piece originated with PC-WELT.
  • Google Brings Gemini to Android Auto, Expanding AI Conversations on the Road
    November 21, 2025, 7:16 PM EST. Google is expanding its AI reach with Gemini on Android Auto, rolling out to 45 countries and potentially 250 million cars. After upgrading Google Assistant to Gemini, drivers can engage in hands-free conversations to get activity recommendations, compose and edit messages (with translations for 40 languages), and manage emails, calendars, and notes. The update taps into Gmail, Google Calendar, Google Keep, and even Samsung Calendar/Notes, with more third-party support planned. Five use cases include requesting stops, drafting messages, searching mail/calendar, creating music playlists, and rehearsing a speech. While convenient, safety concerns about distraction at highway speeds persist. Google says more features are coming as Gemini expands its AI in vehicles.
  • Own Tesla Stock? What to Know About Its Robotaxi Rollout, Safety Race with Waymo, and 2026 Outlook
    November 21, 2025, 7:14 PM EST. Tesla aims to push its robotaxi rollout toward operating without a safety driver by 2026, per CEO Elon Musk. The company contrasts its cautious approach-paranoid about safety- with Waymo's history, highlighting miles driven and incident rates. By end of Q3, Tesla reported seven collisions across more than 250,000 robotaxi miles, implying a higher collision rate than Waymo's 2.1 incidents per million miles and the rough 67,000 miles benchmark Musk referenced. It's important to note safety drivers may have intervened in some Tesla events, and small-number variability can swing averages. Still, Tesla has far more data from its FSD program, which could help improve robotaxi performance as the rollout matures. The takeaway for investors: the timeline is uncertain, but the risk-reward hinges on safety improvements, data leverage, and scale into 2026.
  • Best Fire Tablet Deals for Black Friday 2025 - Shop Early Savings on Fire Tablets
    November 21, 2025, 7:12 PM EST. Get in early on Black Friday with savings on Fire tablets. This guide highlights the best early deals across Fire HD models, including Fire HD 7/8/10 and kid-friendly bundles. Expect price cuts, limited-time offers, and shifting availability as retailers kick off the season. Learn how to compare models, score value on the Amazon Fire line, and snag the best deal before Black Friday. Note: deal pricing can change after publication and affiliate links may apply.
  • Google's Gemini 3 AI Image Generator: What It Can Do and How to Use It
    November 21, 2025, 7:10 PM EST. Google has unleashed Gemini 3, its latest AI image generator, expanding the company's capabilities in creative visuals. The feature set hinges on how you craft prompts, with the article urging readers to use prompts wisely to unlock higher quality results and more control over style and composition. The piece notes practical tips and potential limitations, guiding newcomers and pros alike. We also hear from our expert, who covers AI, mobile, and software, offering context on how Gemini 3 fits into Google's broader AI strategy and what to expect from future updates.