- Nel 2025, Stanford e Meta hanno presentato un display olografico a realtà mista con una guida d’onda spessa 3 mm e SLM, puntando a un ampio campo visivo e eyebox.
- Odyssey 3D di Samsung, un monitor autostereoscopico da 27″, utilizza il tracciamento oculare più ottiche lenticolari per offrire contenuti 3D senza occhiali.
- Lenovo Legion 9i (2025) aggiunge uno schermo 3D opzionale senza occhiali per creatori e gamer.
- I laptop ASUS Spatial Vision abbinano pannelli OLED al tracciamento oculare per abilitare la creazione e la riproduzione 3D senza occhiali.
- Looking Glass Factory offre pannelli multi-view: 16″ 4K con 45–100 viste (~53° cono), 27″ 5K con 45–100 viste e 32″ 8K con 45–100 viste.
- SolidLight di Light Field Lab fornisce pareti olografiche e volumetriche con 10 miliardi di pixel per metro quadrato (olografico) e 100 milioni di pixel per metro quadrato (volumetrico), dimostrato nel 2024 con il SETI Institute.
- Gli HUD AR olografici GEN-2 di Envisics sono previsti per la produzione nella gamma Cadillac 2026 (VISTIQ e LYRIQ-V) con GM.
- RealView HOLOSCOPE-i ha ricevuto la certificazione FDA 510(k) per ologrammi interattivi nell’aria generati da dati CT/ecografia, visibili senza occhiali.
- I display a volume spazzato Voxon VX2 rendono voxel fluttuanti in un volume visibile a 360°, consentendo una vera percezione volumetrica.
- Axiom Holographics commercializza Hologram Rooms multi-proiettore e tavoli olografici per musei, addestramento militare e esperienze di brand dal vivo, offrendo 3D multiutente su larga scala.
Il 3D senza occhiali sta finalmente andando oltre i semplici gadget. I laboratori di ricerca stanno dimostrando ottiche true holographic sottilissime; i brand consumer stanno lanciando monitor e laptop autostereoscopic; le case automobilistiche stanno mettendo in produzione holographic HUDs; e gli ospedali stanno adottando in‑air medical holograms—tutto senza visori. Di seguito una guida completa e in linguaggio semplice alla tecnologia, al mercato, alle tappe fondamentali e alle insidie, con citazioni di esperti e fonti primarie.
Cosa significa davvero “display olografico senza occhiali”
Il termine copre diverse tecnologie. Sapere quale è quale ti aiuterà a valutare le affermazioni:
- Display autostereoscopici (multi-view)
Usano lenti lenticolari o barriere di parallasse per inviare viste diverse a ciascun occhio (spesso con tracciamento oculare). Ottimi per profondità “pop-out” su pannelli piatti; non sono veri ologrammi. Il monitor Odyssey 3D di Samsung (27″) è un esempio recente, basato su tracciamento oculare + ottiche lenticolari. [1] - Pannelli light-field
Emettono decine o centinaia di prospettive leggermente diverse così che più spettatori vedano il 3D contemporaneamente all’interno di un “cono di visione”. I sistemi da 16″, 27″ e 32″ di Looking Glass Factory sono le versioni commerciali più note (45–100 viste; ~53° cono). [2], [3] - Olografia generata al computer (CGH) — true holography
Ricostruisce il fronte d’onda della luce usando un modulatore spaziale della luce (SLM), così messa a fuoco e accomodazione si comportano come nel mondo reale. Un prototipo Stanford + Meta del 2025 inserisce una guida d’onda olografica e un SLM in un display simile a occhiali spesso solo 3 mm e mostra un ampio campo visivo con un grande eyebox (étendue). [4] - Display volumetrici
Creano un vero volume visibile spazzando rapidamente o impilando piani illuminati così che i voxel fluttuino nello spazio (es. famiglia VX2 di Voxon). Spesso risoluzione più bassa ma davvero a 360°. [5]
Decoder rapido: Se puoi camminare intorno a un oggetto e la messa a fuoco cambia naturalmente con i tuoi occhi, sei nel territorio CGH o volumetrico. Se la parallasse di movimento funziona principalmente da lato a lato con uno sweet spot limitato, è multi-view/autostereo.
Stato dell’arte 2025 — cosa è reale ora
1) Ricerca rivoluzionaria: guide d’onda olografiche ultra-sottili
- Stanford + Meta hanno presentato un display olografico per la realtà mista con una guida d’onda personalizzata + calibrazione AI: “L’olografia offre capacità che non possiamo ottenere con nessun altro tipo di display,” dice il Prof. Gordon Wetzstein. Il prototipo è spesso solo 3 mm dall’obiettivo allo schermo e punta a un ampio campo visivo e eyebox. [6]
- La copertura su Tom’s Guide sottolinea perché questo è importante: ologrammi a piena risoluzione, ampio FOV e un eyebox più grande rispetto ai precedenti demo CGH—tratti distintivi della fattibilità nel mondo reale. [7]
2) Dispositivi consumer: l’autostereo torna mainstream (di nuovo)
- Samsung Odyssey 3D (27″) è un monitor gaming premium che converte il 2D in 3D e supporta contenuti 3D nativi tramite eye-tracking + ottiche lenticolari. Fa parte di una nuova ondata che porta gli editori a prevedere una spinta duratura, con Samsung che afferma che “triplicherà gli sforzi” sui monitor 3D. [8], [9]
- Lenovo Legion 9i (2025) aggiunge uno schermo 3D opzionale senza occhiali (commutabile 2D/3D) rivolto a creatori e gamer. [10]
- I laptop ASUS Spatial Vision continuano la tendenza, abbinando pannelli OLED al tracciamento oculare per la creazione e la riproduzione 3D senza occhiali. [11]
“Oggi, speriamo di essere al punto di svolta,” dice il cofondatore di Leia David Fattal, la cui azienda alimenta molti di questi dispositivi multi‑view. [12]
3) Sistemi professionali light‑field: 3D multi‑utente per sale riunioni e spazi espositivi
- Looking Glass Factory:
• Pannello 16″ 4K (45–100 visuali; ~53° cono ottimale).
• 27″ (annunciato per il 2025; 5K; 45–100 visuali; cono 53°).
• 32″ 8K (input a 7680×4320; 45–100 visuali; cono 53°; doppio DP).
Questi sono progettati per la collaborazione multi‑utente e per le fiere—senza necessità di visori. [13], [14] - Light Field Lab (SolidLight): pareti olografiche & volumetriche su scala industriale con numeri impressionanti: 10 miliardi di pixel/m² (olografico) e 100 milioni di pixel/m² (volumetrico). “…permettendo agli ospiti di sospendere l’incredulità e interagire con un extraterrestre formato solo da luce,” dice il CEO Jon Karafin, descrivendo un lancio nel 2024 con il SETI Institute. [15]
4) Automotive: HUD olografici in produzione
- Envisics fornisce HUD AR olografici GEN‑2 per i modelli Cadillac 2026 (VISTIQ e LYRIQ‑V). Questi HUD a guida d’onda olografica proiettano immagini a diverse profondità per la navigazione e l’assistenza alla guida. [16], [17] Il lead del design di GM ha precedentemente osservato, “La nostra collaborazione con Envisics sta passando alla produzione quest’anno…”—segnalando il passaggio dalla demo alla distribuzione. [18]
5) Medicina: ologrammi chirurgici nell’aria
- RealView Imaging’s HOLOSCOPE‑i ha ricevuto la FDA 510(k) clearance e crea ologrammi 3D interattivi da dati CT/ecografia a mezz’aria, sopra il paziente—senza occhiali o visori. I sistemi sono in fase di installazione clinica. [19], [20]
6) Tavoli e stanze volumetriche (esperienziali)
- Voxon costruisce display a volume spazzato (famiglia VX2) dove i voxel fluttuano in un volume fisico visibile da 360°. [21]
- Axiom Holographics commercializza “Hologram Rooms” multi-proiettore e tavoli per musei, addestramento militare e intrattenimento LBE—impressionante 3D multiutente, sebbene basato su proiezione piuttosto che su CGH. [22]
Come funzionano questi display (e i compromessi)
Approccio | Come funziona | Vantaggi principali | Svantaggi |
---|---|---|---|
Autostereo (lenticolare / eye‑tracked) | Dirige viste diverse a ciascun occhio | Pannelli sottili; buona profondità; commutabile 2D/3D | “Sweet spot”; spettatori limitati a meno di molte viste; nessun vero indizio di messa a fuoco ottica |
Pannelli light‑field | Trasmette 45–100+ viste | Più spettatori contemporaneamente; parallasse di movimento naturale | Carico GPU elevato; i contenuti devono essere multi-vista o sintetizzati |
CGH (vera olografia) | Ricostruisce la fase della luce tramite SLM/waveguide | Indizi di messa a fuoco corretti; il più piccolo fattore di forma futuro | Intensivo in calcolo; speckle; limiti di risoluzione/refresh SLM |
Volumetrico | Piani spazzati / voxel nell’aria | Visione a 360°; nessun conflitto di vergence | Di solito risoluzione inferiore; parti mobili; limiti di dimensione/luminosità |
Fonti ed esempi in tutta la tabella: [23][24] [25], [26], [27]
Contenuti e formati di file: da dove provengono le “cose” 3D
- Cattura dal vivo: impianti multi‑camera → profondità + texture → flussi multi‑vista/light‑field o mesh ricostruite.
- Pipeline DCC: CAD, USD, glTF, motori di gioco → sintesi multi‑vista o fronti d’onda CGH.
- Standard: MPEG‑I MIV (ISO/IEC 23090‑12) e la famiglia V3C definiscono come comprimere e trasportare video volumetrici/light‑field (con 6DoF per piccoli intervalli). Questi stanno maturando e ora dispongono di software di conformità e lavori di trasporto in IETF. [28][29] [30], [31]
- Up‑conversion AI: i dispositivi consumer fanno sempre più spesso stima della profondità 2D→3D per ampliare la quantità di contenuti (Odyssey 3D di Samsung è un buon esempio). [32]
Come valutare un display 3D senza occhiali (checklist per l’acquisto)
- Prima il caso d’uso (gaming in solitaria vs. revisione multi‑utente vs. segnaletica pubblica vs. chirurgia/industria).
- Cono di visione & eyebox: coni più ampi supportano i gruppi; eyebox più grandi (CGH) riducono i vincoli di head‑tracking. [33]
- Numero di visualizzazioni (light‑field/autostereo): più visualizzazioni = parallasse di movimento più fluida per più persone; Looking Glass offre 45–100 visualizzazioni con un cono di ~53°. [34]
- Risoluzione & refresh: controlla sia la risoluzione del pannello sia in quante visualizzazioni effettive viene suddivisa.
- 2D/3D commutabile: importante per produttività e leggibilità. [35]
- Requisiti di calcolo: molte soluzioni richiedono GPU di fascia alta; alcuni display professionali vengono forniti con configurazioni NVIDIA consigliate. [36]
- Pipeline dei contenuti: supporta il tuo motore CAD/gioco/asset? Ci sono SDK e strumenti 2D→3D? [37]
- Sicurezza & comfort: le sessioni lunghe beneficiano di corretti segnali di messa a fuoco (CGH/volumetrico) e grandi eyebox. [38]
Voci esperte
- David Fattal (Leia): “Oggi, speriamo di essere al punto di svolta.” [39]
- Gordon Wetzstein (Stanford): “L’olografia offre capacità che non possiamo ottenere con nessun altro tipo di display.” [40]
- Jon Karafin (Light Field Lab): “…sospendere l’incredulità e interagire con un extraterrestre formato solo dalla luce.” [41]
- Sandy Lipscomb (GM, su Envisics HUD): “La nostra collaborazione con Envisics sta entrando in produzione quest’anno…” [42]
(Tutte le citazioni sono brevi estratti dalle fonti collegate.)
Cosa è già in commercio vs. cosa è ancora in laboratorio
Prodotti spediti/annunciati che puoi acquistare o specificare oggi
- Campo luminoso / autostereo: Looking Glass 16″/32″/27″ (multiview, cono da 53°); monitor Samsung Odyssey 3D; laptop ASUS Spatial Vision; opzione 3D Lenovo Legion 9i. [43][44], [45], [46]
- HUD automobilistici: Envisics GEN‑2 HUD olografico nei modelli Cadillac 2026 (produzione in corso presso GM). [47]
- Olografia medica: RealView HOLOSCOPE‑i (ologrammi interattivi in aria, approvati FDA). [48]
- Volumetrico: Voxon serie VX2; stanze/tavoli Axiom Holographics per LBE e formazione. [49][50]
Dal laboratorio al breve termine
- Visori a guida d’onda CGH: Il prototipo Stanford/Meta spesso 3 mm mostra la strada verso l’olografia quotidiana a scala di occhiali. Restano ostacoli ingegneristici (prestazioni SLM, speckle, calcolo), ma i progressi su FOV/eyebox sono notevoli. [51][52]
Miti comuni (e come riconoscere il marketing fuorviante)
- Gli “ologrammi da palco” come il famoso show di Tupac non erano affatto ologrammi; usavano un trucco riflettente Pepper’s Ghost del XIX secolo con un foglio/vetro e un’immagine proiettata. Se serve un grande pannello inclinato sul palco, è Pepper’s Ghost—non olografia. [53]
Dove andrà dopo (prospettiva 12–24 mesi)
- CGH diventa più sottile e più ampia: Aspettatevi più dimostrazioni di guide d’onda olografiche ad alta étendue che riducono il divario di comfort con i visori. [54]
- Monitor e laptop: Con l’impegno pubblico di Samsung, prevedi una gamma 3D più ampia e pipeline AI 2D→3D in crescita per alimentarli. [55]
- Display per auto: Le consegne di Envisics per Cadillac sono un indicatore; i Tier‑1 stanno correndo per scalare le ottiche HUD riducendo i volumi dei proiettori. [56]
- Enterprise & locationi: Pareti a campo luminoso e stanze volumetriche resteranno premium ma si espanderanno in musei, sale di controllo ed esperienze di brand con la diminuzione dei costi GPU/server. [57]
Breve lista d’acquisto rapida (per scenario)
- Collaborazione multi‑utente o demo pubblica → Looking Glass 27″/32″ (cono 53°; 45–100 visualizzazioni). [58][59]
- Gaming alla scrivania → Samsung Odyssey 3D (27″) per autostereo con conversione profondità AI. [60]
- Creazione mobile → ASUS Spatial Vision (3D OLED, tracciamento oculare) o Lenovo Legion 9i opzione 3D. [61][62]
- Pianificazione chirurgica / imaging interventistico → RealView HOLOSCOPE‑i (olografia in aria; approvato FDA). [63]
- Installazione immersiva in sede → Light Field Lab SolidLight (muri olografici/volumetrici, 10 miliardi px/m²). [64]
Fonti principali (selezionate)
- Waveguide olografico Stanford & Meta (ricerca + citazioni). [65]
- Copertura del prototipo su Tom’s Guide. [66]
- Wired sulla rinascita del “3D senza occhiali” (Samsung, Leia, Lenovo). [67]
- Specifiche Looking Glass 16″/27″/32″. [68][69]
- Dettagli e citazioni su Light Field Lab SolidLight. [70]
- Annuncio Samsung Odyssey 3D. [71]
- Envisics AR‑HUD nelle Cadillac 2026. [72][73]
- Approvazione FDA per RealView HOLOSCOPE‑i (olografia medica nell’aria). [74]
- Panorama degli standard MPEG‑I MIV / V3C. [75][76][77]
- Spiegazione di Pepper’s Ghost (perché molti “ologrammi” non lo sono). [78]
References
1. www.theverge.com, 2. lookingglassfactory.com, 3. petapixel.com, 4. news.stanford.edu, 5. www.sixteen-nine.net, 6. news.stanford.edu, 7. www.tomsguide.com, 8. www.theverge.com, 9. www.wired.com, 10. www.theverge.com, 11. www.asus.com, 12. www.wired.com, 13. lookingglassfactory.com, 14. petapixel.com, 15. www.lightfieldlab.com, 16. www.auganix.org, 17. autotechinsight.spglobal.com, 18. www.designnews.com, 19. www.dicardiology.com, 20. www.auganix.org, 21. www.sixteen-nine.net, 22. axiomholographics.com, 23. www.tomsguide.com, 24. news.stanford.edu, 25. news.stanford.edu, 26. lookingglassfactory.com, 27. www.sixteen-nine.net, 28. mpeg-miv.org, 29. www.mpeg.org, 30. www.mpeg.org, 31. www.ietf.org, 32. www.wired.com, 33. news.stanford.edu, 34. lookingglassfactory.com, 35. www.wired.com, 36. displaydaily.com, 37. www.cgw.com, 38. news.stanford.edu, 39. www.wired.com, 40. news.stanford.edu, 41. www.lightfieldlab.com, 42. www.designnews.com, 43. lookingglassfactory.com, 44. petapixel.com, 45. www.theverge.com, 46. www.asus.com, 47. www.auganix.org, 48. www.dicardiology.com, 49. www.sixteen-nine.net, 50. axiomholographics.com, 51. news.stanford.edu, 52. www.tomsguide.com, 53. www.comsol.com, 54. news.stanford.edu, 55. www.wired.com, 56. www.auganix.org, 57. www.lightfieldlab.com, 58. petapixel.com, 59. lookingglassfactory.com, 60. www.theverge.com, 61. www.asus.com, 62. www.theverge.com, 63. www.dicardiology.com, 64. www.lightfieldlab.com, 65. news.stanford.edu, 66. www.tomsguide.com, 67. www.wired.com, 68. lookingglassfactory.com, 69. petapixel.com, 70. www.lightfieldlab.com, 71. www.theverge.com, 72. www.auganix.org, 73. autotechinsight.spglobal.com, 74. www.dicardiology.com, 75. www.iso.org, 76. mpeg-miv.org, 77. www.mpeg.org, 78. www.comsol.com