Iphone 12 Pro e LiDAR –
Il sensore LiDAR, è stato finalmente integrato nei nuovissimi iPhone 12 Pro e 12 Pro Max offrendo agli utenti, la possibilità di scannerizzare l’ambiente circostante e migliorando notevolmente le interazioni con le app di Realtà Aumentata.
Apple aveva già intuito la potenza di LiDAR inserendolo nell’iPad Pro presentato a marzo 2020, ma la facile maneggiabilità dell’iPhone, ne cambia completamente l’utilizzo offrendo nuove opportunità per gli sviluppatori.
iPhone 12 Pro, oltre a LiDAR, include un teleobiettivo, una messa a fuoco automatica di più alto livello, prestazioni migliori in modalità ritratto e ritratti in modalità notturna, Apple ProRAW, bordi in acciaio inossidabile, e spazio di archiviazione fino a 512GB. (Digitames.com)
Quali sono i cambiamenti che LiDAR porterà alla nostra vita quotidiana?
La Realtà Aumentata, aggiunge informazioni a ciò che vediamo attraverso la fotocamera del nostro cellulare (o dei supporti per AR come gli occhiali).
La limitazione più grande fino ad ora è stata quella di non riuscire a creare una vera “relazione” tra il software del cellulare e l’ambiente reale.
LiDAR permette di superare questo ostacolo, attraverso una scansione molto approfondita e un’analisi dettagliata con riconoscimento degli oggetti, dello spazio circostante, creando dunque un collegamento tra il mondo digitale e il mondo reale.
AWE Nite NYC
Durante l’ultimo AWE Nite NYC che si è tenuto il 27 ottobre, Ori Inbar ha riunito in un interessante panel di discussione, alcuni tra i principali manager di Snapchat, Niantic, Occipital, Patched Reality, per parlare del futuro della Realtà Aumentata con l’avvento di LiDAR.
Questa che vedete sotto è l’agenda dell’incontro, che si è aperto con una presentazione da parte del Co-Fondatore di AWE:
1) Ori Inbar (Co-Fondatore di AWE e Super Ventures) uno dei più importanti leader del mondo, nel settore della Realtà Aumentata. Un rapido excursus sulla storia AR che con LiDAR, viene lanciata nel mondo consumer.
2) Qi Pan (Senior Manager of Computer Vision Engineering, SnapChat) – Presentazione degli obiettivi basati su LiDAR di Snapchat per sviluppatori e progetti futuri.
Qi Pan è Senior Manager of Computer Vision Engineering presso SnapChat. Tra gli obiettivi della sua azienda, c’è quello di rendere l’applicazione più intelligente dando la possibilità agli sviluppatori di creare nuovi casi d’uso con la Realtà Aumentata, sfruttando ad esempio la posizione o creando esperienze di AR con più utenti contemporanemente.
Ha spiegato come LiDAR serve a capire immediatamente la geometria degli spazi in scala reale e la semantica degli ambienti e degli oggetti circostanti.
Qi Pan, ha parlato anche di Snap Lens lo strumento di creazione AR con oltre 1.5 milioni di filtri creati dagli sviluppatori.
Snapchat, che da tempo collaborava con Apple, il giorno successivo alla presentazione dell’iPhone 12, ha rilasciato un’aggiornamento in Lens Studio 3.2 con la possibilità di creare filtri utilizzando la tecnologia LiDAR.
Le funzionalità vengono simulate dagli sviluppatori con un’anteprima interattiva, in modo da poter essere realizzate senza avere un dispositivo.
LiDAR offre nuove fantastiche funzionalità:
– Geometria della scala metrica istantanea con una distanza di 30 centimetri;
– Analisi della persona in profondità
– Risolve il problema delle pareti bianche…
Non è ancora una tecnologia perfetta (ad esempio non rileva oggetti troppo piccoli), ma è un enorme passo in avanti per la Realtà Aumentata applicata ai device mobili.
3) Meghan Hughes (Head of Go to market Niantic Real World Platform, Niantic Labs) – La nuova attività di mappatura AR in Pokémon Go insieme ad iPhone LiDAR.
Meghan Hughes, Head of Go to market Niantic Real World Platform, presso Niantic, l’azienda che ha prodotto Pokémon Go, durante il suo panel ha parlato dell’aggiornamento dell’applicazione appena rilasciato, che chiede ai giocatori (Allenatori di livello 20 o superiori) di scansionare i Pokéstop con il sensore LiDAR, in Realtà Aumentata.
Niantic sta costruendo un livello di esperienza LiDAR per tutti i device che lo supportano. Per i dispositivi che hanno il sensore AR integrato, il software ottiene benefici di visione al buio, migliora il 3D, la dinamica e il riconoscimento degli oggetti.
Non è una bacchetta magica, ma migliora il software.
Questo sviluppo del’applicazione, avvicina il consumatore alla tecnologia innovativa della Realtà Aumentata, utilizzando la mappatura della realtà, la comprensione della realtà, e infine la condivisione della realtà.
La multipiattaforma APIs in Realtà Aumentata che Niantic sta costruendo, ha testato sul campo sia la funzionalità AR, che i servizi di back-end, attraverso milioni di sessioni al giorno.
Ecco cosa viene migliorato:
– Le esperienze AR diventano condivise;
– Più giocatori contemporaneamente possono condividere esperienze social, iper-realistiche;
– C’è una consapevolezza del contesto in cui si gioca;
– Vengono realizzate scansioni approfondite;
– Viene percepita la profondità degli ambienti;
– C’è una comprensione semantica degli oggetti;
– Si ha una ricostruzione in 3D degli ambienti e un meshing finale.
Il contenuto AR diventa consapevole dell’ambiente circostante e del contesto.
Il Sistema di Posizionamento Visivo (Visual Positioning System) è alimentato da una mappa in Realtà Aumentata del mondo, che viene costantemente aggiornata dai giocatori.
Il team di sviluppo di Niantic è alla ricerca di proposte da parte di sviluppatori di giochi che vogliono entrare a far parte della community.
Se vuoi accedere alla beta della piattaforma di sviluppo, segui questo link: Game Developer Application.
4) Jeffrey Powers (Co-Fondatore di Occipital, e CEO di Arcturus Industries) – Da Occipital Structure Sensor ad iPhone LiDAR
Jeffrey Powers nel 2008, ha co-fondato Occipital, realizzando Canvas, Structure Sensor, 360 Panorama e RedLaser (acquisito da eBay).
Nel 2020, ha co-fondato Arcturus Industries, con l’intento di migliorare lo stato dell’arte nella percezione 3D per i dispositivi AR/VR.
Durante il suo panel ha raccontato lo sviluppo negli anni, da Occipital Structure Sensor fino ad arrivare ad iPhone Lidar.
5) Patrick O’Shaughnessey (Patched Reality) – Il punto di vista di uno sviluppatore: come iPhone LiDAR scatena una nuova categoria di giochi come Epic Marble Run: un rotola biglie che funziona su qualsiasi terreno.
Patrick O’Shaughnessey è Dirigente di Ingegneria del software ed ha 25 anni di esperienza nel settore sviluppo e gestione. Ha fondato Patched Reality dieci anni fa, grazie al quale sviluppa esclusive applicazioni di Realtà Aumentata per cellulari e occhiali digitali AR.
L’elenco dei clienti della sua azienda include: COACH, Pepsi, Ben and Jerry’s, Red Bull, HBO, PBS/Henson e The American Museum of Natural History di New York.
Durante il suo panel ha parlato di Epic Marble Run, e di una nuova categoria di giochi con una Realtà Aumentata evoluta, grazie a LiDAR.
Durante la sessione, si è svolta anche un’interessante conversazione di gruppo che ha coinvolto i tanti partecipanti collegati in live streaming, da tutto il mondo.
Se non siete riusciti a seguire l’evento in diretta, potete vederlo a questo link:
AWE Nite è un luogo fisico e virtuale, che si sviluppa nel territorio locale e prevede incontri continuativi. Durante questi incontri, sviluppatori, creatori, investitori, accademici, manager e curiosi, si riuniscono per discutere e far crescere l’interesse verso la Realtà Aumentata.
Reference AWE Nite