top of page
Immagine del redattorePaolo Benanti

ARKit 2.0: gli orizzonti di Apple per una vita connessa


L'Apple ha appena concluso la sua conferenza annuale degli sviluppatori. Tante e novità presentate. Ci sembra che nel suo tempo sul palco,Craig Federighi, vice presidente senior del reparto software di Apple: supervisiona lo sviluppo dei sistemi operativi iOS e macOS e coordina i team di sviluppatori, che si occupano di tutti i principali livelli (come interfaccia grafica, applicazioni e framework), abbia lasciato trasparire alcune tendenze aziendali molto interessanti. Proviamo qui a fare una lettura del suo intervento.

 

Show must go on Durante il tempo trascorso sul palco della conferenza annuale degli sviluppatori di Apple, Craig Federighi ha fatto molte delle cose che le persone si aspettano dal vice presidente senior del reparto software. Indossava una maglietta blu. Ha detto "non è fantastico?" tantissime volte parlando delle innovazioni introdotte. Ha intrapreso una demo software con una situazione stranamente personale: ha usato la realtà aumentata per misurare una fotografia di quando era bambino.

Ma Federighi ha anche comunicato qualcosa che Apple non ha ancora mai comunicato: ha confermato - in maniera indiretta - che la società sta lavorando a un dispositivo a realtà aumentata - Augmented Reality o AR - indossabile.

Sembrerebbe essere il "T288", il nome in codice con cui è conosciuto questo fantomatico dispositivo in azienda.

Un dispositivo, come altri in passato, che potrebbe non vedere mai la luce. Oppure potrebbe uscire nel 2020. Se vi chiedete se avete perso il passaggio in cui Federighi ne parla, la risposta è no, non avete perso nulla. Il VP Senior non l'ha mai menzionato. Neanche a qualcun altro. Le parole "wearable", "headset" o "smart glasses" non sono mai state pronunciate durante il keynote.

Tuttavia nel dimostrare gli aggiornamenti di Apple alla sua suite ARKit, l'insieme di strumenti che aiuta gli sviluppatori a creare app ed esperienze in realtà aumentata, Federighi ha dato al pubblico del WWDC - e al mondo - un chiaro segnale che il futuro a cui Apple sta lavorando non è quella che troveremo o cercheremo attraverso gli schermi del nostro telefono.

Il background Partiamo da un po' di storia. L'incarnazione originale di ARKit, che Apple ha presentato al WWDC dello scorso anno, era poco più che un banco di prova.

"Ogni app era un'isola", ricorda Matt Miesnieks, CEO di 6d.ai, una società che sviluppa infrastrutture software per il cosiddetto cloud AR. "Avevi un piano, potevi giocare in quel piano, era così: le due grandi cose che mancavano erano la capacità del multiplayer, così che io e te potessimo vedere un Pokémon esattamente nello stesso posto, e la persistenza, se avessi lasciato una scultura nel mio salotto sarei potuto tornare il giorno dopo e vederla ancora".

ARKit 2.0, che Federighi ha delineato ieri, aggiunge quelle qualità - persistenza e "esperienze condivise", come le ha chiamate il VP Senior - e le demo sul palco di Apple le hanno mostrate alla perfezione.

C'era un'app attraverso la quale le persone potevano usare le fionde AR per sparare proiettili in realtà aumentata a vicenda contro strutture in legno realizzate anch'esse in AR: un misto di Angry Birds e Pokémon Go. Abbiamo visto un'esperienza offerta da Lego che ha trasformato un vero edificio fatto in Lego nella pietra angolare di un'avventura cooperativa in dimensioni reali in cui tutti gli altri edifici, personaggi e persino veicoli erano virtuali. E grazie a una serie di altri aggiornamenti ARKit come il rilevamento di oggetti 3D e un'illuminazione più realistica, le esperienze sono sembrate più fluide, più realistiche e più avanzate di qualsiasi cosa sia stata mostrata su un dispositivo AR consumer fino ad oggi. Tra le varie funzioni c'è anche Measure, un'app più pratica che serve per misurare con un nastro virtuale che ha portato alla foto di Craig bambino di cui abbiamo parlato sopra.

Qualche indizio Dobbiamo rilevare che entrambe le esperienze mostrate sono avvenute tramite un iPad. Un iPad tenuto a debita distanza. E questa potrebbe essere una grande notizia per i chiropratici: saranno in tanti ad aver bisogno di massaggi e recuperi funzionali dopo essere andati in giro per ore con un mezzo chilo tenuto a braccio distante dal corpo, magari inciampando e cascando. Questo è anche il caso in cui Apple ha fatto intuire qualcosa. "Penso che sia possibile vedere un dispositivo endpoint per AR mobile tra qualche tempo grazie al quale una persona possa utilizzare una funzione AR alzando la mano", afferma Alexis Macklin, analista di Greenlight Insights, un'azienda di market intelligence focalizzata sulla realtà virtuale e aumentata. Invece Measure è un grande indicatore di quanto l'AR mobile possa aggiungere valore alla vita delle persone oggi: reggi il tuo telefono, ottieni la lunghezza di quel divano o l'altezza di quelle tende, il gioco è fatto - il futuro più pervasivo delle tecnologie in AR dipende probabilmente dal loro essere disponibili e pronte quando ne abbiamo bisogno, magari non necessariamente tirando fuori un device dalle tasche.

"Ci sono alcuni buoni casi d'uso per l'AR mobile, ma non siamo ancora di fronto al vero gamchanger", afferma Miesnieks.

In realtà, quindi, l'enfasi di Apple sulla persistenza e sulle esperienze condivise riflette l'AR di cui godremo nei prossimi anni, non l'AR che già si insinua nelle nostre vite oggi. Tony Parisi, responsabile globale delle soluzioni di brand VR/AR presso Unity Technologies, commenta così: "Le persone che lavorano sulla condivisione e sulla perseveranza stanno facendo un gran lavoro ed è davvero importante per risolvere quei problemi a lungo termine, ma è importante per i consumatori capire che quelle non sono condizioni necessarie affinché AR possa mettere radici e essere adottate ora". Continua ancora Parisi: "Diventeranno problemi significativi nel tempo, poiché l'utilizzo diventerà smepre più sofisticato". Ci sembra importante sottolineare che l'esperienza LEGO AR è stata realizzata utilizzando le soluzioni di Unity.

Dobbiamo considerare, però, anche un altro fattore, le conferenze per sviluppatori non sono più solo conferenze per sviluppatori; sono eventi pubblici in diretta streaming. Ciò offre ad aziende come Apple un'ottima opportunità per seminare due ecosistemi contemporaneamente. Con la capacità di ARKit 2.0 di supportare la persistenza e le esperienze condivise, Apple sta dando ai suoi sviluppatori gli strumenti per creare applicazioni ed esperienze che potrebbero non essere perfettamente adatte ai dispositivi di oggi. Ma mostra anche ai consumatori cosa è possibile. Niente di strabiliante, ma neanche ipotetico. Questa non è la grandiosità di una promessa di salto avanti teconologico di tipo magico, ma un'introduzione a una tecnologia che Apple crede chiaramente ridefinirà il modo in cui gli esseri umani usano i computer.

"Abbiamo già la prova che Google sta lavorando su un headset AR", afferma JC Kuang, un altro analista di Greenlight. "E la cosa che mi ha colpito di più è il modo in cui le caratteristiche di ARKit 2.0 sono simili al refresh di ARCore di Google. Il keynote ci dà ulteriore conferma che entrambe le società hanno una roadmap simile".

Quella tabella di marcia, ovviamente, è solo all'inizio. Ed è qui che arrivano gli sviluppatori, e gli iPads da braccio. "Stanno spingendo l'AR sui telefoni per assicurarsi che siano vincenti quando arriveranno gli indossabili", dice Miesnieks di Apple. "Non puoi aspettare degli headset e per fare in fretta anticipi 10 anni di ricerca e sviluppo sul software".

Possibili scenari... La realtà aumentata è il termine con cui si indica la sovrapposizione di livelli informativi (elementi virtuali e multimediali, dati geolocalizzati, ecc.) a ciò che normalmente viene percepito con la vista. Gli elementi che aumentano la realtà possono essere visualizzati attraverso un device mobile, quale ad esempio un Head Mounted Display (HMD), o con tecnologie che tendono a fondersi con il sistema ottico dell’uomo.

L’AR si è già molto diffusa tra i teenagers giapponesi che la usano come una moda per realizzare, in vari posti di città come Tokyo, dei graffiti virtuali che sono invisibili a occhio nudo ma che compaiono indossando dispositivi di AR. Dichiarazioni d’amore, frasi ritenute importanti e altre dimensioni affettive della vita degli adolescenti giapponesi sono affidate a questi mezzi di comunicazione: la tecnologia si fa interprete della dimensione emotiva dell’uomo divenendo il canale attraverso cui questa viene comunicata ed esperita.

Anche a causa di un rapido sviluppo di devices sempre nuovi non è semplice fornire una precisa definizione di cosa si intenda con l’espressione realtà aumentata. Tuttavia è possibile trovare un generale consenso nella letteratura scientifica attorno a due descrizioni dell’Augmented Reality. La prima descrizione generale di un sistema AR, è quella fornita da Ronald Azuma che definisce l’Augmented Reality come un device in grado di combinare il reale e il virtuale in modo interattivo e in tempo reale in un ambiente a tre dimensioni.

Questa definizione viene accolta e completata dal Milgram's Reality-Virtuality Continuum, un concetto elaborato da Paul Milgram e Fumio Kishino nel 1994 .

Il primo impatto di queste tecnologie potrebbe essere quello di rivoluzionare il concetto di formazione: non servono più lunghi corsi e continuo addestramento, la continua assistenza fornita dai devices dell’AR rende praticamente chiunque in grado di smontare e riparare ogni apparecchiatura.

La modalità cognitiva viene mutata: da una formazione che prepara a saper valutare le differenti situazioni a una capacità di interfacciarsi il più velocemente possibile con l’AR per ottenere i risultati voluti. Oltre al settore militare anche il campo medico conosce numerosi applicativi di tipo AR: la realtà aumentata è vista come un campo estremamente promettente non solo per la novità che consente nella formazione del personale medico ma anche per la grande efficienza che permette nella diagnosi e nel trattamento delle diverse patologie.

Possiamo pensare di costruire un continuo che va dall’ambiente reale al puro virtuale. Nel mezzo si trovano due stati: l’Augmented Reality (maggiormente vicina all’ambiente reale) e l’Augmented Virtuality (maggiormente vicina ad un ambiente puramente virtuale) che compongono quella che Milgran e Kishino definiscono Mixed Reality.

Alla luce di queste brevi considerazioni è la dimensione emotiva dell'uomo quella che sembra maggiormente impattabile dall'AR (non a caso Federighi ha mostrato una sua foto da bambini...).

L’Augmented Reality è una forma di realtà mista e può essere letta come una modalità di riduzione tecnologica di ciò che normalmente accade nelle dinamiche emotive-cognitive della persona. Se si pensa, ad esempio, a due innamorati possiamo descrivere il loro reciproco guardarsi come una forma cognitiva di realtà aumentata: ciascuno dei due guardando l’altro vede il volto di una persona aumentato da una serie di emozioni e sentimenti che gli fanno percepire quella persona in modo unico.

Così capita l’Augmented Reality mostra tutta la sua capacità di incidere sulla costituzione della persona umana: il modo di sentire, provare emozioni e capire può essere definitivamente alterato dalle interazioni tecnologiche. L’AR può divenire una forma di riduzione tecnologica di quei processi emotivo-cognitivi che avvengono nell'uomo. Restando sull'esempio degli innamorati, un sistema artificiale di AR può essere capito come un surrogato digitale dell’innamoramento.

Questi scenari ancora una volta ci dicono come la tecnologia sia un locus che richiede di essere pensato e significato e non solo vissuto, esperito o venduto.

90 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page