Le slide dell'intervento di Vidiemme e Rokivo all'evento Welcoming Cities a Rimini di Sabato 22 Marzo 2014.
Si parla di Google Glass e del progetto GoogleGlass4LIS
3. Rokivo & Vidiemme
Rokivo Inc. è una società americana con sedi a New York
e Torino, specializzata in user experience, ovvero il
design delle esperienze di utilizzo per differenti tipologie
di screen (computer, smartphone, tablet, etc..)
www.rokivo.com
#werok
Vidiemme Consulting Srl è una società italiana con sede
a Milano e punto di riferimento nel panorama digitale,
con un focus sull’innovazione tecnologica in ambito
web, mobile and wearables
www.vidiemme.it
#weroll
Rokivo and Vidiemme hanno portato in Italia alcuni prototipi della Google Glass Explorer Edition, il programma
destinato alle aziende Americane che ha lo scopo di sviluppare nuove idee di utilizzo per questo rivoluzionario
device.
6. i Google Glass in noccioline
• I Google Glass sono dei “wearable” devices , ossia
tecnologia da indossare e rispondono a comandi vocali o
impartiti tramite gesture
• Ad oggi sono pensati per un utilizzo “snack” con brevi e
puntuali notifiche; per questo sono il perfetto “companion”
dello smartphone, non un sostituto
• Sono dispositivi di realtà “affiancata” o “sovrapposta” che
permettono di arricchire la realtà con testo, immagini,
video, musica, …
• Ad oggi disponibili solo come prototipi, sono un device in
continua evoluzione sia nella forma che nelle potenzialità
7. come sono fatti Specifiche tecniche
connettività Bluetooth e
WiFi 802.11 b/g
12 GB di memoria utente
sincronizzata con il servizio
“cloud” di Google
16GB di memoria flash
totale
display con risoluzione di
640x360 pixel
Dotazioni addizionali
microfono con sistema di
riconoscimento vocale
giroscopio
sensori di prossimità
accelerometro
magnetometro
touch-pad laterale
integrato nella
stanghetta per lo
scorrimento delle
card
audio con trasduttore a
conduzione ossea,
udibile solo da chi
indossa gli occhiali
fotocamera da
5MP e
registrazioni
video a 720 pixel
naselli regolabili e
adattabili a qualsiasi
viso. Telaio flessibile e
resistente. È possibile
montare le lenti da sole
date in dotazione
display ad alta risoluzione,
sul quale vengono
proiettati i contenuti delle
card
batteria
9. 9
#throughglass
• Il prisma è in grado di proiettare uno schermo flottante semi-trasparente in alto a destra rispetto al campo
visivo ed equivalente ad una dimensione di 25 pollici alla distanza di 2,5 metri
• La visualizzazione delle informazioni è strutturata sulla base di “card” scorrevoli in senso orizzontale e
organizzate in una “timeline”; ogni operazione compiuta o notifica ricevuta viene storicizzata in una card
10. Le funzionalità di base
Dalla schermata principale che mostra l’ora si possono impartire i comandi tramite tap o vocalmente con
“ok glass” e ….
google …
take a picture
record a video
get directions to …
send a message to …
make a call to …
hangout with …
11. deep down: cosa si può fare (prima e dopo il GDK)?
Mirror API GDK
Novembre 2013Marzo 2013
Le Mirror API consentono di creare web-based
services, chiamati Glassware, in grado di interagire
con i Google Glass, ma che non girano su di essi.
Il GDK o Glass Development Kit è un’estensione al
kit di sviluppo di Android che consente di creare
Glassware che girano direttamente sui Glass.
Interazione
in real-time
Funzionalità
Offline
Accesso all’
hardware
Indipendenza
dalla piattaforma
Infrastruttura
comune
Funzionalità
Built-in
Source: https://developers.google.com/glass/develop
12. perché consente di aggiungere
funzionalità, comandi vocali e gestures
deep down: perchè il GDK è così importante?
perché apre le porte ad infinite possibilità
di utilizzo di tutti i “sensi” del device
perché permette una migliore
integrazione con servizi esterni
13. deep down: “fare design” per i Glass
I Glass hanno le loro regole e linee guide in termini di design:
Keep it simple, relevant and current!
Source: https://developers.google.com/glass/design/principles
Esistono 3 tipologie di cards:
• Statiche – Visualizzano
testo, HTML, immagini e
video. Evocano gli altri due
tipi di cards
• Live – Mostrano un
contenuto pertinente a
quello specifico momento e
hanno un costante refresh
delle informazioni
• Immersion - UI experiences
customizzate che
fuoriescono dalla timeline
e “vivono di vita propria”
•Pensare per i Glass e non semplicemente riadattare
•Aggiungere e non togliere all’esperienza reale
•Evitare l’inatteso e il “troppo”
•Costruire per le persone e rendere l’interazione colloquiale
•Rendere le informazioni di immediata leggibilità (es. Pagination)
15. che cos’è la LIS?
La LIS è la Lingua Italiana dei Segni ed è utilizzata da coloro che non sono in
grado di usare la lingua Italiana scritta o orale.
Ogni comunità ha la propria lingua dei segni; quella Italiana è diversa da quella
americana per esempio e nella stessa Italia ci sono differenti dialetti.
La LIS è basata sui “segni”. I segni sono il risultato della
combinazione di differenti parametri.
“La macchina di mamma” diventa “Mamma+ Macchina + Sua”
Combinando i cheremi in nuovi modi è possible crere nuovi segni
Non manuali
Espressione facciale
Comportamento orale
Postura
Manuali
Movimenti delle mani
Orientamento delle mani
Disposizione nello spazio
Configurazione
Ciascun segno si ottiene combinando le unità minime di
significato, chiamati cheremi. I cheremi sono ordinati sulla
base delle specifiche regole sintattiche della LIS.
16. GoogleGlass4LIS
un progetto di
in collaborazione con
sponsorizzato da
GoogleGlass4LIS
È il primo progetto sperimentale che vuole sviluppare un App per
I Glass destinata alle persone sorde per permettere loro una
completa fruizione dei musei
18. come funziona?
All’interno del museo
l’utente indossa i
Google Glass e si
sofferma sulla statua
di interesse
I Google Glass
visualizzano
l’avatar sul display
L’App
GoogleGlass4LIS
riconosce la statua
sulla base della
posizione all’interno
del Museo
Le informazioni sulla statua
sono collegate alla
corrispondente traduzione
in LIS prodotta dalla
piattaforma ATLAS che
sono rese tramite un avatar
virtuale che segna la LIS.
1
4
2
3
20. la piattaforma ATLAS
GoogleGlass4LIS è basato sulla piattaforma ATLAS (Automatic Translation into Sign Languages), frutto di un
importante progetto coordinato dal Politecnico di Torino e iniziato nel 2009 con i finanziamenti della Regione
Piemonte e della Comunità Europea.
La piattaforma è in grado di tradurre un testo dall’Italiano scritto o orale in LIS. La piattaforma crea un avatar in
real time che può poi essere visualizzato su qualsiasi device digitale (compresi ovviamente i Google Glass).
Input:
Sottotitoli
Audio
Audio/Video
Testo*
Formato
Intermedio
“Segni” in LIS
*ATLAS core
Meteo
Stazioni Ferroviarie
Musei (in corso di creazione per il progetto)
…
SET di VOCABOLI
21. (r)evolutions
Sviluppare un’App utile
per molti altri tipi di
disabilità o bisogni
educativi speciali: con
sottotitoli, per bambini,
stranieri, …
Rendere l’intero
museo interattivo
grazie ai sistemi di
indoor positioning
Esportare il modello
anche al di fuori dei
musei, magari per
rendere più accoglienti
le città?