🎧 New: AI-Generated Podcasts Turn your study notes into engaging audio conversations. Learn more

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Full Transcript

Quando si parla di usabilità si parla di software/applicazioni facili da utilizzare. L’esperienza utente (UX) è un termine che deriva dal mondo dell’human-computer interaction ed è un sovrainsieme dell’usabilità, è l’esperienza complessiva che l’utente ha in un’applicazione digitale. Il termine pers...

Quando si parla di usabilità si parla di software/applicazioni facili da utilizzare. L’esperienza utente (UX) è un termine che deriva dal mondo dell’human-computer interaction ed è un sovrainsieme dell’usabilità, è l’esperienza complessiva che l’utente ha in un’applicazione digitale. Il termine persuasione fa riferimento ad un’area (tra l’informatica e la psicologia) ed è lo studio di come le esperienze digitali può influenza il comportamento di un utente. Sono tutte le emozioni che l’utente prova (che sono molto soggettive, mentre l’usabilità è oggettiva). Cos’è la realtà? Perchè noi possiamo percepire la realtà dobbiamo recepire degli stimoli, come percepisco gli stimoli? Attraverso i sensi. La realtà è una elaborazione degli stimoli che viene effettuata dal nostro cervello. Percezione: la percezione è un processo che avviene nel nostro cervello, che ha dei bug (che sono le illusioni). Un tipo di illusione può essere dato dalla prospettiva, altre illusioni possono essere date dalle forme (es. regola di gestalt dove vediamo le forme date dagli spazi vuoti in un’immagine). 1 Le Ames Window sono finestre con un tubo che le oltrepassa. Quando la finestra ruota il tubo cambia direzione rispetto alla finestra, tutto si muove assieme, è una semplice illusione dovuta dalla percezione. Il trucco sta sempre nel fatto che la finestra è trapezioidale. L’ultimo esempio è sui colori, se vediamo i colori dei cerchi noteremo colori diversi, però i cerchi sono tutti bianchi, l’illusione è dovuta dal nostro cervello che non utilizza dei meccanismi assoluti per riconoscere l’immagine ma sono relativi (influenzato da cosa c’è immediatamente vicino), il cerco è bianco ma le righe attorno sono di un altro colore che mandano in tilt gli algoritmi di percezione del colore. Cosa sono i colori? I colori non esistono, sono creati dalla nostra percezione, i colori sono parte dell’esperienza utente ma non sono veri, ciò che è vero nel mondo è la luce e differenti frequenze. La percezione dei colori può essere differente da persona a persona o anche da animale a animale perché ogni persona può ricevere differenti frequenze, il 7% delle persone ha dei disturbi nel vedere i colori. La realtà per gli umani è derivata dalla percezione elaborata dal nostro cervello, il nostro cervello decide cos’è reale e cosa non lo è, non è una cosa oggettiva. Utilizzando a lungo degli occhiali “up side down” il mondo ci sembrerà essere strano senza di essi perché siamo abituati a vedere il mondo in una determinata maniera. La realtà virtuale possiamo averla anche nei film (Avatar, Matrix, ecc..), attraverso la realtà aumentata e la tecnolgia è possibile creare dei sogni lucidi, un’esperienza da sogno. Come la realtà è nei film? In Matrix seppur coesistono entrambi mondi la gente è in grado di distinguere quando si è nel mondo reale e quando nel mondo virtuale, in questo caso la realtà virtuale è perfetta. Il problema sorge quando come si decide quando inizia la realtà virtuale e finisce il mondo reale? (soprattutto quando si esce da un videogame in VR) Non è possibile. Nei libri come Cyberpunk la realtà virtuale è al centro dell’attenzione. Nel libro “Neuromancer” di William Gibson, scritto nel 1982, descrive un mondo dove ogni cittadino vive in un mondo virtuale chiamato “Matrix”, le persone utilizzano gli headset per navigare in questo mondo virtuale. Neal Stephenson scrive nel 1994 “Snow Crash” che si ispira all’attuale Metaverso che c’è oggi, il metaverso è un mondo astratto in cui tutti i dati e i siti web sono oggetti virtuali, si può volare ecc.. 2 Esattamente come possiamo parlare di illusioni ottiche e acustiche esistono le Illusioni Sociali: molti input per il nostro cervello sono delle semplici parole, anche le parole possono creare illusione. Una donna nei primi 23 anni della sua vita ha cambiato sempre città perché suo padre era cacciato dalla mafia. Dopo i 23 anni lei ha scoperto che sua madre era pazza, era solo un illusione, ha vissuto in un mondo virtuale per 23 anni. Lo storytelling è una parte molto importante per creare una buona illusione, anche in un VR world abbiamo bisogno di un buon storytelling per far sembrare tutto reale. LA PRIMA REALTA’ VIRTUALE CHE ABBIAMO AVUTO SONO STATI I LIBRI, CHE CI PERMETTONO DI VIVERE IN UN MONDO VIRTUALE APPUNTO. Realtà vs Percezione: Distal/enviromental stimuli: sono gli stimoli che vengono prodotti dall’ambiente nel mondo reale; Proximal stimuli: è ciò che entra dentro i nostri sensi: i nostri sensi non sono in grado di ricevere tutti gli stimoli (es. non vediamo gli infrarossi). Attended stimolous: bisogna mettere attenzione per non perdere lo stimolo anche se è percepito; Su quello che percepiamo cerchiamo di riconoscere delle situazioni che ci permettono di capire cosa fare. Il dizionario webster dice che: La realtà: è qualcosa che esiste indipendentemente dalla percezione, è qualcosa di obiettivo; La virtualità: esiste nell’essenza o in effetto, ma non nella realtà oggettiva (a differenza del punto precedente); La realtà virtuale: o Merriam Webster nel 2016: La realtà virtuale è un ambiente artificiale in cui l’utente ha esperienza attraverso diversi sensi (come suoni e immagini) che sono forniti dal computer, le azioni dell’utente determinano parzialmente cosa accade nell’ambiente artificiale; o Jerald nel 2016: La realtà virtuale è un ambiente digitale generato dal computer che può fornire un esperienza e dove si può intergire se l’ambiente fosse reale. Ci sono numerosi studi che provano a mostrare come la realtà virtuale può confondere il nostro cervello facendoci vivere dei sogni lucidi. Slater è uno dei pioneri della realtà virtuale in europa, il primo stadio individuato da Slater si chiama virtual pits, ha misurato la conduttanza cutanea durante l’esperienza di vr e ha notato che andava a picco quando accadeva qualcosa di molto pauroso nell’ambiente virtuale. Sempre Slater conduce un esperimento sul camminare sulla barra (Beams), utilizzando dei sensori per l’elettromiografia riesce a rilevare come le persone che pensano di camminare su una barra nel mondo reale (ma che in realtà è stata tolta e dunque camminano sul pavimento). Le persone che sono nel mondo virtuale producono degli stimoli rilevati dal sensore dell’eletrromiografia identici a 3 quelli delle persone che relamente stanno camminando sulla barra (nel mondo reale), questo ci fa capire come l’illusione sia perfetta e inganna il cervello producendo degli stimoli reali. Diversi anni fa è stata simulata una catastrofe area utilizzando le macchine fMRI (risonanza magnetica immaginaria funzionale), è molto difficile fare questi tipi di operazioni perché il campo magnetico che c’è nella macchina fMRI potrebbe uccidere l’utente che si sottopone all’esperimento (se si utilizzano degl headset, per la realtà virtuale, comuni) per l’esperimento sono stati utilizzati headset e joystick senza campo magnetico. I dati fuoriusciti hanno dimostrato come il cervello nella realtà virtuale risponde come nella realtà fisica, quando l’utente finisce per chiedere aiuto (nella simulazione del mondo virtuale) si nota un attivamento di un’area del cervello chiamata “insula” che rivela l’empatia. L’area dell’insula è fortemente attiva fin quando si prova ad aiutare il personaggio ad uscire dalla trappola, quando si abbandona il personaggio per le fiamme elevate quest’area “si spegne”. Per coinvolgere al massimo l’utente in una esperienza di realtà virtuale bisogna: Sapere come funziona la percezione umana; Sapere come funziona l’interazione (in vr non si usa il mouse e la tastiera); Non si conoscono i principi di design; Sapere che l’esperienza varia in base alla dimensione sociale dell’utente; Limitazioni legate alle tecnologie (aspettative esagerate sull’hardware); Quando una nuova tecnologia diventa popolare le persone vogliono iniziare ad utilizzare questa tecnologia, molte volte queste persone potrebbero avere problemi nell’utilizzo delle nuove tecnologie quindi sorge la domanda, di quale tipo di esperienza c’è bisogno? Il cono delle esperienze è una classifica utilizzata nel mondo dell’apprendimento inventata prima dell’avvento della realtà virtuale, è una lista organizatta per livelli su come creare una esperienza utente per gli umani. L’esperienza più astratta è il testo, tra l’esperienza astratta e qualla più diretta l’utente viene coinvolto in prima persona nelle dramatized experiences (si fa un gioco di ruolo), nelle contrived experiences (si costruisce qualcosa che permette alle persone di sperimentare alle persone in modo realistico, in questo livello subentra la realtà virtuale). L’esperienza più concreta è un’esperienza diretta (es un viaggio, l’esperienza più astratta sarà leggere un libro sui viaggi, quella più diretta sarà effettuare il viaggio). Jerald esplicita delle linee guida per il buon design di un’esperienza virtuale: Gli umani danno più peso all’esperienza utente anzichè alle tencologie che vengono utilizzate ma chi progetta le esperienze in realtà virtuale pensa più alle tecnologie che alle esperienze stesse; L’interfaccia deve essere semplice e armonificata per semplificare la comunicazione tra utente e tencologia (l’utente si deve dimenticare di star utilizzando un software); Il design deve creare delle emozioni nell’utente (anche attraverso situazioni sorprendenti); 4 Bisogna creare un buon storytelling e avere un design dell’ambiente circostante bello per invogliare l’utente; La realtà virtuale può essere definita a tutti gli effetti una forma di comunicazione, stiamo comunicando qualcosa ad un cliente, lavorando anche con le sue emozioni. Già dal 19 secolo si è tentato di creare la realtà virtuale attraverso lo stereoscopio, degli occhialini che facevano vedere due immagini (essendo le due immagini diverse si aveva l’illusione di vedere in 3D).Negli anni 10-20 nel mondo dell’aviazione si pensa di dover addestrare le persone per evitare troppi morti, vengono così creati i primi simulatori di volo, negli anni 70’ con l’avvento della computer grafica si ha la prima grande differenza (si potevano simulare situazioni metereologiche ecc..). Cosa ha contribuito alla riduzione degli incidenti? I simulatori che sono abili a riprodurre le emergenze durante il volo, questo permette di salvare persone. Sensorama è stato inventato nel 1962, il sensore voleva creare il cinema del futuro, immersivo. Lo spettatore è seduto su una sedia con un motore, l’immagine è in 3d, il suono è stereo, questo permette di creare una spazialità del suono. Il sensore non ha funzionato perché era molto avanzato, l’industria cinematografica non era pronta a lanciare un prodotto del genere (anche per i costi elevati dato che ci doveva essere un sensorama per ogni spettatore). Nel 1968 Ivan Sutherland (il più grande pionere dell’human interaction dato che ha inventato anche il mouse, le teleconferenze) ha creato il primo display vr che veniva montato in testa. La camera era sulla testa, dietro e le immagini venivano riprodotte sulle lenti presenti davanti agli occhi. Il tracciamento della testa era meccanico, quanto l’utente si muoveva la cinepresa si muoveva perché sopra la testa dell’utente. Nel 1993 fu creato il primo virtual display che viene montato sulla testa. Furono creati diversi “caschi” per la realtà virtuale, la maggior parte costavano molto. L’esperienza utente non era buona, le grafiche non erano adatte perché troppo piccole (non coprivano tutto il campo visivo dell’utente). I caschi furono prodotti solo per i colossi più grandi, ma non furono apprezzati. Sempre negli anni 90 la realtà aumentate diventa materia di ricerca e sviluppo. Il periodo che va dal 2000 al 2010 viene chiamato “VR Winter”. Molti progressi scientifici vengono fatti in questo decennio, la medicina entra nella realtà aumentata per istruire i dottori, in ambito neuroscientifico viene utilizzata per migliorare gli esperimenti sul cervello. La comunità dei videogiocatori utilizzerà i VR solo in un secondo momento, questo perché ci volevano motori speciali per far girare i videogiochi sul VR. Nel 2022 ormai non ci sono più molte differenze tra la comunità di videogiocatori e utilizzi del VR per scopi medici, questo perché i motori grafici si sono sempre più evoluti. Oculus VR: Nel 2012 viene fondata da John Karmack attraverso una campagna di crowdfounding, l’idea è produrre VR head-set per tutti, ad un prezzo popolare. L’idea è di utilizzare gli stessi display degli smartphone, un pannello per l’occhio sinistro uno per il destro. Nel 2013 viene realizzato il primo prototipo di VR da Oculus ma aveva molti problemi. Nel 2014 viene realizzato il secondo prototipo, l’evoluzione di quello precedente, conquista l’industria e Facebook acquista Oculus VR. 5 Nel 2016 molte compagnie elettroniche realizzano il proprio VR: Samsung (Gear VR) Sony (Playstation VR) HTC (Vive) Google (realizza diversi progetti, Cardboard, Daydream, Magic Leap) Microsoft (Hololens) Solo Apple non realizza un prodotto del genere (tra le compagnie più grandi). Le analisi di marketing dicevano che la realtà aumentata avrebbe raggiunto un tetto di 150 miliardi di dollari nel 2020 (cosa non accaduta). Nel terzo quadrimestre del 2017 Sony dominava il mercato dei VR ma questo è subito cambiato, nel 2019 oculus è diventato il leader indiscusso (seguito da Sony e HTC). Nel 2021 viene fondata Meta, Zuckemberg ci crede così tanto che tutte le aziende rientrano nel gruppo Meta (da Metaverso) per creare dei social che creano un mondo virtuale. Forme di realtà: Il collegamento tra realtà virtuale e realtà aumentata è continuo, non si passa da realtà fisica a realtà virtuale con stacchi netti, il cambiamento è progressivo. Definizione di alcuni termini: Realtà aumentata: quando un dispositivo tecnologico proietta delle immagini che si sovrappongono al mondo reale, aggiungere con il digitale degli stimoli sintetici al mondo reale. Possiamo avere vari livelli di intensità di realtà aumentata (quanta percentuale di realtà aumentata è propiettata sul mondo reale). Es. Quando sull’automobile vediamo sul vetro proiettate delle indicazioni del navigatore ma noi con gli occhi stiamo vedendo il mondo reale. Virtualità aumentata: c’è talmente tanto digitale che , un mondo al 95% digitale e al 5% reale (es. sono in un videogioco con dei robot che hanno un display con la faccia di un essere umano). Quando siamo in livelli intermedi possiamo dire che siamo nella mixed reality (non siamo nè nel mondo reale nè nella realtà virtuale). Quanto l’hardware ti isola dall’ambiente esterno? Immersivo: se diciamo che un dispositivo è immersivo intendiamo che quel dispositivo isola l’utente dall’ambiente attorno a lui (ad esempio il CAVE). Non immersivo: è un dispositivo che ci fa vedere il mondo virtuale ma che non ci isola dall’ambiente circostante (ad esempio utilizzando un monitor del computer, del telefono, ecc.). 6 Esistono tre tecniche principali per creare la realtà aumentata e queste sono: 1. Utilizzare dei proiettori dentro una stanza che sovrappongo immagini virtuali in un mondo fisico; 2. Un dispositivo see-through (lenti trasparenti) che permettono di mixare mondo reale e virtuale; 3. Camere che registrano cose del mondo fisico e le insericono nel mondo virtuale (es. robot con immagini di umani); La realtà aumentata nasce negli anni 90’, uno dei problemi della realtà aumentata è il registration problem l’oggetto in realtà aumentata non si sincronizza bene con l’utente (ad esempio il cane che va sull’utente e viene tagliato). Per creare un mondo virtuale abbiamo bisogno di: Hardware: per raccogliere il comportamento dell’utente (dov’è l’utente nella stanza? Dove sta guardando?); Software: come costruttore del sistema o Modelli geometrici 3D; o Animazioni in 3D; o Un motore di rendering in real-time: è colui che genera l’immagine, esiste anche il rendering in non real-time, ma non è realtà virtuale! (il minimo di fps per una buona performance nella realtà aumentata è 25fps, oggi si è passato ad almeno 70fps); In un computer quando creiamo un’esperienza virtuale accade: Rendering: il motore di rendering parte dalla descrizione delle geometrie, materiali, luci ed emana in output il mondo che noi vediamo nella nostra applicazione in VR. Applicazione: rileva se ci sono degli eventi particolari nel mondo virtuale; Tracking: tracciamo cosa fa l’utente, quando l’utente effettua un movimento il motore di rendering dovrà ricostruire il mondo in base alla prospettiva che vede l’utente. È molto importante considerare gli input che utilizza l’user, a volte bisogna tracciare i movimenti dell’user (se l’utente guarda a destra la nostra app in VR dovrà mostrarci cosa c’è a destra). Nel creare un’esperienza virtuale dobbiamo fare i conti con la potenza del computer, bisogna creare dei giusti compromessi per far sì che tutti gli utenti riescano a riprodurre la realtà virtuale dai propri device, i tre parametri da tenere sempre in conto sono: Frame rate: senza un frame rate adeguato l’utente non si sentirà a suo agio, sotto una certa soglia non si può scendere perchè creerò sickness; [LIVELLO DI PRIORITA’ 3] Qualità dell’immagine: più l’immagine sarà ricca di dettagli più l’utente si sentirà appagato; [LIVELLO DI PRIORITA’ 1] Fedeltà della simulazione: quanto quello che stiamo vedendo potrebbe accadere nel mondo fisico; [LIVELLO DI PRIORITA’ 2] 7 Visual Displays: Head Mounted Displays (HMD), si dividono in due categorie: Non see-trought: non mi permettono di vedere attraverso il casco, mi isolano; See-trought: mi permettono di vedere attraverso il casco, ci sono due modi per permettere di vedere pezzi del mondo esterno: o Ottico: tipo il Microsoft hololens, degli occhiali, nel vetro ci sono gli elementi della realtà virtuale; o Video: non hanno superifici trasparenti ma hanno una camera che filma il mondo fuori; World Fixed Displays, non si muovono con la testa ma restano fermi in un punto del mondo, non si indossano: Desktop; CAVE: anzichè mettersi il casco in testa si trasforma la stanza in realtà aumentata, si mettono degli schermi attorno alla stanza per fare ciò; Hand-Held displays sono applicazioni di realtà aumentata che girano su tablet e smartphone. Parametri importanti per gli head mounted display: 1. Il FOV, molte volte le società non fanno differenze tra orizzonta e verticale, comunicano solo la diagonale del FOV. Il field of view (FOV) è il campo di visione, è la parte del campo visivo che viene coperta dal caso, il deve essere vasto, per caprie quanto bisogna capire come funziona l’occhio umano: Orizzontale (210°), se vedessimo bene in tutti i 210° ci vorrebbero bisogno di 378.000 pixel orizzontali, però l’essere umano; Verticale (135°); Sopra (60°); Below (75°); 8 Il primo cono è di 30°, è quello rosso, in questo cono possiamo vedere in 3d visione stereostopica e in modalità focus. Andando dopo abbiamo il cono viola di 60°, siamo in 3d, stereostopica, ma non mettiamo a fuoco i dettagli. Nei 120° non vediamo in maniera sterostopica, non riusciamo a mettere a fuoco i dettagli, non vediamo in 3d. Nell’ultimo campo di visione 180° riusciamo a vedere solo se qualcosa si muove, non riusciamo minimamente a mettere a fuoco. Field of regard (FOR): è ciò che riusciamo a vedere anche muovendoci, dunque di 360° (muovendo il corpo, non solo la testa). Il field of view per gli HMD viene misurato in maniera diagonale: Oculus Rift: 110°; Oculus Rift S: 115°; HTC Vive: 110°; Vive Pro: 110°; Con 110° di FOV vedi delle aree nere nelle parti esterne anche se è una misura accettabile. 2. La risoluzione, il display non è come un monitor, un headset ha due monitor diversi, uno per occhio. Il refresh rate è il numero di volte al secondo in cui viene refreshata l’immagine. DOF sta per DEGREES of FREEDOM quanti gradi è in grado di tracciare l’HMD, 6DOF sta per 6 gradi di libertà, 3DOF significa che la tecnologia riesce a tracciare le coordinate XYZ (dove stiamo mettendo la nostra testa nello spazio, dov’è il corpo) + altri 3DOF che sono le rotazioni della nostra testa sui 3 assi(XYZ): Destra/sinistra; Inclinata in avanti e dietro; Inclinata a destra e sinistra; Se nel casco ci sono solo 3DOF non ci sono gli spostamenti sull’asse XYZ, si possono fare solo le inclinazioni. La tracking area è larga l’area che che l’HDM riesce a tracciare attorno a te, il Vive Pro usa la tecnologia laser, attraverso questo laser abbiamo 6x6m. Il DOF funziona anche per i controller, uno per quello sinistro e uno per quello destro, funziona in MANIERA IDENTICA al DOF per i caschi. Prima si potevano avere 6DOF solo se si era connessi al pc con i cavi, si è proposto di creare dei caschi stand-alone per togliere questo limite di 3DOF (questo ha molti limiti perché riesce a tracciare solo i movimenti della testa, non il “mondo esterno”). Un aspetto molto importante sono i movimenti del corpo, l’interazione che l’utente ha attraverso questi movimenti. 9 Più il FOV è largo più si vede l’immagine e meno nero. Se si ha la risoluzione uguale ma il FOV è più grande in un headset, la qualità sarà maggiore all’headset con il FOV maggiore. Se si cerca di aumentare o diminuire la luce nel mondo virtuale non si può, nella realtà aumentata siamo in contatto con il mondo reale dunque gli oggetti quando vengono in contatto con la realtà cambiano a seconda di quanta luce c’è. Dream Glas Lead Pro: c’è una camera di alta qualità (13mpx) che riproduce le immagini sulle lenti degli occhiali, in questa maniera la luce non riesce ad oltrepassare le lenti perché sono display. Varjo XR-3: è utilizzato per la realtà aumentata ma ha caratteristiche da realtà virtuale, ha due display, uno per occhio, uno è grande e uno è piccolo, c’è uno specchio che riflette lo schermo che c’è sotto, quando la parte centrale dell’occhio guarda dritto la risoluzione sarà massima. Meta Quest PRO: può supportare sia la realtà aumentata che la realtà virtuale, uno dei problemi è che essendo portatile le batterie tendono a durare poco. Alcuni caschi hanno un eye-tracking integrato, passano le informazioni al computer di dove stiamo guardando. Il face-tracking è molto di moda in Meta perchè crede nel concetto di incontri nel metaverso, l’idea è che delle telecamere nel casco mappano la faccia e riproducono le smorfie facciali. L’hand-tracking significa che possiamo utilizzare le mani senza i controller (es. Oculus Quest permette di utilizzare l’app senza controller). Ogni headset serve per determinati compiti: Se la nostra applicazione ha bisogno di una visualizzazione a 360° dobbiamo utilizzare un HMD, casco (head mounted display, i display standard non riescono ad avere un FOV di 360°). Dobbiamo utilizzare ovunque il nostro HMD? La soluzione ideale è Stand Alone. Dobbiamo cambiare sempre tra realtà aumentata e realtà virtuale? See-trought HMD Se voglio che l’intero campo visivo dell’utente (210°) sia coperto devo utilizzare un CAVE perchè ricopro tutti i gradi ad alta risoluzione. L’audio è un aspetto molto importante per rendere più reale l’esperienza in realtà virtuale, per l’audio si possono utilizzare: Cuffie: è la scelta meno costosa o Aperti: se qualcuno ti chiama lo riesci a sentire, il lato negativo è che l’esperienza non è totalmente immersiva. o Chiusi: sono la scelta migliore, pressano le orecchie e il suono del mondo reale non penetra. Il lato negativo è che dopo diverso tempo le orecchie potrebbero risentirne. Loudspeakers: sono speaker inseriti nel HMD, vicino gli straps (sono stati introdotti dagli Oculus Go & Quest). Sono estramente comfort ma il problema è che le orecchie essendo totalmente libere possono sentire altri suoni. Un’altra soluzione potrebbe essere installare gli altoparlanti nella stanza, il problema è che 10 se la persona si muove non riusciamo a determinare la quantità di volume da un lato anzichè da un altro. Per dare l’illusione della spazialità Le tre dimensioni con le quali si possono classificare l’hardware aptico: 1. Tattili: senso di tocco sulla pelle, no forza (es. vibrazione delle smartphone quando clicco sulla tastiera); 2. Proprioceptive: oltre al sensazione di tocco c’è la sensazione di forza (occorrono dei motori che esercitano una resistenza/spinta); Come creiamo queste sensazioni? In maniera passiva: toccando oggetti fisici in una stanza che sono perfettamente sincronizzati con gli oggetti virtuali (es. un paziente in un letto da operare). Il pregio è che non si deve inventare nulla di nuovo, il difetto è che si devono comprare ogni volta oggetti per adattare la stanza alla scenza virtuale; In maniera attiva: la sensazione di tocco è controllata dal computer attraverso delle periferiche. Il pregio è che si compra una volta l’oggetto e si è apposto, il difetto è il tipo di feedback che viene restituito all’utente; Le periferiche possono essere: Self-grounded: Indossate dall’utente senza che siano connesse tramite periferiche esterne; World-grounded: Poco mobili perchè connesse tramite periferiche esterne.; Touch/Phantom: è una sorta di robot che offre una penna, si muove la penna nello spazio. Il motore nel “robot” da una forza per restituire un feedback alla mano. Il limite è che il robot è fermo dunque non ti puoi spostare molto nello spazio reale. Manus VR: sono dei guanti che se indossati danno dei feedback tattili (vibrazioni), se si prende un oggetto non si sente la presenza dell’oggetto in mano. Ogni dito ha un motore che da l’illusione che l’oggetto è bloccato dalle dita (non dalla mano). HaptX: è il dispositivo più giovane, riesce a dare sensazioni tattili su tutta la mano (non solo sulle singole dita), se ad esempio sta piovendo, il dispositivo riesce a ripodurre la sensazione della pioggia sulla mano (attraverso un sistema idraulico, quindi non siamo liberi). Motion platform Se si si vuole creare un simulatore di volo professionale si dovrebbe utilizzare una motion platform che attraverso l’accellerometro riesce a restituire quella sensazione di esperienza realistica. Esistono anche motion platform con 2DOF (degrees of freedom) 3DOF o 6DOF, sui motion platform c’è una piastra che si muove sull’asse X e Y per 3DOF e 6DOF [che riesce a muoversi in tutti i punti dello spazio]. Treadmills (tapisroulant): servono per farti camminare in grandi spazi (se hai una piccola stanza e hai bisogno di spazi molto grandi in cui camminare). Devono supportare i movimenti in tutte le direzioni e ciò rende difficile creare un tapisroulant per la realtà virtuale. Possiamo due tipi di tapisroulant: 11 Attivi: tipo un tapisroulant, se il tapisroulant si muove l’utente riesce a muoversi; Passivo: attraverso delle scarpe l’utente è fermo in uno stand e riesce a correre in tutte le direzioni. Il lato negativo è che c’è un feeling negativo, semnbra di camminare sul ghiaccio, di fare skate. Il tapisroulant è fermo ma l’utente riesce a muoversi; Le principali applicazioni della realtà virtuale li ritroviamo in: Virtual Prototyping: la realtà virtuale viene utilizzata per costruire una situazione che vediamo sperimentare per prendere delle decisioni (case study: La Ford ha creato il suo virtual reality center che ha una parte della macchina, quando l’utente indossa il casco vede la macchina nell’interno, i risultati sono che la ford ha diminuito 6 mesi nel tempo d’acquisto di una vettura). Tutte le virtual prototyping applications rispondono alla domanda: COSA ACCEDREBBE SE...? Non simuolo una situazione magari irreversibile dal vivo ma in VR; Training: in questo caso FACCIO DELLE COSE NEL MONDO VIRTUALE PER RIFARLE NEL MONDO FISICO (es. simulatore di volo). In questo settore rientrano: o Applicazioni di apprendimento: qualcuno non sa fare qualcosa ed impara a farla (ha senso utilizzarla per situazioni molto costose, (es. istruire un astronauta a capire cosa accadrà quando sarà nello spazio); o Distributed Mission Training: questa tecnica utilizzata per il traning nel settore dell’aviazione prevede che una coppia di piloti vengano addestrati contemporaneamente in due o più simulatori diversi (è utilizzata prevalentemente in ambito militare); o Medicina: paroscopia, endoscopia e artroscopia, sono alcune delle possibilità che vengono offerte ai giovani medici per fare training; o Polizia: fin quando i poliziotti non si trovano in situazioni particolari non sapranno come comportarsi; Il negative training è quando un sistema restituisce feedback non realistici Applicazioni VR: viaggi, turismo, e-commerce. Durante il lockdown questa moda è aumentata notevolemente. Boenia Interactive ha iniziato a collaborare con l’esercito modificando il proprio game engine, il successo è stato enorme perché ha permesso agli eserciti di simulare le missioni in qualsiasi parte del mondo, anche con mezzi. I contesti educazionali della realtà virtuale sono: Formali: quando viene utilizzata la realtà virtuale a scuola; Informali: ad esempio in un museo viene utilizzata la realtà aumentata per rendere immersiva l’esperienza (senza rovinare le opere vere e proprie); Formazione a distanza: l’e-learning sta prendendo piede, molti corsi di formazione si stanno spostando online, dato che l’elearning è basato su web browser attraverso webgl possiamo utilizzare la realtà aumentata; Training per il lavoro: la realtà aumentata che permette di diventare chirugo, pilota di aerei, cassiere di wallmart; 12 Educazione per persone con disabilità fisiche, cognitive, ecc….si è notato molto che il computer aiuta le persone autistiche in contesti di social learning,per esprimersi meglio. I caschi sono adatti solo in situazioni di alto funzionamento; Emozioni che aiutano alla memorarizzazione; Esistono varie scuole di pensiero molte entusiaste della realtà virtuale (come quella del costruttivismo) dato che veniamo coinvolti itellettualmente e fisicamente in compiti che secondo noi hanno uno scopo, la realtà virtuale ci permette di imparare vivendo. Gli aspetti positivi secondo il costruttivismo sono: Interattività: faccio e vedo i risultati delle mie azioni; Esperenziale: posso vedere il mondo sotto diverse prospettive (sia la mia che quella delle cose che mi sono attorno; Apprendimento situato: le cose si apprendono nell’ambiente in cui si dovranno applicare (perchè la nostra memoria è parzialmente contestuale), è perfetto per i lavori; Apprendimento del corpo: il cervello registra la posizione dei muscoli nell’istante in cui apprende le cose, coinvolgendo il corpo con i movimenti rafforzo la memorizzazione con la conoscenza; Ambiente multisensoriale: essendo la memoria umana multimodale, più stimoli vengono dati ai diversi sensi più sarà semplice memorizzare un’esperienza; Dimensione sociale: quando faccio comparire un personaggio e mi parla come se fosse una persona, una parte del cervello si attiverà per percepire informazioni; Emozioni: le emozioni mi renderanno più semplice ricordare l’esperienza vissuta; Essendo 3D la realtà virtuale permette a studenti di medicina di semplicizzare lo studio (stanno uscendo atlanti anatomici virtuali che cercano di migliorare lo studio e l’apprendimento dello studente). Stessa cosa può essere fatto con la geografia, utilizzando Google Earth VR puòessere molto più semplice apprnedere le dimensioni del mondo. Molte esperienza di realtà virtuale sono state create sul web attraverso webgl. VR Per l’arte: l’uso della realtà virtuale da parte degli artisti avviene mediante un tool di disegno 3D (es. Tilt Brush di Google), nella mano sinistra c’è il catalogo virtuale e con la mano destra si disegna, l’evoluzione sta anche nel fatto che si possono aggiungere degli effetti dinamici. È molto interessante la possibilità di cambiare il punto di vista per vedere come sta procedendo l’opera. Per rendere più verosimile l’esperienza si può utilizzare una tela e un pennello per sfruttare l’aptica passiva. VR Per il cinema: negli utlimi anni si sta pensando di rendere il cinema immersivo dando la possibilità di vedersi attorno nella scena, questa cosa rompe totalmente gli schemi del cinema tradizionale perchè una volta era il regista a scegliere cosa l’utente doveva vedere, ora non è più così; l’attenzione dell’utente va dove vuole quindi il nuovo compito del regista è creare degli stimoli che catturino l’attenzione. Altri applicazioni della realtà virtuale nel cinema possono essere nella dimensione non lineare, in questo caso è l’utente a prendere delle decisioni che determinano lo sviluppo della storia. 13 Quando si leggono articoli e libri sulla realtà virtuale tre parole molto ricorrenti sono: 1. Presenza: è la percezione di un utente di essere presente in un mondo virtuale, significa essere lì, come se siamo in uno spazio fisico. Ci sono avvenimenti (ad esempio l’hardware che perde il tracking) che mi fanno ricordare che in realtà non sono nel mondo virtuale ma sono in un luogo fisico, questi avvenimenti vengono chiamati break-in-presence (rottura della presenza). Nel dare l’illusione die ssere presenti conta molto: Raffigurare un mondo con stabilità: in stereoscopia vedo oggetti a varie distanze, se sono realizzati male questi oggetti, nei mondi virtuali, varieranno la loro posizione, sono instabili Il corpo: il modo in cui viene rappresentato il nostro corpo può contribuire in modo positivo o negativo nella nostra esperienza, innanzitutto il corpo deve esserci, quando viene messo il corpo quest’ultimo deve muoversi in armonia con il corpo fisico. L’aspetto importante è la sincronia. Sensi: più i nostri sensi sono stimolati più abbiamo l’impressione di essere lì. Dimensione sociale: se un mondo è deserto (a meno che non abbia un senso) è irreale. 2. Immersione: abbiamo due tipologie diverse di immersione: 1. È legata all’hardware, in base alle caratteristiche dell’hardware scelte si determina l’oggettività, più le caratteristiche sono soddisfatte più l’esperienza sarà immersiva, queste caratteristiche sono: Estensione: quante più modalità sensoriali sono coperte dall’hardware che stiamo utilizzando (es. feedback aptico? Si/no;Feeback di forza? Si/no); Matching: quanto l’hardware riesce a rendere coerenti fra loro le modalità sensoriali (es. se la mano tocca la superifcie e sento la superificie vuol dire che il match è simile a quello della realtà); Sourrounding: la capacità di circondarci di questi stimoli (es. se applico una forza, questa forza la sento su tutti i 360°?); Vividezza: quanto l’hardware riesce a riprodurre l’intensità degli stimoli (es. troppa luce mi provocherà dolore agli occhi); Interattività: capacità dell’utente di interagire con il mondo virtuale, in questo caso è molto importante anche il software; Design dell’esperienza: quanto è coerente l’esperienza virtuale che stiamo facendo; L’immersione mi dice quanto riesce a stimolare l’utente come se fosse il mondo fisico (l’input che diamo con l’hardware). Se l’hardware non è immersivo la persona non si sentirà nel mondo (molti break-in-presence). È possibile che entri in gioco una condizione psicologica quando ci sono dei glitch (incoerenze negli stimoli che arrivano). MENTRE NEL PRIMO STATO LA PSICOLOGIA ENTRA IN GIOCO ALLA FINE IL SECONDO PUNTO BASA TUTTO SULLO STATO PSICOLOGICO Connessione immersione-presenza: 14 Una persona può essere immersa e presente quando c’è un buon hardware e non ci siano errori che creino break-in-presence; Una persona può essere immersa e non presente quando c’è un buon hardware e ci sono errori che creano una break-in-presence (es. latenza o glitch); Una persona può essere non immersa e non presente quando non c’è un buon hardware e ci sono errori che creano una break-in-presence; Manca la possibilità non essere immersi ma presenti perchè se l’hardware è disastroso non c’è presenza. 2. È uno stato psicologico (totalmente soggettivo ed indipendente dalla tecnologia). L’immersione è legata al coinvolgimento, a quanto ci si fa prendere dall’esperienza, se una persona è in un mondo virtuale ma non è presa dall’esperienza, è come se non fosse lì. I quattro livelli sono: 1. Nessuna immersione: se ad esempio utilizziamo un monitor del pc per giocare ad un videogioco e cerchiamo di imparare i tasti vedendoli, non sono immerso nel videogioco; 2. Coinvolgimento: la forza del coinvolgimento è determinato dalla storia, da quanto è interattivo il mondo (es. una volta che ho appreso i tasti gioco al videogioco visualizzando solo lo schermo, incontro altri giocatori online); 3. Assorbimento: l’attenzione è tanta sul mondo virtuale che perdo la cognizione del tempo reale (anche se non ho un casco in testa). Le mie emozioni dipendono da ciò che accade nel videogioco; 4. Immersione totale: la percezione dei miei sensi e la mia attenzione è esclusivamente sul mondo virtuale; Connessione immersione-presenza: Una persona può essere immersa e presente quando c’è un hardware normale (es. uno che gioca ad un gioco 3d su uno smartphone e su un pc); Una persona può essere immersa e non presente sì, quando una persona passa diverse ore a giocare ad un gioco ma non si sente presente nel mondo; Una persona può essere non immersa e presente quando un’esperienza in realtà virtuale non è coinvolgente ma l’ambiente in realtà virtuale ha un’ottima fedeltà; Una persona può essere non immersa e non presente quando una persona utilizza un software per scopi lavorativi (es. utilizzo di excel); Cosa aumenta o diminuisce il senso di presenza? Avere una sensazione di essere in un luogo spaziale stabile: sono i glitch, un problema hardware, sono tutti problemi che rovinano la stabilità del luogo. Se il mondo 3D non rispetta il sistema visivo umano per quanto riguarda la percezione di profondità prima o poi si avranno dei break-in-presence; Il corpo: quanto il mondo virtuale mi riesce a dare l’illusione di avere un corpo mi farà sentire presente (es. GTA 5 in VR non ha il corpo). Anche le dimensioni devono essere reali; 15 Interazione fisica: quanti sensi vengono stimolati dal mondo virtuale? Ritorno visivo, auditivo, aptico; Aspetto sociale: presenza di virtual human e quanta possibilità ho di interagire con essi; 3. Fedeltà: è riprodurre in modo realistico un ambiente esistente, avere la fedeltà assoluta singifica avere una perfetta fedeltà in tutt’e tre le categorie: 1. Fedeltà rappresentazionale: il mondo virtuale che abbiamo costruito riesce a trasmettere un’idea di essere un posto reale, se il nostro mondo virtuale è uno schizzo la fedeltà rappresentazionale sarà bassa, viceversa la fedeltà rappresantazionale sarà alta (ci sono anche i vari gradi intermedi); 2. Fedeltà d’interazione: quando le azioni che faccio nel mondo virtuale corrispondono a quelle che farei nel mondo fisico. Questa dimensione è molto importante per aspetti professionali (come il training di attività manuali); 3. Fedeltà esperenziale: quanto l’esperienza (soggettiva) che avrà l’utente nel mondo virtuale corrisponderà a quelle che sono le intenzioni del progettista. È il tipo di fedeltà più difficile da misurare. Un applicazione di training avrà più oggettività rispetto ad un videogioco. Questo lavoro può essere più complicato nei mondi free-roaming, le variabili sono talmente tante che è difficile progettare tutto al meglio; Per elaborare l’esperienza utente il modello di Norman può tornarci molto utile. I livelli dell’esperienza utente sono 4 e sono: 1. Viscerale: è legato alla fisiologia umana, il cervello umano è simile a quello rettile, è una parte di cervello che pensa alla sopravvivenza, questa parte si attiva al di fuori di ogni logica e ragione, se c’è un incendio davanti a noi il primo istinto è quello di scappare, dopo ragioneremo sul perché c’è stato questo incendio. L’esperienza virtuale deve dare presto emozioni viscerali, deve coinvolgere subito l’utente nell’esperienza. 2. Comportamentale: include le azioni che inizialmente prevedono un ragionamento ma che una volta appreso l’utilizzo non prevede, appunto, un ragionamento (es. aprire una porta). 3. Riflessivo: in questo livello l’utente pensa, pensa all’esperienza che sta vivendo, ad esempio se si dà in mano il telefono penso a cosa direbbero le persone di me se comprassi quel telefono. Nel mondo virtuale questo vuol dire che l’utente associa l’esperienza virtuale ad un’esperienza già avuta nel mondo reale. 4. Emozionale: se si fanno delle esperienze di intrattenimento gli utenti cercano sempre le emozioni, anche se le emozioni sono anche importanti in applicazioni come il training (un avviso di errore verrà ricordato più difficilmente rispetto al vedere un paziente che muore 16 nella realtà virtuale). È importante accertarsi che l’utente termini l’esperienza di realtà virtuale ad un livello emozionale abbastanza alto. È molto importante avere un buon livello viscerale e comportamentale per la cosìdetta prima impressione. Signifying cues: sono degli indizi che suggeriscono all’utente su come andare avanti nella realtà virtuale, seppur ciò non può accadere nella realtà l’utente accetta gradevolmente i signifying cues. Esistono anche i vincoli che permettono di ridurre la libertà dell’utente (nella realtà virtuale) per non fargli perdere tempo. Vengono utilizzati per far sì che l’utente non abbandoni subito l’esperienza in VR. Effettuando dei disegni dettagliati riusciamo ad ingannare la mente in mondi virtuali. Quali sono gli input delle percezioni umane? In ordine di importanza (e anche di cosa supporta l’hardware), noi interagiamo con il mondo virtuale attraverso: Vista: è il senso più importante, il nostro cervello dedica il 20% della corteccia celebrare per elaborare le immagini; Suoni; Tatto; Percezione: sentire la posizione che assumono i nostri muscoli; Equilibrio e movimento: dice al nostro cervello come siamo orientati nello spazio 3D; Olfatto: esistono dei nebulizzatori che spruzzano delle sostanze chimiche, sono poco utilizzate perché fanno venire facilmente il mal di testa; Gusto: esistono solo delle ricerche, è il senso meno importante in VR; La vista Nei due occhi entra la luce, onde luminose a varie frequenze che colpiscono la retina (una sorta di schermo) fatto di fotoricettori che riescono a tradurre la luce in una corrente elettrica (nel nostro caso il nervo ottico che è collegata alla corteccia celebrale). 17 La corteccia celebrale nella neuroscienza è divisa in: V1/V2: ci da la percezione dei colori, delle forme e dei dettagli; V3/V3a: si occupano di forma in movimento; V4: specializzata sugli aspetti del colore e dell’orientamento nello spazio; V5: si occupa solo dei movimenti; V sta per vision Come si è scoperto quale ciascuna di queste parti fa qualcosa? C’è stata un analisi su persone che hanno avuto incidenti che hanno danneggiato parti del cervello, se per esempio abbiamo un incidente e viene colpita l’area V5 non riusciamo più a riconoscere i movimenti dell’acqua (dato che non vedremo più le immagini con continuità) in un bicchiere, ci sembrerà un blocco di ghiaccio. Questa è un’altra dimostrazione che la realtà è costruita dal nostro cervello. Nell’area posteriore del cervello avvengono dei ragionamenti sulle immagini, ragionamenti che attraverso dei canali devono tornare avanti. I due canali che portano le immagini avanti, effettuano ulteriori elaborazoni su come noi dobbiamo agire nel mondo, i due percorsi sono: Il percorso dorsale riesce a determinare la distanza dell’oggetto rispetto a noi, ci permette di pianificare azioni (es. prendere un bicchiere sul tavolo). VISION FOR ACTION->ATASSIA OTTICA; Il percorso ventrale va nell’altra parte del cervello, questa parte del cervello ci permette di identificare un oggetto partendo dal colore, i segmenti, i dettagli. Se questo percorso è danneggiato riusciamo a prendere gli oggetti (ad esempio una penna) ma non riusciamo a riconoscere la penna correttamente. VISION FOR PERCEPTION->AGNOSIA VISIVA; I colori Quando creiamo un mondo virtuale dobbiamo prendere delle decisioni sui colori, i colori sui computer sono definiti tramite i codici RGB, anche se è difficile per chi crea l’esperienza mixare perfettamente la giusta quantità di RED GREEN e BLUE, per questo si utilizza la scala: 18 H (Hue): identifica il tipo di colore che vogliamo, giallo verde blue rosso; S (Saturation): è il numero che determina minore o maggiore vividità nel colore in base a ciò che vogliamo comunicare si determina la saturazioen B (Brightness): quanta luce l’occhio umano percepisce del colore, più è basso è il colore è definito, più la luce è alta più il colore sarà meno definito. C’è una teoria, chiamata Teoria Tricromatica, che è stata inventata alla fine del 900 che dice che gli occhi umani hanno 3 diversi elementi biologici che sono abili di ricevere lunghezze d’onda della luce, una specializzata sul blu, una sul verde e una sul rosso, sovrapponendo queste lunghezze d’onda abbiamo il colore. Nella seconda parte degli anni 2000 la teoria è stata confermata, la retina dell’uomo ha dei fotorecettori specializzati che sono chiamati coni, ci sono tre tipi di coni: 1. Specializzato su frequenze corte, corrisponde al blu; 2. Specializzato sulle frequenze medie, ossia il GIALLO/VERDE (circa 2mln di coni); 3. Specializzato sulle frequenze lunghe, corrisponde all’ARANCIONE/ROSSO (circa 4 mln di coni); La teoria tricromatica è vera ma non spiega tutti i fenomeni di percezione, come quello del post- immagini negative. Se ad esempio fisso un’immagine verde e poi sposto la mia vista su un’immagine bianca vedrò un rettangolo fantasma rosso (che è il colore complementare del verde), lo stesso effetto accade se chiudiamo gli occhi mentre vediamo il sole vediamo che il sole sarà nero, questo perché l’immagine sarà negativa (normalmente il sole è bianco). Un’altra teoria è stata inventata nel 900, ed è la Teoria dei Processi Opposti, le informazioni che il cervello ha provengono dalle nostre retina da 3 diversi canali: uno per il blu/giallo, uno per il rosso/verde, una per il bianco/nero Cosa succede se stimoliamo troppo il canale? Se stimoliamo l’occhio ad una lunga esposizione del colore rosso e poi vediamo un muro bianco, noteremo un flickering della freccia fino al colore rosso. Se c’è un malfunzionamento su due canali le persone vedranno in scala di grigi. In realtà virtuale la percezione dei colori migliora all’ingrandirsi degli oggetti (anche se l’illuminazione dell’ambiente rovinerà la percezione dei colori). La percezione dei colori cambia con l’età, se siamo stressati la nostra percezione dei colori sarà brutta, anche se il display che utilizzo è di bassa qualità non mi permetterà di distinguere un colore da un altro (sfumature di colore). Esistono anche problemi di daltonismo (persone che invertono i colori di un canale, il più frequente è il canale Rosso/Verde). Bisogna adottare colori safe (adatti anche al daltonismo) per favorire una buona fruizione dei colori anche a persone con problemi di percezione dei colori, oppure, la seconda soluzione è quella di non badare ad utenti con problemi di percezioni dei colori ma trasmettere informazioni con altri mezzi (come il testo). 19 Le aberrazioni cromatiche sono quando ad esempio in questa scritta vedremo le lettere fuori fuoco perché i colori sovrapposti fanno parte di due coni diversi. I COLORI COMPLEMENTARI NON VANNO SOVRAPPOSTI Creare anche poco contrasto tra la scritta e il colore nello sfondo ci renderà difficile leggere la scritta (soprattutto se quest’ultima non sarà in bold). SCARSA LEGGIBILITA’ I colori chiusi negli spazi possono sembrarci diversi se il colore di sfondo sarà più scuro, nell’esempio sottostante la “I” a sinistra ci sembrerà più scura rispetto alla “I” a destra seppur non è così. La percezione è strettamente legata al concetto di realtà virtuale, per creare una buona percezione non basta l’hardware, perché la profondità venga bene dobbiamo conoscere la modalità in cui il nostro sistema visivo elabora gli oggetti. Vari canali informativi che l’utente sfrutta per vivere l’esperienza La Vista I depth cues (indizi di profondità) sono indizi che il nostro cervello va a cercare nel mondo per ricavare la profondità. Gli indizi di profondità si dividono in: 1. Indizi Monoculari: è necessari l’utilizzo di un solo occhio per vedere l’effetto 3D, a loro volta gli indizi monoculari si dividono in: o Pittorici: attraverso la pittura l’essere umano ha voluto ricopiare la realtà, si è così accorto che ci sono diverse peculiarità del nostro sistema visivo, questi indizi sono: ▪ Occlusione: se ci sono due oggetti e uno lo vediamo per intero e l’altro lo vediamo in parte pensiamo che l’oggetto che vediamo per è più vicino a noi rispetto a quello che vediamo in parte. È inutile porre molta attenzione su questo indizio; ▪ Prospettiva lineare: quando facciamo convergere le linee di un disegno il nostro cervello dà un senso di profondità, il motore di rendering fa questa azione in automatico; 20 ▪ Dimensione degli oggetti di tipo familiare: gli oggetti che utilizziamo quotidianamente vengono assimilati dal nostro cervello e ci permettono di capire la distanza tra noi e l’oggetto. ▪ Ombre: le ombre ci permettono di definire la distanza dell’oggetto dal suolo. Se spegnamo le ombre per favorire FPS all’applicazione in VR l’utente può essere confuso perché appunto, le ombre ci permettono di definire la profondità. ▪ Gradiente di tessiture: quando un materiale è complesso da lontano può sembrare di un solo colore, più ci avviciniamo più noteremo le sfumature. o Movimento: funzionano quando le immagini sono in movimento ▪ Motion parallax: funziona molto quando siamo su un treno e vediamo immagini viaggiare a velocità diverse. Gli oggetti vicini sembrano andare velocissimi mentre più ci allontaniamo più i nostri oggetti sembrano andare piano. La stessa cosa accade con i movimenti della testa. Mi permette di capire la distanza di un oggetto. Accomodation: quando mettiamo a fuoco un oggetto con un occhio solo. Il nostro occhio ha dentro dei muscoli che alterano il cristallino, a seconda che il nostro oggetto sia lontano o vicino i nostro muscoli faranno un lavoro diverso per mettere ben a fuoco l’oggetto. 2. Indizi Binoculari: bisogna avere tutti e due gli occhi aperti e funzionati, tra i più importanti indizi binoculari abbiamo: o Disparità binoculare: i due occhi, quello dx e sx producono due immagini diverse, queste immagini saranno tanto più diverse se l’oggetto sarà più vicino ai nostri occhi. Una persona stereoscopica è (disallineamento degli occhi). o Convergenza: quando un oggetto è molto lontano i nostri occhi tendono stare paralleli, quando l’oggetto è vicino e fissiamo l’oggetto ci verrà naturale fissare l’occhio con gli occhi disallineati (per guardare entrambi bene l’oggetto). Se vogliamo dare un’effetto di profondità possiamo accenturare la disparità nel motore di rendering. Siccome questa cosa può essere innaturale per il nostro sistema di percezione tutto ciò potrebbe portare ad un conflitto ed invece di vedere la profondità vediamo tutto doppio. Anche pensare a ciò che può accadare può alterare la nostra percezione di profondità. 21 Le illusioni di kanizsa sono prodotti dal fenomeno dell’occlusione. Illusione di Jastrow: Entrambe le figure suono uguali, identiche, le figure sono realizzate con le regole della prospettiva lineare che fanno pensare all’uomo che la figura a SX (quella avanti) sia più piccola di quella DX (quella dietro) perché due figure che hanno la stessa dimensione sulla retina fanno sembrare quella più lontana come quella più grande. Nel design della scena visiva c’è bisogno di sapere che il nostro sistema percettivo struttura lo spazio in aree diverse a seconda della distanza tra di noi. Come possiamo organizzare lo spazio? 3. Zona dello spazio personale: è un area che va fino a 2mt dove possiamo agire direttamente sugli oggetti. Fin quando una persona è a due metri non c’è disagio, più si scende sotto i 2mt più la persona non si sentirà a suo agio. Questa è anche la zona dove è forte la disparità binoculare. I dettagli devono essere di un grado di fedeltà molto alta; 4. Zona d’azione: va dai 2 ai 20mt. In questa zona possiamo avere ancora una possibile interazione, ad esempio se una persona è a 10mt da noi possiamo ancora parlargli, in questa zona possiamo anche camminare. Nel mondo virtuale il modello 3d non deve avere lo stesso livello di dettaglio che c’è nella zona dello spazio personale, inoltre, per l’interazione utilizzo tecniche come utilizzare un raggio laser per prendere un oggetto ecc, BONUS: un’immagine finchè è a 15mt può essere in 2d (tecnica dell’impostore); 5. Vista space: oltre i 20mt. La distanza è tale che la disparità visiva è sparita, in queste distanze si può ingannare totalmente l’occhio. Gli artisti secoli fa si sono accorti di questa cosa realizzando tramite della pittura delle prospettive, anche nel mondo virtuale molte volte vengono inserite immagini di panorami 2D a 360° per evitare di sviluppare modelli così complessi. Non ci si occupa dell’interazione perchè gli oggetti sono troppo lontani; L’Udito Tendiamo a sottostimare le quantità di informazioni che provengono dal suono dato che abbiamo molte informazioni che provengono dalla vista. C’è un effetto che avviene nelle feste dove ci sono tanti chiacchiericci, musica alta, ma se qualcuno ci nomina ce ne accorgiamo, ciò vuol dire che il nostro cervello elabora le informazioni, appena sente un richiamo ci attiviamo. 22 Possiamo intendere il suono sotto due apettiI suoni nei mondi virtuali sono importanti per due cose: 1. Fisico (oggettivo): Onde acustiche: il range che il nostro cervello riesce a percepire va da 20 a 20.000 Hz anche se la vera sensibilità è dai 2000 ai 4000 Hz (frequenze della voce umana); Ampiezza: quanto è forte il suono che ci sta arrivando, si misura in decibel, i decibel non sono lineari, è una scala logaritmica, ogni 3 dB raddoppio l’ampiezza del suono, nella vita quotidiana siamo sugli 80 dB, a 130dB sentiamo dolore alle orecchie, a 160 dB si spezza la membrana del timpano. 2. Percepito (soggettivo): per dare una reale percezione di raddoppio del suono dobbiamo aumentare di 10dB il suono (il nostro sistema uditivo attenua molto il suono). Quando alteriamo la potenza dei suoni quello che viviamo come esperienza non è come quello che succede nella realtà. Molti sterei hanno un bottone che si chiama loudness che aumenta solo i bassi e gli alti per regolarizzare la retta. Un’altra caratteristica soggettiva creato dal nostro udito è il pitch (quanto un suono è basso alto o medio per il nostro udito). Se il suono è periodico (un’onda sinusoidale) la nostra esperienza sarà Timbro: è il suono che ci fa distinguere uno strumento da un altro, il timbro lo riconosciamo attraverso una serie di dettagli (ad esempio quanto velocemente il suono sale); Esattamente come utilizziamo la stereoscopia per dare una sensazione di profondità alla vista utilizziamo la stereofonia nel suono (gli altroparlanti stereo producono suoni diversi che ci fanno capire se il suono è più a destra o sinistra). In realtà virtuale esistono dei motori di render audio in cui delle librerie, dati in input traccia e dimensioni della stanza dove si farà l’esperienza VR, aumentano la spazialità della traccia che gli viene passata. Tecnica bineurale, è stata costruita una testa artificiale in cui ci sono dei microfoni dentro, la registrazione sarà esattamente come sentiamo, se ascoltiamo con le cuffie ci sentiremo immersi, con le casse il risultato sarà pessimo. Il tatto Il senso del tatto viene dato da dei recettori che sono piazzati sulla nostra pelle, questi recettori trasformano il senso di tatto in segnali elettrici che vengono trasmessi al nostro cervello. Il numero 23 di questi recettori non è costante, non sono distribuiti uniformemente sulla nostra pelle (di più sulle mani di meno sul busto). Il tatto può essere: Passivo: toccando oggetti fisici in una stanza che sono perfettamente sincronizzati con gli oggetti virtuali (es. un paziente in un letto da operare). Il pregio è che non si deve inventare nulla di nuovo, il difetto è che si devono comprare ogni volta oggetti per adattare la stanza alla scenza virtuale. Attivo: la sensazione di tocco è controllata dal computer attraverso delle periferiche. Il pregio è che si compra una volta l’oggetto e si è apposto, il difetto è il tipo di feedback che viene restituito all’utente. La propriocezione è l’assimilazione che il nostro cervello fa tra un evento e il tipo di postura che assume il nostro corpo, attraverso una vibrazione riesco sia a dare la sensazione di tocco che a far ricordare all’utente che ha le mani. Nel mondo virtuale è molto importante avere un bilanciamento, il bilanciamento è quando abbiamo un feeling di quando il nostro corpo è posizionato rispetto alla gravità, quando siamo in pieni, quando non camminiamo, abbiamo dei sensori speciali sul nostro corpo che non ci fanno cadere. Questi sensori ci danno le informazioni su come essere bilanciati, se non funzionano bene questi sensori abbiamo una sensazione di “vertigo”: Orecchio interno: un organo molto importante per il bilanciamento è il sistema vestibolare, ci sono numerose parti all’interno dell’orecchio, le più importanti per la realtà virtuale sono due “sacche” piene di liquido che ha all’interno dei micro cristalli che si muovono, questi micro-cristalli quando sbattono a dei recettori informano il cervello che noi siamo in piedi e ci informa sul tipo di accelerazione stiamo avendo. Per ricreare questi effetti in applicazioni di training (come quella di un aereo) le motion platform essendo inclinabili riescono a replicare questo effetto. Ci può anche essere il caso in cui ci sembra di essere fermi seppur siamo in movimento (movimento costante) (ad esempio quando siamo su un aereoplano) questo tipo di illusione può essere data anche tramite un semplice casco senza motion platform visto che non è previsto nessun movimento da percepire da parte del sistema vestibolare. Nel mondo reale è molto pericoloso quando un aereo entra in una nuvola, visivamente si perdono riferimenti, essendo in un moto costante sembra di esser fermi, fortunatamente ci sono i computer che segnalano direzione e velocità dell’aereo per ristabilire questa illusione. Percezione del tempo passato La percezione del tempo è costruita dal nostro cervello attraverso dei dettagli, dettagli che comandiamo noi nella realtà virtuale, questi sono: Ritardo della percezione: tutte le elaborazioni, che siano nel mondo reale o virtuale, arrivano in ritardo perchè devono essere elaborate dal nostro cervello, questo ritardo si aggira sui 0.2 secondi; 24 Durata: gli stimoli che arrivano ai nostri sensi tendono a persistere di più rispetto alla loro durata reale (es. uno stimolo visivo colpisce la nostra retina e dura fino a 400ms di più rispetto a quello che accade realmente); Mascheramento: dopo che abbiamo stimolato qualsiasi senso di una persona, dare un successivo input allo stesso senso richiede dei tempi maggiori per essere percepito, viceversa se i tempi non sono larghi rischia di essere recepito male o di non essere recepito; Continuità percettiva: se togliamo dei pezzi ad uno stimolo che stiamo ricevendo, il cervello cerca di ricostruire i buchi che mancano creando una continuità temporale (es. aereo dietro le montagne, ci aspettiamo di rivedere l’aereo una volta che finiscono le montagne); Ora biologica: il nostro corpo sente di passare il tempo quando stiamo senza fare nulla (funziona solo per tempi lunghi), i ritmi circadiani è quando il corpo sente che i diversi momenti delle giornate, mattina, pomeriggio, sera; Orologi cognitivi: la percezione del tempo è determinate da alcune caratteristiche dell’esperienza, in particolare: o Quante cose cambiano: più cose cambiano e più sembra che l’esperienza duri di più; o Attenzione: se siamo attenti a ciò che stiamo facendo l’esperienza sembra durare di meno; o Età: più è grande l’età di una persona (oltre i 40 anni) e più sembra veloce il tempo percepito; o Motivazione: più è motivata una persona a seguire un’esperienza e più il tempo sembra breve; o Sequenza di eventi strutturata: è importante avere una sequenza di eventi strutturata, invertendo questi eventi l’esperienza potrebbe risultare confusionaria; Attentional Blink: quando arriva un evento (acustico, tattile, ecc..) il nostro corpo riuscirà a percepire un secondo evento solo dopo un determinato lasso di tempo, 200-500ms, (che in un’esperienza virtuale abbastanza frenetica non è molto come tempo). Periodo refrattario psicologico: accade quando vogliamo svolgere due azioni contemporaneamente, se aggiungiamo un’azione fisica ma la comparsa degli eventi è molto vicina, l’utente si accorgerà dell’azione ma non riuscirà a compiere per tempo l’azione, c’è un collo di bottiglia nelle parte decisionali del cervello, tante azioni ma il nostro cervello deve decidere quale fare (anche per stimoli diversi). Movimento I tipi di stimolti che ci danno una percezione di movimento possono essere classificati in due categorie: 1. Object-relative motion: sono gli oggetti nel mondo a cambiare posizione (es. una persona che si avvicina ad un’altra, la stanza è ferma) in VR è facile creare una corretta object relative motion in AR, dato che vediamo il mondo fisico l’utente confronterà l’oggetto con tutti gli oggetti del mondo fisico, è più difficile perchè potrebbero nascere delle incoerenze; 2. Subject-relative motion: in questo caso siamo noi che stiamo cambiando posizione rispetto all’oggetto; 25 Movimento indotto: è un fenomeno illusorio che accade come col movimento dei treni, se invece abbiamo uno sfondo bianco e abbiamo un punto vicino ad un rettangolo non ci sarà nessun movimento; Movimento apparente: è un’illusione di movimento che può essere data con gli stimoli anche se in realtà nulla si sta muovendo realmente (ad esempio negli schermi oled il variare di scritte ci fa pensare ad un movimento, ma in realtà si accendono e si spengono dei pixel, essendo sotto i 200ms questi movimenti il nostro corpo non riesce a definire che è un accensione e spegnimento di pixel). In realtà virtuale non funzionano questi ms (devono essere 10ms), altrimenti viene fuori un effetto strano (tipo flickering). Unfenomeno che bisogna assolutamente evitare è lo strobing (gli stimoli visivi che diamo all’utente sono così veloci che il sistema umano non riesce a vederli bene, si mischiano tra di loro le immagini). Vection: è l’illusione di muoversi quando si è fermi (esempio dei treni che si muovono), in VR è facile creare illusioni di vection dato che l’utento è isolato nell’ambiente e non ha alcun punto di riferimento. Gibson scopre attorno agli anni 50 il concetto di flusso ottico, in maniera casuale si è accorto che mano a mano che il pilota si avvicina alla pista d’atterraggio per atterrare vedrà i dettagli sempre più visibili, questo concetto si chiama Focus of Expansion in the middle i dettagli si espandono nelle varie direzioni partendo dal centro, il fenomeno del flusso ottico è importante per capire da che parte stiamo andando e la velocità. Quando invece viaggiamo su una superficie 2D il flusso ottico è meno importante, è più importante avere dei punti di tangenza (quando corriamo su un piano ci sono delle curve, per capire come ci stiamo muovendo sul percorso gli occhi dell’utente vanno a cercare una retta tangente che indichi dove bisogna andare). C’è una capacità di stimare quando un oggetto entrerà in collisione con noi, questa capacità di chiama time to contact, (es. una automobile che viene contro di noi) l’immagine dell’automobile diventa progressivamente più grande, le ricerche hanno dimostrato che il nostro sistema visivo va ad anlizzare questo aumentare e diminuire di dimensione per capire se sta venendo contro o se si sta allontanando e, nel caso l’automobile ci stia venenedo contro, stimare il momento dell’impatto. Questo tipo di ragionamento funziona bene quando la velocità è costante. Nell’accelerazione gravitazionale l’umano sa riconoscere il tempo stimato di ascesa di un’oggetto. Il nostro sistema visivo riconosce il movimento attraverso il movimento di altri esseri umani, nel 1975 è stato condotto un esperimento di ridurre al minimo la possibilità di riconoscere i movimenti di un essere umano (attaccando 6 led al corpo di una persona e avendo la stanza completamente scura) molte persone sono riuscie a riconoscere i movimenti senza molte difficoltà (arrivando addirittura a riconoscere anche il genere, questo per la composizione corporea della donna, diversa da quella dell’uomo). Costanze percettive: il modo in cui il nostro sistema visivo percettivo analizza il mondo è basato sull’aspettarsi una serie di dettagli costanti, quando poi le cose cambiano il nostro sistema percettivo fa un lavoro per mantenere alcuni dettagli costanti, questi sono: Costanza della dimensione: come ad esempio la grandezza di un automobile, ma quando l’automobile sarà in movimento e si allontanerà da noi avremo la sensazione che 26 l’automobile si sta riducendo, per mantenere una corretta percezione della dimensione bisogna avere un buon numero di depth cues (indizi); Riconoscere un oggetto: è la capacita del nostro sistema visivo di riconoscere un oggetto noto seppur viene visto da diverse angolazioni; Quando muoviamo la testa rimaniamo consapevoli che gli oggetti attorno a noi restano fermi, nel mondo reale è difficile avere problemi di costanza della posizione mentre nel mondo virtuale è molto probabile avere problemi con la costanza nel posizionamento degli oggetti, soprattutto se si decide di aumentare il FOV della vista dell’utente, creando anche delle situaizoni di nausea; Costanza della luminosità: il nostro mondo è continuamente sottoposto a cambi di luminosità, il nostro sistema percettivo fa di tutto per mantenere la percezione della luce uniforme come fa? Si basa sul confronto di oggetti vicini (es. un punto nero su una carta bianca, es. Quadretto A e quadretto B sono identici, sfruttando la diversa illuminazione il nostro sistema percettivo compensa mettendo più luce sul quadratino B, inoltre il quadrato A è circondato da oggetti chiari, il quadrato B è circondato da quadrati scuri); Costanza del colore: è simile a ciò che accade con la luce, il nostro sistema visivo cerca di mantenere la percezione del colore uniforme, gli oggetti possono essere illuminati da vari fasci di luce ma noi vedremo l’oggetto sempre con il colore che conosciamo (adattamento cromatico); Meccanismi di adattamento che cercano di far cambiare il modo in cui funziona il sistema percettivo per aiutarmi ad agire meglio nel mondo: 1. Sensoriale: quando siamo molto all’aperto ed entriamo in un’edificio all’inizio vediamo buio, poi vediamo sempre meglio, questo fenomeno si chiama Dark Adaptation ed è dovuto a dei fotorecettori che si chiamano coni (servono per i colori e i dettagli degli oggetti, si adattano per 10 minuti), esistono anche i bastoncelli (sono più sensibili alla luminosità, si adattano per 30 minuti). I bastoncelli (i più sensibili alla luce) hanno una minor sensibilità alla luce rossa dunque quando si illumina con la luce rossa tendono a far funzionare lo stesso il meccanismo di dark adaptation, i coni dunque rimangono molto abili a vedere questi dettagli, nel mondo virtuale dunque questo trucco si può utilizzare per creare situazione di oscurità (utilizzando una luce rossa i bastoncelli fanno entrare più luce e quindi con i coni distinguo meglio le cose); Light adaptation: è il contrario della dark adaptation, è andare in ambiente molto luminoso e non rimanere accecati; 2. Percettivo: è molto più complesso e può riguardare diverse carattersitiche del mondo. È la capacità del nostro sistema percettivo di modificare il proprio funzionamento in base a delle cose che accadono nel mondo inaspettate ma frequenti funziona (es. gli occhiali invertenti, sono degli occhiali che invertono di 180° la vista, indossando questi occhiali per diversi giorni si è accorti che il suo sistema percettivo ha iniziato ad aggiustare le eleborazioni per funzionare bene.). Un tipo di adattamento è alla posizione degli oggetti (ingrandimento/ridemensionamento) in questo caso l’adattamento può essere molto veloce, il post effetto abbiamo la sensazione che il mondo reale si muova stranamentw, perchè questi meccanismi correttivi ci mettono un po’ per ristabilizzarsi. 27 Anche l’adattamento temporale è una situazione che accade con il mondo virtuale che coinvolge il nostro sistema percettivo. In realtà virtuale si possono creare diversi tipi di mondi, prima o poi ci sarà un adattamento. Nel design di un’esperienza dobbiamo attrarre l’attenzione dell’utente verso le cose più importanti e guidare l’attenzione dell’utente quando cerca qualcosa in particolare, i due obiettivi diversi corrispondono alle due modalità di funzionamento del sistema attentivo umano: 1. Focalizzata: cerchiamo di concentrarci ad ascoltare, vedere qualcosa (es.quando abbiamo una scritta con un’immagine sfocata in sottofondo, l’immagine sfocata è un depth cues perchè aiuta l’utente a leggere ciò che c’è scritto). La focalizzazione su qualcosa può avere due tipi di origine: a. Endogena: viene da dentro, dipende dalla nostra volontà, ci pensiamo nella nostra testa e i nostri sensi dipendono da quell’obiettivo. Per ogni fase del progetto il designer dell’esperienza deve avere ben in mente ciò che deve avere in mente l’utente (a cosa presta attenzione, ecc..). Si divide in: i. La change blindness è la cecità al cambiamento (es video ufficio in cui le ragazze si invertono e non si nota), accade quando non abbiamo prestato abbastanza attenzione in un oggetto o quando un oggetto cambia in alcuni dettagli e non totalmente. Ci si accorge del cambiamento solo quando ci si focalizza particolarmente su ciò che sta accadendo. Ci sono delle teorie che dicono che noi manteniamo una rappresentazione spaziale non molto dettagliata, quindi se sostiuiamo qualcosa non viene notato (tranne se non fisso qualcosa per molto); ii. Inattentional blindness: si ordina ai nostri sensori di sintonizzarsi su una determinata carattersitica (es. esperimento in cui dei ragazzi si passano una palla, lo scopo del video è contare i passaggi, dunque l’utente è focalizzato nel vedere i passaggi ma non nota che nel video compare un gorilla che balla come Michael Jackson). Vedendo bene solo su 30° gli occhi si muovono continuamente quindi non vediamo mai bene tutto; b. Esogena: viene da fuori, il desiderio di prestare attenzione agli eventi che vengono dal mondo esterno (es. il telefono squilla mentre stiamo lavorando, un oggetto attrae gli occhi dell’utente). Avere dei livelli con colori diversi e forme diverse può aiutare a far concentrare l’utente sul livello che desidera. i. Mappa della salienza: è la capacità delle carattersitiche visive di qualocosa di attrarre l’utente (es. il rosso è più saliente del grigio); ii. Mappa dell’attenzione: è la mappa che ci permette di vedere ciò che gli utenti guardano di più, attraverso l’eye-tracker questa mappatura può essere perfetta. Il principio generale di quando vogliamo rendere saliente qualcosa è quella di rendere diversa quella cosa attraverso i punti con cui si focalizza il nostro sistema visivo: Colore; Forma; Angolazione; 28 Grandezza; Movimento; Più elementi aggiungo e più elementi dovrò visualizzare, dunque ci metterò di più per rispondere alla domanda. Dire che un elemento non c’è implica più tempo rispetto a dire che un elemento c’è. La spiegazione è che le varie aree del cervello effettuano una serializzazione di tutte le informazioni recepite, più caratteristiche avremo e più il calcolo sarà lungo. 2. Divisa: cerchiamo di fare più cose contemporaneamente o multimodale (ossia che coinvolge più sensi contemporaneamente), quando diversi sensi si uniscono parliamo di sensi cross- modali. Anche la modalità cross-modale può avere le sue illusioni, l’illusione più famosa è quella del ventriloco (bambola che parla con la voce del comico) l’attenzione visiva si sposta sulla bocca della bambola e si trascina la sensazione uditiva (come al cinema). La teoria del carico percettivo ci mostra che: i. quando le persone hanno pochi stimoli dai sensi e dunque i neuroni che elaborano immagini e suoni sono inattivi, suggerisce di dare un adeguato numero di stimoli al sistema percettivo per tenere sempre attivo il sistema sensoriale; ii. la seconda situazione è in cui c’è un grande carico sul controllo cognitivo- esecutivo (parti del cervello in cui noi ricordiamo, pensiamo, prendiamo decisioni) se lì c’è un grande carico succede che c’è meno disponibilità di elaborazione per il sistema percettivo e dunque si rischia di confondere ciò che è importante da ciò che è meno importante; Nel training ci sono delle situazioni in cui l’utente sta imparando il compito, ma può aver senso avere delle situazione in cui l’utente viene messo sotto stress (sfruttare le situazioni descritte precedentemente a nostro favore). Un modo per catturare l’attenzione in realtà virtuale è mettere le cose in maniera disordinata. Gli effetti avversi della realtà virtuale, tra questi abbiamo: Malessere: alcuni degli effetti che vengono causati dalla realtà virtuale possono essere: o Sickness: si può verificare con nausea, sensazione che si è ubirachi, vertigini, sudorazione questo sintomo porta al vomito. I sintomi non vengono tutti assieme. Questo malessere può essere causato dal: ▪ Movimento: la persona si muove nel mondo virtuale e se il movimento non è gestito bene crea malessere. I malesseri possono essere: Intenzionali: il designer vuole raggiungere un effetto di malessere in determinate scene dell’esperienza in VR; Non intenzionali: sono dovuti all’hardware, ad esempio i motori della piattaforma che vanno in delay rispetto all’immagine e alla fedeltà della simulazione; 29 Esistono varie teorie sulla motion sickness, ognuna pone l’accento su qualcosa, (quindi molte potrebbero essere vere contemporaneamente) tra queste abbiamo: Teoria del conflitto sensoriale: I malesseri dovuti al movimento sono particolarmente influenzati dall’accelerazione. Il movimento può essere sia lineare che angolare (ruotamento) quest’ultimo caso dà più malessere, bisogna porre maggiore attenzione su questi movimenti. I movimenti laterali sono particolari nel VR, questo perchè, se avviene un movimento nel videogame che l’utente non replica nel mondo reale, crea motion sickness. Se i movimenti sono fatti in un automobile è molto utile avere delle linee guida che ci indichino il tipo di movimento che si sta facendo. Avere il controllo attivo sul movimento riduce notevolmente la sickness tutti i movimenti del mondo devono avere una connessione diretta con le azioni dell’utente, tutto ciò che è fatto dal computer crea malessere, se si devono far vedere delle cose attraverso dei filmati devono essere quanto più corti possibili. Teoria evolutiva: noi siamo programmati per essere spinti per stenderci orizzontalmente quando iniziamo a percepire sensorialmente che non siamo giusti nel mondo, come meccanismo di sopravvivenza è nata l’idea di vomitare; Teoria dell’instabilità posturale: il nostro cervello ha una serie di meccanismi che ci garantiscono di rimanere stabili in piedi (ci sembra di non fare alcun sforzo ma il sistema nervoso si sforza per tenere i muscoli in equilibrio). Il fenomeno del mal di mare è un fenomeno, se mi adatto al mal di mare avrò il mal di terra; Teoria del rest frame: quando guardiamo un mondo, fisico o reale, il nostro cervello cerca degli oggetti fermi per comprendere cosa si sta muovendo e come si sta muovendo, nel creare delle scene virtuali dobbiamo sempre creare dei rest frame (che possono essere anche dei contorni dei paesaggi). In realtà aumentata il rest frame obbligatorio sono gli oggetti nel mondo fisico [CRITERIO FONDAMENTALE NEL DESIGN DI UNA ESPERIENZA IN VR]; Movimenti oculari: quando abbiamo un casco in testa gli occhi non si comportano come nel mondo fisico, gli occhi dunque fanno dei movimenti innaturali per tenere traccia di ciò che sta succedendo (si deve ragionare su come fornire dei punti della scena facili da guardare e che restano stabili). Nel mondo fisico quando un oggetto si avvicina o si allontana il nostro occhio effettua un accomodation 30 (quando il cristallino cambia curvatura per mettere a fuoco) e una vergenza (spostare l’occhio verso l’oggetto), nel mondo virtuale c’è solo la vergenza perchè decidiamo noi cosa mettere a fuoco. Il malessere può essere generato da: o Flicker: può anche sfociare in un attacco epilettico (1 persona ogni 10.000, infatti si avvisa dei possibili flicker). Se ci manteniamo

Use Quizgecko on...
Browser
Browser