Introduzione alla Realtà Virtuale PDF
Document Details
Uploaded by Deleted User
Tags
Summary
This document introduces the concept of Virtual Reality (VR), explaining the key terms "immersion" and "presence." It clarifies the difference between VR and Augmented Reality (AR), outlining the types of VR systems available.
Full Transcript
Introduzione Che cos'è la realtà virtuale? Due possibili definizioni: 1. “La realtà virtuale permette di vivere in un mondo verosimile, in cui si mescolano il magico e il reale” Tuttavia, questa definizione risulta vaga e poco pratica per comprendere i requisiti di implementazion...
Introduzione Che cos'è la realtà virtuale? Due possibili definizioni: 1. “La realtà virtuale permette di vivere in un mondo verosimile, in cui si mescolano il magico e il reale” Tuttavia, questa definizione risulta vaga e poco pratica per comprendere i requisiti di implementazione. 2. “Virtual Reality è un’interfaccia uomo-computer di alto livello che comprende la simulazione in real-time di un mondo realistico e le molteplici interazioni con gli oggetti di tale ambiente attraverso canali sensoriali multipli.” Quindi è una simulazione in cui la computer graphics è utilizzata per creare un mondo che sia visivamente realistico. Il mondo virtuale è: - Interattivo o Reagisce agli input dell’utente. o Ogni azione deve generare una risposta immediata (real time). - Multimodale o La percezione del mondo avviene attraverso i sensi. o Le azioni coinvolgono diversi canali sensoriali Immersione e presenza Per completare la definizione di realtà virtuale, è fondamentale introdurre i concetti di immersione e presenza, due aspetti che collegano la descrizione tecnica e pragmatica della VR a quella più filosofica e intuitiva. Immersione L'immersione è la sensazione fisica di essere fisicamente presente in un mondo virtuale reale (estraniamento dal contesto reale). Si basa sulla capacità di una simulazione di coinvolgere i sensi dell'utente, rendendo credibile l'ambiente proposto. L'immersione è limitata dalle capacità tecniche: un hardware incompleto o impreciso riduce il senso di coinvolgimento. Quindi, in generale, maggiore il numero di canali sensoriali umani stimolati (vista, tatto udito, etc…), maggiore è il senso di immersione. Presenza La presenza è invece la percezione mentale di trovarsi realmente nell'ambiente virtuale. Mentre l'immersione riguarda stimoli fisici, la presenza implica una sospensione volontaria della credibilità da parte dell’utente, simile a quanto avviene durante la lettura di un libro o la visione di un film. L’alto grado di immersione aiuta a creare presenza, ma non è su iciente. È necessaria una progettazione accurata dei contenuti per coinvolgere l’utente. Di erenze tra immersione e presenza Immersione: fa riferimento alla percezione dell’ambiente virtuale come reale. (Immersione fisica) Presenza: si focalizza sulla convinzione mentale di essere realmente all’interno dell’ambiente virtuale. (Immersione mentale) In tutto questo discorso gioca anche un ruolo estremamente importante quella che è l'immaginazione. Infatti, l'immaginazione umana è fondamentale nella realtà virtuale per compensare le limitazioni tecniche. La creazione di un ambiente virtuale richiede la gestione di logiche complesse, grandi quantità di dati (modelli 3D, proprietà fisiche, texture e illuminazione) e il rispetto del vincolo del real time, che impone tempi di risposta immediati. Per semplificare questa complessità, si ricorre spesso a rappresentazioni parziali. Tuttavia, se l'utente è coinvolto e percepisce un forte senso di presenza, la sua immaginazione può integrare le imperfezioni e migliorare l'esperienza complessiva. Cosa non è la realtà virtuale? La realtà virtuale non è: - La realtà - Uno strumento che mira a ricostruire la realtà Tecnologie e ambienti per la realtà virtuale Realtà virtuale vs realtà aumentata In generale, la realtà virtuale immerge l'utente in un mondo completamente simulato, mentre la realtà aumentata sovrappone informazioni digitali all'ambiente fisico. In quest’ultimo caso, gli oggetti digitali vengono percepiti come parte della realtà che ci circonda. Le principali di erenze tra realtà virtuale e aumentata riguardano: 1. La generazione delle scene: mentre la realtà virtuale punta a un rendering realistico per migliorare l’immersione, la realtà aumentata non richiede lo stesso livello di realismo per gli oggetti digitali, poiché il focus è sull’integrazione con la realtà circostante. 2. Il tipo di display: mentre in VR i dispositivi devono coprire l’intero campo visivo dell’utente per massimizzare l’immersione, in AR l’obiettivo è far sì che gli elementi virtuali siano visibili quando l’utente si focalizza su di essi. 3. Il tracking: un’altra di erenza significativa riguarda il tracking, cioè il sistema di monitoraggio delle posizioni degli oggetti. In realtà virtuale, il tracking della testa dell'utente è importante per creare una visualizzazione corretta dell'ambiente, mentre in realtà aumentata è cruciale che il tracking degli oggetti reali sia estremamente preciso, poiché gli oggetti virtuali devono essere ancorati in modo stabile al mondo reale. Tipologie di realtà virtuale Esistono diversi modi per implementare la realtà virtuale, il che implica una varietà di configurazioni hardware e strumenti con caratteristiche di erenti. 1. VR Desktop (Windows on World): o Le applicazioni VR desktop, come quelle basate su monitor tradizionali, o rono una visualizzazione del mondo virtuale simile a quella che vedremmo attraverso una finestra. L’interazione è limitata e, in genere, richiede che l'utente rimanga seduto davanti al computer. Inoltre, la sensazione di immersione è ridotta. Le applicazioni VR su desktop sono anche per un solo utente e non permettono l'interazione simultanea di più persone nello stesso ambiente virtuale. 2. VR Immersiva: o La realtà virtuale immersiva, al contrario, punta a immergere completamente l'utente nell’ambiente virtuale. In questa configurazione, si cerca di ottenere la massima copertura visiva, cercando di riprodurre il campo visivo umano il più fedelmente possibile. Ci sono diverse modalità per raggiungere questo obiettivo: Monitor e proiezioni: utilizzo di schermi grandi o superfici di proiezione (come nei sistemi CAVE) per creare un ambiente a 360 gradi, aumentando la sensazione di immersione. Visori VR: dispositivi come Oculus e Vive, che isolano l'utente dal mondo esterno e o rono un display separato per ogni occhio, migliorando l'immersione grazie alla continua tracciatura della posizione e o Per un’esperienza più credibile, è essenziale che le proporzioni tra l'utente e il mondo virtuale siano realistiche. Questo è particolarmente complesso quando si utilizzano monitor di dimensioni diverse, poiché la stessa immagine può sembrare più grande o più piccola a seconda delle dimensioni del display. o Nei sistemi di realtà virtuale immersiva, l’interazione con l'ambiente 3D deve essere naturale. A di erenza dei sistemi desktop che usano dispositivi 2D come mouse e tastiera, la VR immersiva richiede dispositivi che rilevano movimenti e gesti, e devono essere ergonomici e facili da usare. o La VR immersiva permette a più utenti di essere fisicamente nella stessa stanza, muovendosi, parlando e interagendo tra loro tramite avatar, creando un'esperienza condivisa più naturale rispetto alla VR desktop, dove gli utenti sono separati e interagiscono a distanza. Storia della realtà virtuale Per comprendere meglio lo stato attuale della realtà virtuale, faccio una breve panoramica della sua storia, per vedere da dove siamo partiti e dove siamo arrivati. Inizio con il presentare il sistema Sensorama, introdotto nel 1962 a una fiera negli Stati Uniti, che viene considerato il primo sistema completo di realtà virtuale mai creato. Questo dispositivo, innovativo per l'epoca, simulava una corsa in motocicletta lungo le strade di Brooklyn. La visualizzazione avveniva tramite immagini riprese da due telecamere reali, o rendo una vista stereoscopica. L'utente era su una piattaforma mobile che riproduceva le vibrazioni del terreno in sincronia con ciò che veniva visto. Il sistema includeva anche due altoparlanti per simulare il vento durante la corsa, e un dispositivo che spruzzava odori di cucina cinese quando si passava davanti a un ristorante. Si trattava di un sistema multisensoriale, estremamente avanzato per l'epoca, ma mancavano ancora due componenti fondamentali per considerarlo un vero sistema di realtà virtuale: l'interazione e l'uso di immagini generate dal computer. Infatti, le immagini erano reali e non sintetiche, e l'utente era un semplice osservatore passivo, senza possibilità di interagire con l'ambiente. Nel 1969, Ivan Sutherland, spesso considerato il padre della computer grafica, sviluppò il primo casco immersivo, che però apparteneva più alla realtà aumentata che alla realtà virtuale. Questo casco proiettava immagini su due piccoli schermi, uno per occhio, montati su un dispositivo sospeso che, oltre a sorreggere il peso del casco, rilevava i movimenti dell'utente, permettendo di adattare la visualizzazione del mondo virtuale. La grafica era limitata, con immagini in wireframe, e il sistema era ingombrante e scomodo, tanto che veniva chiamato "la spada di Damocle". Contemporaneamente, il dispositivo Boom, che utilizzava schermi CRT all'interno di un binocolo, permetteva una visualizzazione stereoscopica, ma anch'esso necessitava di una struttura meccanica di supporto. Nel 1967 venne brevettato il mouse che, pur non essendo direttamente collegato alla realtà virtuale, divenne un'importante interfaccia di input. Sempre nello stesso anno, venne sviluppato il primo dispositivo in grado di fornire un feedback tattile, consentendo agli utenti di interagire fisicamente con gli oggetti virtuali. Questo dispositivo utilizzava una struttura meccanica che, a seconda dei movimenti della manopola, generava vibrazioni o irrigidiva la struttura per simulare il contatto con oggetti virtuali. Nel 1973, venne creato il primo acceleratore grafico, un precursore delle moderne GPU, che permetteva di gestire ambienti 3D composti da circa 400 poligoni. A confronto con le GPU moderne, come la Nvidia GeForce GTX 590 del 2011, in grado di gestire miliardi di triangoli, questa capacità era estremamente limitata. Nel 1977, venne prototipato il primo guanto sensibile, capace di catturare i gesti delle mani, un passo fondamentale per l'interazione naturale con gli oggetti virtuali. Sempre nello stesso anno, venne creato il progetto "Aspen Movie Map", una simulazione che ricreava la città di Aspen, dove gli utenti potevano esplorarla in modalità inverno, estate o in 3D. Sebbene l'interattività fosse limitata, questo progetto costituiva un primo passo verso l'esplorazione di ambienti virtuali interattivi. I dispositivi fino a quel momento erano ingombranti e pesanti, spesso basati su tecnologie meccaniche, che limitavano la mobilità dell'utente. Nel 1979 venne introdotto il primo tracker non a contatto, che utilizzava variazioni di campo magnetico per tracciare la posizione, seppur con limitata precisione. Nel 1982, il termine "realtà virtuale" venne coniato per la prima volta in un libro di fantascienza, e successivamente nel 1992 il termine "metaverso" fece la sua comparsa. Fino a quel momento, i dispositivi VR erano principalmente sviluppati per scopi scientifici o in grandi industrie, accessibili solo a pochi. Un passo importante fu la commercializzazione della realtà virtuale, che permetteva di allargare la base di utenti. La prima azienda a vendere dispositivi VR fu la VPL, che nel 1987 commercializzò guanti sensibili e visori stereoscopici. Nonostante la loro costosa tecnologia, questi dispositivi erano ancora lontani dall'essere pratici o facilmente utilizzabili. Nel frattempo, un altro dispositivo interessante, il Power Glove della Mattel, venne sviluppato per la console Nintendo. Sebbene economico, il dispositivo aveva problemi di precisione, limitando la sua utilità. Il passo successivo fu la creazione di sistemi integrati. La di icoltà era che, pur avendo i dispositivi, bisognava combinarli con i sistemi di elaborazione e interazione, il che era complicato. La VPL sviluppò un primo sistema integrato chiamato Reality Build for Two, che includeva un HMD con un tracker magnetico, un guanto sensibile, un computer per la progettazione e la gestione dell'applicazione. Tuttavia, era necessaria una workstation aggiuntiva per il rendering audio, che non poteva essere gestito dalla stessa macchina. Un ulteriore progresso fu l'introduzione di software specifici per la realtà virtuale. All'inizio, i software dovevano essere creati da zero, ma con l'arrivo dei primi toolkit commerciali negli anni '90, si riscontrarono due problemi principali: erano costosi e legati a hardware specifici, limitando lo sviluppo su larga scala. Solo a metà degli anni '90 vennero introdotte librerie non commerciali, che permisero di separare il software dall'hardware, facilitando l'uso di vari dispositivi VR. La NASA ha avuto un ruolo fondamentale nello sviluppo della realtà virtuale, poiché aveva bisogno di sistemi di simulazione complessi per l'addestramento degli astronauti. Poiché il training richiedeva ambienti inaccessibili o pericolosi, la VR o riva una soluzione ideale per creare simulazioni di situazioni reali a basso costo. Collaborando con la VPL, la NASA ha sviluppato ambienti VR complessi, con HMD stereoscopici e guanti sensibili per l'interazione, oltre a feedback tattili per simulare la sensazione di prendere oggetti reali. Tuttavia, la qualità delle applicazioni era limitata dal basso frame rate e dalla grafica semplice. Negli anni '90, l'aspettativa verso la VR era altissima, ma il progresso fu rallentato dalla limitatezza degli strumenti hardware, che non riuscivano a gestire la complessità necessaria per applicazioni VR realistiche. Le interfacce erano di bassa qualità, i display con risoluzioni scarse, e la mancanza di software adeguati rendeva lo sviluppo delle applicazioni particolarmente arduo. Questo portò a un crollo dell'interesse per la VR, un periodo di stasi durato almeno dieci anni. Tuttavia, con l'evoluzione dell'hardware e delle GPU a partire dalla metà degli anni '90, la capacità computazionale dei PC è aumentata drasticamente, riducendo i costi e migliorando le prestazioni grafiche. La parallelizzazione delle GPU ha accelerato il rendering grafico, rendendo possibile lo sviluppo di giochi più complessi e realistici. Questo, insieme alla di usione delle console e al miglioramento dei dispositivi di interazione, ha contribuito a stimolare l'innovazione nella VR. I progressi nei software di game engine, come quelli per la gestione di modelli 3D, texture e fisica, hanno ulteriormente facilitato lo sviluppo della VR, rendendo le applicazioni più accessibili e precise, con un tempo di progettazione ridotto. Oggi, la VR beneficia di questi strumenti avanzati, che sono utilizzati anche in applicazioni come i giochi 3D. Perché la VR non è di massa? In un certo senso le cose sono migliorate, ma la realtà virtuale non è ancora una tecnologia di massa. Ma quali sono i problemi? 1. È più di icile ingannare i sensi: siamo diventati più critici e notiamo più facilmente le incongruenze con la realtà, il che rende di icile creare un senso di "presenza" nella realtà virtuale. 2. Coinvolgimento non totale: non siamo ancora in grado di ottenere una vera immersione a 360 gradi che coinvolga tutte le sensazioni. 3. La componente sociale nella VR è ancora debole: la maggior parte delle applicazioni VR sono monoutente, senza ambienti sociali in cui gli utenti possano realmente interagire. 4. Problemi di sicurezza: invasività di alcune interfacce, fatica/nausea provocata da usi prolungati. 5. Costo dei dispositivi: possono arrivare a diverse centinaia di euro, e la di icoltà di creare interfacce semplici e naturali. 6. Componenti di interfaccia: HW da migliorare ulteriormente in termini di usabilità e ingombri. Dispositivi di input Interazione nella VR Interazione: consente all'utente di compiere azioni che modificano lo stato del mondo virtuale e di ricevere un feedback dall'ambiente in base alle proprie azioni. L’ambiente virtuale deve essere progettato con caratteristiche che cercano di massimizzare la sensazione di presenza. È altresì necessario che l'utente accetti di sospendere l'incredulità, ovvero di credere temporaneamente di trovarsi in un luogo diverso da quello reale. La verifica della presenza è complessa, poiché si basa su reazioni soggettive. I metodi di analisi utilizzati possono essere: 1. Quantitativi, che rilevano parametri fisiologici (ritmo cardiaco, sudorazione, movimenti oculari) o tempi di risposta a stimoli nell'ambiente virtuale. 2. Qualitativi, basati su questionari (es. scale di Likert) e osservazioni del comportamento fisico ed emotivo degli utenti. Un esempio pratico è l'adattamento virtuale dell'esperimento di Milgram. Anche con una grafica basilare, gli utenti hanno mostrato ansia crescente, confermando un forte senso di presenza. L'esperimento di Milgram studiò l'obbedienza all'autorità, chiedendo a volontari di somministrare (falsamente) scosse elettriche crescenti a un "allievo" che simulava dolore. Sorprendentemente, molti partecipanti proseguirono fino al livello massimo, nonostante i segnali di so erenza, mostrando come le persone possano compiere azioni immorali sotto pressione autoritaria. I fattori chiave per la presenza sono il livello di immersione (es. visori VR che permettono movimenti liberi) e l'interazione naturale con l'ambiente (immersione + interazione). Questi aspetti contribuiscono a creare: Illusione di luogo: la sensazione di trovarsi in un ambiente virtuale. (“Sono qui anche se non ci sono”) Illusione di plausibilità: la percezione che gli eventi nell'ambiente virtuale siano reali. (“Quello che sta accadendo sta realmente accadendo, anche se so che non lo è”) Un esempio di illusione di luogo è l'esperimento Virtual Pit, dove gli utenti con interfacce immersive evitavano un buco virtuale per paura di cadere, a di erenza di quelli con interfacce desktop. L'illusione di plausibilità, invece, si manifesta quando gli eventi nell'ambiente virtuale rispondono coerentemente alle azioni dell'utente. Ad esempio, in un bar virtuale, se gli avatar non reagiscono alle interazioni dell'utente, l'illusione crolla. Introduzione dispositivi di input Componenti di Input e Output Per implementare un ambiente virtuale, bisogna considerare i dispositivi di input (per acquisire comandi dall'utente) e di output (per generare segnali verso l'utente). L'interazione avviene tramite canali visivi, acustici, tattili e inerziali, ciascuno con dispositivi specifici e caratteristiche fisiologiche da rispettare per garantire realismo. Il blocco “input processor” gestisce i comandi dell'utente. Ad esempio, i dispositivi di input possono generare dati discreti (pulsanti), continui (movimenti) o ibridi (mouse con movimenti e click). Dispositivi più avanzati, come i controller di realtà virtuale, combinano sei gradi di libertà (posizione e orientamento) con input discreti. Tipologie di Interazione L'interazione nell'ambiente virtuale può essere: 1. Diretta: l'utente interagisce direttamente con l'ambiente (es. spostando oggetti con la mano). 2. Mediata: l'utente controlla un avatar che compie azioni al suo posto. Può essere: o In prima persona: la vista dell'utente coincide con quella dell'avatar. o In terza persona: l'utente osserva l'avatar dall'esterno (es. Tomb Raider). La scelta dipende dal setup hardware. Ad esempio, i sistemi HMD (head-mounted display) supportano un’interazione mediata in prima persona, mentre desktop VR consente interazioni dirette o mediate. Usabilità e User Experience Un hardware ben progettato deve garantire semplicità d’uso e immediatezza. Ad esempio, dispositivi intuitivi come volanti o joystick sono preferibili rispetto a soluzioni complesse, come il mouse 3D, che richiede mesi di apprendimento per essere utilizzato e icacemente. L’ergonomia è altrettanto cruciale: dispositivi poco confortevoli limitano l’esperienza utente. Budget e requisiti specifici influenzano la scelta dell’hardware. Spesso, bisogna trovare un compromesso tra costo e qualità per massimizzare l’usabilità. Tracker I dispositivi che si occupano di raccogliere informazioni sui gradi di libertà necessari sono chiamati tracker. Esistono molte tipologie di tracker, che si distinguono principalmente per alcuni parametri chiave: 1. Tecnologia utilizzata / DOF: la base tecnica con cui il tracker acquisisce i dati. 2. Intervallo di misura: la gamma dei valori che il dispositivo è in grado di rilevare. 3. Precisione: quanto accuratamente il tracker misura le informazioni. 4. Frequenza di aggiornamento: il numero di campioni al secondo che il tracker può fornire. Questi parametri sono cruciali per scegliere il tracker più adatto all'applicazione. Un sistema di tracking è tipicamente composto da due parti: Sensori: acquisiscono i dati delle variabili di interesse in tempo reale. Unità di elaborazione: elabora, filtra e invia i dati al sistema applicativo. Parametri principali dei tracker 1. Accuratezza Di erenza tra la posizione attuale dell’oggetto e quella misurata dal sensore. Area di lavoro: rappresenta lo spazio in cui il tracker è a idabile (accuratezza accettabile); al di fuori di essa, i dati diventano inutilizzabili. 2. Risoluzione È la minima di erenza di posizione che il tracker può rilevare. Oltre una certa soglia, variazioni minime nello spazio non sono percepite dal dispositivo, che restituisce sempre lo stesso valore. 3. Rumore o jitter Indica la variazione casuale nei dati quando l'oggetto tracciato è fermo. Un tracker rumoroso può causare immagini tremolanti nelle applicazioni grafiche, risultando fastidioso per l’utente. 4. Deriva Aumento dell’errore fisso del sensore nel tempo, causando una crescente di erenza tra la posizione reale e quella rilevata. La deriva è comune nei sensori inerziali, ma può essere compensata combinandoli con altri dispositivi privi di deriva (dispositivi secondari). 5. Latenza Rappresenta il ritardo temporale che intercorre tra il rilevamento di un movimento da parte del sensore e la comunicazione della variazione al sistema di elaborazione. Questo ritardo, se non minimizzato, può avere conseguenze significative sull'esperienza dell'utente, come la nausea da simulazione. La nausea si verifica quando esiste un disallineamento tra le informazioni fornite dal sistema visivo e quelle del sistema vestibolare: ad esempio, il sistema vestibolare percepisce un movimento, mentre il feedback visivo arriva in ritardo o non corrisponde. La latenza non dipende solo dai sensori, ma da ogni elemento della pipeline del sistema, tra cui la cattura dei dati, l’elaborazione, il rendering e la visualizzazione. Ogni componente aggiunge il proprio contributo al ritardo complessivo. La percezione umana di questi ritardi è stata studiata: latenze inferiori a 100 millisecondi non sono generalmente avvertite dall'utente medio. Tuttavia, in scenari con movimento rapido, anche latenze inferiori possono risultare problematiche. Ad esempio, una testa che ruota a 60 gradi al secondo può causare un ritardo percettibile di 2 gradi in 36 millisecondi, su iciente a generare un e etto di motion blur e disagio visivo. 6. Update rate Numero di campioni acquisiti al secondo. Questo valore dipende sia dalla tecnologia del sensore sia dalla capacità di acquisizione e trasmissione dei dati al sistema di elaborazione. Tracker meccanici Le caratteristiche principali dei tracker meccanici sono strettamente legate alla loro struttura. Essi si basano su una catena cinematica composta da una serie di bracci, configurati in strutture a serie o parallelo. Nei giunti di questa catena vengono integrati sensori capaci di misurare le rotazioni. Combinando queste informazioni con i dati strutturali della catena, come la lunghezza dei bracci e la configurazione complessiva, è possibile calcolare con precisione la posizione e l’orientamento dell’end e ector, ovvero l’elemento terminale della catena. Per funzionare correttamente, però, la catena cinematica deve essere fissata a un punto stabile, come una parete, un pavimento o una scrivania. Questo è essenziale per scaricare le forze di reazione generate durante l’uso e garantire che la struttura rimanga stabile. In genere, il punto di fissaggio rappresenta anche il centro del sistema di riferimento, rispetto al quale vengono calcolati tutti i dati. Esempi di dispositivi e applicazioni Phantom Omni: un esempio classico di dispositivo desktop con una catena cinematica. Gypsy Motion Tracker: un esoscheletro meccanico utilizzato per catturare i movimenti completi di un attore, soprattutto in ambienti cinematografici molto ampi dove altre tecnologie risultano meno e icaci. Tuttavia, questi sistemi presentano alcune limitazioni, come l’impossibilità di eseguire movimenti estremi, ad esempio rotolarsi o inginocchiarsi, a causa della struttura stessa. Vantaggi dei tracker meccanici 1. Latenza minima: i dati vengono elaborati in tempo quasi reale. 2. Costanza di accuratezza: indipendente dalla posizione nell’area di lavoro. 3. Immuni da interferenze dell’ambiente 4. Nessuno shadowing: i segnali non sono bloccati da ostacoli fisici, a di erenza di altri sistemi (ottici o acustici). Svantaggi 1. Libertà di movimento limitata: la catena cinematica deve essere ancorata e ha una lunghezza definita. 2. Peso e inerzia: le strutture robuste aumentano il peso, riducendo l’agilità e l’usabilità. Tracker magnetici Per superare le limitazioni dei tracker meccanici, sono stati sviluppati sistemi non a contatto, come quelli basati su campi magnetici. Questi utilizzano: Un trasmettitore che genera un campo magnetico. Ricevitori mobili che misurano le variazioni del campo magnetico per calcolare la posizione e l’orientamento relativi. Quindi, si genera un campo magnetico usando una spira elettrica con corrente. Questo campo può essere misurato, ma per ottenere sei gradi di libertà servono più equazioni. Si creano tre campi ortogonali lungo gli assi X, Y e Z, attivati uno alla volta per evitare interferenze. I campi possono essere generati con corrente continua o alternata. Con corrente alternata, si usano bobine ortogonali per misurare le variazioni del campo, con tensioni dipendenti dalla posizione della bobina. Il sistema di tracciamento magnetico, come il Polymus Tracker, utilizza misurazioni per determinare la posizione e l'orientamento, risolvendo un sistema di nove equazioni per sei incognite. Tuttavia, il sistema presenta alcune limitazioni. La latenza è di circa 30 millisecondi, con un jitter elevato che genera errori nei rilevamenti dell'orientamento. Inoltre, quando la distanza tra il trasmettitore e il ricevitore aumenta, il rumore cresce, e oggetti metallici nell'ambiente possono interferire con le misurazioni, causando ulteriori problemi. Per a rontare queste di icoltà, sono stati sviluppati dispositivi come il Fast Track, che o re un range maggiore. Tuttavia, l'aumento della distanza ha anche incrementato il rumore, causato principalmente da interferenze elettromagnetiche che generano correnti parassite nei materiali metallici, alterando le misurazioni. Un altro problema significativo è la presenza del campo magnetico terrestre, che interferisce con quello generato dal sistema di tracciamento. Per risolvere questa sovrapposizione, è necessario misurare prima il campo magnetico terrestre e sottrarre questa componente dalle misurazioni, introducendo però un ulteriore ritardo temporale. Nonostante questi vari problemi, la tecnologia di tracciamento magnetico continua a essere utilizzata in applicazioni specifiche dove la distanza tra trasmettitore e ricevitore è limitata. Esempi tipici di utilizzo sono dispositivi come i controller di giochi o gli occhiali di realtà aumentata, dove la distanza tra la mano e la testa è relativamente piccola, permettendo una tracciabilità accurata e riducendo l'impatto delle interferenze. Problemi nei tracker magnetici 1. Interferenze elettromagnetiche: causate da correnti parassite (correnti di Foucault) generate in presenza di materiali metallici, come quelli negli edifici. 2. Rumore e imprecisione: l’accuratezza diminuisce con la distanza dal trasmettitore, e il jitter può essere significativo. 3. Limitazioni operative: range ridotto (tipicamente 1,5-4,5 metri), con prestazioni scadenti vicino a pavimenti e so itti. Tracker acustici I tracker acustici utilizzano ultrasuoni a bassa frequenza per misurare la posizione. Il sistema è costituito da una sorgente fissa composta da tre altoparlanti disposti a triangolo, attivati in sequenza. Il ricevitore, invece, è formato da tre microfoni posizionati anch’essi su un triangolo, che definisce un piano utile per calcolare l’orientamento rispetto al sistema di riferimento. Vantaggi: Relativamente economici Svantaggi: La velocità del suono varia in base alle condizioni ambientali Possibile interferenza con altre sorgenti di rumore ultrasonico Sensibili allo shadowing (richiedono una visuale diretta) Più lenti rispetto ai tracker magnetici a causa della necessità di sopprimere gli echi Tracker ottici La principale tecnologia utilizzata per il tracking al giorno d'oggi è quella basata sulle informazioni visive. L'idea è di utilizzare telecamere o sensori ottici presenti nell'ambiente per acquisire immagini e analizzarne il contenuto, estraendo le informazioni necessarie. Le configurazioni di tracking più utilizzate sono due: outside looking in e inside looking out. Outside looking in In questa configurazione, le telecamere e i sensori sono posizionati in modo fisso all'interno dell'ambiente per riprendere gli oggetti in movimento. Per semplificare il tracking, si utilizzano dei marker posizionati sull'oggetto da tracciare. I marker possono essere: 1. Passivi, realizzati con materiali riflettenti che riflettono la luce incidente. 2. Attivi, capaci di emettere luce propria. I marker passivi, realizzati con materiali riflettenti, riflettono la luce infrarossa emessa da illuminatori non visibili all'occhio umano. Le telecamere a infrarossi catturano i riflessi dei marker e, tramite la triangolazione e ettuata con almeno due telecamere, si determina la loro posizione. La triangolazione richiede la calibrazione delle telecamere, che consiste nel definire centro ottico, orientamento, focale e distorsioni delle lenti, utilizzando oggetti di dimensione nota. Per tracciare un oggetto si utilizzano costellazioni di marker con geometria nota, che permettono di calcolare posizione e orientamento (sei gradi di libertà). Un esempio è l'Oculus Rift, dove i marker riflettenti, anche se non completamente visibili, consentono un tracking preciso grazie alla costellazione. Inside looking out In questa configurazione, i sensori ottici sono montati sull'oggetto in movimento, mentre le informazioni luminose provengono dall'ambiente circostante. A di erenza del sistema outside looking in, qui l'area attiva non è limitata: la telecamera si muove con l'oggetto, rendendo potenzialmente infinita la superficie tracciabile. Questa soluzione è particolarmente utile per ambienti ampi e dinamici. Un esempio è l'uso di un array di LED posizionati al so itto, con sensori ottici montati sull'oggetto in movimento. I LED emettono segnali luminosi attivati in sequenza, e i sensori acquisiscono la luce riflessa per determinare la posizione e l'orientamento dell'oggetto. Sistemi come l'Eyeball 3000 utilizzano sensori ottici multipli per migliorare la precisione. Oltre ai marker, si possono utilizzare sensori ottici RGB standard o sensori LIDAR, che forniscono informazioni in profondità. Questi sensori ricostruiscono una rappresentazione geometrica 3D approssimata dell'ambiente circostante. La posizione e l'orientamento della telecamera possono essere calcolati in due modi: 1. Analizzando il movimento dei punti 3D nel tempo. 2. Accumulando più frammenti 3D per costruire un modello completo dell'ambiente. Ogni nuova acquisizione viene allineata al modello esistente, aggiornando così la posizione della telecamera. In generale, i tracker ottici, essendo sistemi basati sulla percezione di segnali ottici o luminosi, richiedono una visuale diretta: se la telecamera è ostruita, non è possibile ottenere i dati richiesti. Un altro problema si verifica in presenza di segnali luminosi interferenti che utilizzano le stesse bande, causando errori nel recupero delle informazioni. Un grande vantaggio di questi sistemi è la velocità di acquisizione ed elaborazione, che può essere molto elevata. Tuttavia, i limiti principali riguardano la fase di acquisizione del segnale e quella di elaborazione, che richiede telecamere ad alto framerate e un'elettronica in grado di processare velocemente le immagini. Le telecamere più comuni arrivano a 500 Hz, ma velocità superiori richiedono dispositivi molto costosi. Dopo aver acquisito l'immagine, è necessario estrarre rapidamente le informazioni utili per il calcolo della posizione. Tracker ibridi I tracker ibridi combinano più tecnologie per sfruttare i punti di forza di ciascuna e ridurre le loro limitazioni. In particolare, i sistemi ibridi utilizzano comunemente tracker inerziali, che si basano su componenti MEMS per misurare accelerazioni lineari e angolari. Sebbene questi tracker siano utili, il loro problema principale è la deriva nel tempo, che aumenta gli errori di posizione. Per a rontare questo, si combinano con altri tracker, come quelli acustici, che forniscono aggiornamenti periodici precisi. Così, si ottiene una combinazione che o re alta frequenza di aggiornamento e precisione. Motion capture Nel tracking del corpo umano, che non è rigido, si catturano i movimenti delle singole parti del corpo, trattate come corpi rigidi per animare un modello umano. Le applicazioni di questi sistemi sono diverse: nell'animazione di personaggi sintetici per il cinema, nell'analisi del gesto atletico e in applicazioni interattive, come il controllo di oggetti virtuali tramite gesti. Esistono diverse tecnologie di motion capture, tra cui ottica, markerless, magnetica, meccanica e inerziale. I sistemi ottici, come il Vicon, usano telecamere a infrarossi per rilevare marker passivi e sono ideali per ambienti controllati. I sistemi markerless (es. kinect), invece, non richiedono marker, ma necessitano di ambienti con sfondi neutri. Questi sistemi sono più facili da installare ma hanno di icoltà con più persone. I sistemi magnetici e meccanici, come il Motion Star, catturano i movimenti senza limitazioni spaziali, ma possono risultare ingombranti e poco pratici in attività dinamiche. Infine, i sensori inerziali, come il Moven, sono utili per catturare movimenti in spazi ampi, ma so rono di deriva, necessitando spesso di un sistema aggiuntivo per correggerla. Se non è possibile aggiungere un secondo tracker, si possono usare modelli biodinamici per migliorare la precisione e gestire meglio i movimenti complessi del corpo umano. Motion capture facciale La motion capture facciale si divide in due ambiti principali: 1. Applicazioni online e in tempo reale, come l'animazione di avatar nei mondi virtuali. 2. Applicazioni o line, dove le espressioni vengono registrate e successivamente elaborate per animazioni dettagliate. Le tecniche utilizzate possono prevedere: Con marker, punti strategici applicati sul volto per rilevare movimenti con precisione. Senza marker, con tecnologie avanzate che riducono o eliminano la necessità di marker fisici. Sistemi professionali usano caschetti con telecamere ad alta risoluzione per acquisire dati del volto, integrando anche il movimento corporeo. Le riprese possono fornire una preview in tempo reale o essere perfezionate o line per maggiore accuratezza. Soluzioni più economiche, come FaceShift (ora integrato negli iPhone con telecamere LiDAR), permettono di catturare espressioni anche su dispositivi consumer. I dati raccolti vengono spesso tradotti in blend shapes, movimenti facciali che animano modelli 3D in tempo reale. Interfacce aptiche (tattili) I movimenti delle mani sono fondamentali per creare interfacce naturali nelle simulazioni. Gli strumenti usati per catturare questi movimenti rientrano in due categorie principali: i dispositivi "free di probe" e i guanti sensibili. 3D probe: comprendono sonde meccaniche e controller VR. Questi dispositivi rilevano la posizione della mano e includono pulsanti per inviare comandi. Alcuni possono anche fornire feedback tattile, come vibrazioni. Tuttavia, non catturano i movimenti completi delle mani. Guanti sensibili: come i "data gloves", questi dispositivi rilevano con precisione i movimenti di dita e polso tramite sensori integrati. Per esempio: o Pinch Glove: rileva solo contatti tra dita, fornendo informazioni limitate utili per comandi semplici. o 5DT Data Glove: utilizza fibre ottiche per misurare la flessione delle dita. Le versioni avanzate rilevano anche l'abduzione, con una precisione su iciente per molte applicazioni. o CyberGlove: raccoglie tutti i gradi di libertà della mano, ma richiede una lunga calibrazione ed è costoso (circa 10.000 dollari). Inoltre, non include un tracker per il polso. I guanti sensibili presentano problemi come costi elevati, calibrazione complessa e intrusività. Per superare queste limitazioni, sono stati sviluppati sistemi che rilevano i movimenti della mano nuda, come il Leap Motion. Questo dispositivo utilizza telecamere a infrarossi e luce strutturata per tracciare la posizione delle mani. Sebbene inizialmente avesse limiti come un'area di copertura ridotta e di icoltà con movimenti complessi, le versioni più recenti dell'SDK hanno migliorato la precisione, rendendolo adatto per applicazioni moderne, anche in realtà virtuale. Interfacce inerziali (vestibolari) Un altro tipo di interfacce tattili, più legate al movimento del corpo, sono le interfacce inerziali o vestibolari. Questi sistemi sfruttano il movimento fisico dell'utente come comando di navigazione in applicazioni di realtà virtuale (VR), a rontando un problema comune: l'ambiente fisico limitato rispetto ai mondi virtuali potenzialmente infiniti. Per esempio, spesso l'utente si trova in una stanza piccola, costringendo i progettisti a sviluppare soluzioni come il teletrasporto o simulazioni di camminata con le mani, che però non risultano naturali. Per superare queste limitazioni, sono stati creati dispositivi che permettono di camminare fisicamente in ambienti ristretti. Tra questi, troviamo: 1. Tapis roulant omnidirezionali (es. Infinite Deck) Composti da una superficie scorrevole su sfere rotanti, permettono il movimento in ogni direzione. Gli utenti sono ancorati a una cintura per mantenere la posizione centrale e consentire il tracking del corpo. Questi dispositivi, però, limitano i movimenti naturali e sono costosi. 2. Virtuix Omni e Virtualizer Basati su superfici a basso attrito e scarpe specifiche, questi sistemi richiedono che l'utente sia ancorato a un anello per sicurezza. Sebbene siano stati pensati per il mercato consumer, non hanno avuto successo a causa di limiti tecnici, di icoltà logistiche (peso eccessivo) e movimenti poco naturali. 3. VirtuSphere Una grande sfera cava, simile a una gabbia per criceti, che consente all'utente di camminare, correre o strisciare liberamente. Tuttavia, presenta problemi come l'inerzia, di icoltà di tracking e interferenze con sistemi magnetici. Questi dispositivi, sebbene interessanti, hanno spesso limiti legati a costo, complessità meccanica e di icoltà di integrazione con sistemi di tracking e VR. Interfacce non convenzionali Le interfacce non convenzionali si riferiscono a sistemi di input alternativi a quelli standard, spesso sperimentali e non ancora completamente consolidati. Questi dispositivi possono produrre dati non del tutto puliti, ma o rono il vantaggio di non richiedere l’uso delle mani, risultando particolarmente utili per utenti con disabilità motorie. Originariamente sviluppate per la domotica e il supporto a persone con disabilità, queste tecnologie sono state poi integrate in applicazioni di realtà virtuale, con l’obiettivo di rendere l’interazione sempre più realistica e simile a quella del mondo reale. Esempi di interfacce: 1. Riconoscimento vocale: Consente di impartire comandi tramite la voce. Il parlato viene analizzato per trasformare i fonemi in parole e strutture semantiche, utilizzabili per comandi o elaborazioni testuali. Funziona meglio in ambienti controllati, con audio pulito e modelli vocali personalizzati. Tuttavia, presenta limiti in contesti rumorosi o con corpus di linguaggio troppo ampi. 2. Biosensori: Monitorano parametri biologici come attività muscolare, nervosa, battito cardiaco o pressione sanguigna. Questi dati possono essere usati per adattare l’esperienza VR alle condizioni psicofisiche dell’utente, come nel caso di applicazioni che regolano i livelli di ansia. Ad esempio, dispositivi come il Myo Armband catturano l’attivazione muscolare per riconoscere gesti da trasformare in comandi. 3. Interfacce cervello-computer (BCI): Misurano l’attività cerebrale attraverso tecniche non invasive, come l’elettroencefalografia. I segnali neuronali vengono analizzati per interpretare azioni o pensieri e tradurli in comandi, utili per applicazioni VR, dispositivi assistivi o videogiochi. Tuttavia, queste tecnologie richiedono setup complessi e l’elaborazione di segnali spesso rumorosi, rappresentando una promettente ma ancora immatura area di sviluppo.