Apuntes Temas 7, 8 y 9 PDF
Document Details
Uploaded by Deleted User
Tags
Summary
Estos apuntes abarcan temas sobre aspectos técnicos de los mundos 3D, diseño en realidad aumentada (AR) y realidad aumentada (RA), cubriendo temas como optimización, objetos 3D, materiales, texturas, shaders, y más. Ofrecen información relevante en el campo de las tecnologías gráficas.
Full Transcript
TEMA 7, Aspectos técnicos de los mundos 3D: Índice:. Optimizar el 3D. Objetos 3D. Materiales. Texturas. Shaders. Collider. Iluminación. Sonido. Accesibilidad Optimizar el 3D Priorizar el rendimiento Comodidad > Gráficos La comodidad es el aspec...
TEMA 7, Aspectos técnicos de los mundos 3D: Índice:. Optimizar el 3D. Objetos 3D. Materiales. Texturas. Shaders. Collider. Iluminación. Sonido. Accesibilidad Optimizar el 3D Priorizar el rendimiento Comodidad > Gráficos La comodidad es el aspecto más importante en VR. Optimizar los recursos evita la cinetosis, reduciendo los gráficos para priorizar una experiencia fluida. Menor latencia, mayor rendimiento La latencia es uno de los factores que provoca cinetosis.y no es más que percibir un retraso en la generación de las imágenes de nuestra experiencia. La potencia gráca en VR esta limitada al tipo de gafas que se están utilizando, es por esto que hay que optimizar la aplicación para que funcion en todas.Es crucial optimizar la aplicación según el tipo de gafas VR para garantizar rendimiento. Optimización Técnica para reducir los recursos necesarios de una aplicación. Involucra diferentes elementos dentro de los mundos 3D: ○ Objetos 3D ○ Materiales ○ Texturas ○ Shaders ○ Colliders ○ Iluminación 9 Objetos 3D 8 Superficiales y sólidos 7 Tipos de objetos 3D 6 ○ Superficiales: Representan solo la superficie, están vacíos por 5 dentro. 4 ○ Sólidos: Generados matemáticamente con volumen en su interior 3 (es decir que están rellenos). 2 Superficiales: 1 Mallas poligonales con vértices, aristas y caras.es la base para modelar cualquier elemento en 3D dependiendo de la dificultad del modelado,habrá un mayor o menor número de polígonos.Existen dos tipos: ○ Orgánicos: Naturaleza, personajes. Usan herramientas como ZBrush.Estilo de modelado para la creación de elementos orgánicos mas relacionados con la naturaleza, plantas, animales y sobre todo personajes. Este tipo de modelado suele ser realizado en programas de esculpido digital como Zbrush ○ Geométricos: Objetos no orgánicos como edificios o armaduras.Usar un modelado geométrico es muy común para la creación de elementos no orgánicos, es decir, objetos, armaduras, edicios, etc Retopología: Reducción de polígonos para mejor rendimiento.Es una técnica de optimización en 3D, consiste en la construcción y reducción de polígonos a partir de un objeto en 3D llamado modelo de alta, a una malla poligonal más simplicada llamado modelo de baja. Cuanto menor sea la cantidad de polígonos en un modelo 3D, mejor será su rendimiento y más fácil será modicarlo y animarlo Mesh Flow:Según el tipo de elemento que se esta modelando, se deberá tener en cuenta la disposición de la malla geométrica en la retopologia. Esto permitirá una animación mas realista y similar a la anatomía de, por ejemplo, una cara. Materiales Los materiales denen la apariencia visual del objeto y especícamente dependen de la luz que les incide, ya que el material se va a comportar de una forma u otra dependiendo de cómo reaccione ante la luz. Un material puede reejar la luz o puede ser traslúcido o transparente. Estas dos características de la luz se conocen como reexión y transmisión de la luz, y la apariencia del material va a depender de estas características. Definen la apariencia visual según cómo reaccionan a la luz. Propiedades de los materiales: Albedo: color el que está hecho el objeto. Si el objeto es rojo pues el albedo es rojo. Metalicidad: si el objeto es metálico o no. Rugosidad: si el objeto es más mate o menos. Opacidad: si el objeto es sólido, translúcido o transparente. Los cristales se suelen hacer con shaders porque suelen tener refracción. Texturas Las texturas son imágenes que se colocan en las supercies de los objetos y que han sido generadas previamente para que den la impresión de que el objeto tiene mucho más detalle del que verdaderamente tiene. Detallando los materiales Imágenes aplicadas a superficies para dar mayor detalle visual. Técnicas: ○ Baking: Tecnica que consiste en tranferir la informacion de textura de un modelo a otro. Principalmente lo que hace que se mantengan los detalles de relieve son el mapa de normales y de alturas. Transfiere información entre modelos. ○ Mapas normales: Simulan profundidad.Crean la ilusión de falsa profundidad. No es real, esa profundidad no es geometría. Es una técnica básica para optimizar recursos y geometría. Estas normales se denen con un mapa de normales, que no es más que otra textura especial que se le pone al objeto para que sepa dónde están ubicados estos cambios de profundidad.A la hora de realizar el modelo de baja, el mapa de normales va a ahorrarnos muchísimo tiempo y recursos de cara a tener que modelar menos cantidad de elementos. ○ Mapas de alturas: Añaden profundidad real.Manipula la geometria del modelo deformandola a partir de un mapa de blancos y negros dandole altura real y profundidad. Combinando normales y mapas de altura se pueden conseguir texturas muy realistas sin apenas polígonos ○ UV Mapping: Son una proyeccion 2D del modelo en 3D donde se proyectaran los detalles y texturas del mismo. Las texturas se disponen en un mapa de coordenadas, optimizando al máximo el espacio ocupado. Un mismo modelo puede contar con diferentes mapas de UVs y materiales, pero al nal, cuanto menos tenga mas optimizado estará Proyección 2D del modelo 3D para optimizar texturas. Shaders Son pequeños programas que se ejecutan en la GPU y que modican la apariencia de los objetos de forma dinámica, es decir, no se predene sino que depende de la situación, de donde estemos mirando, de cómo esté posicionado el objeto y demás. Pequeños programas ejecutados en la GPU para modificar dinámicamente la apariencia de los objetos. ¿Cómo mostramos un borde en un objeto? Como este borde no tendría una posición ja sino que se mostrará siempre independientemente desde dónde lo miremos, necesitamos utilizar un shader, que calculará el borde del objeto desde nuestro punto de vista y dibujará un borde de color a su alrededor. Optimizando con shaders Los shaders, en muchismos casos, sirven para optimizar aspectos visuales del juegos, en Marvel ́ s Spiderman (2018), cada habitacion de cada edico cuenta con un interior falso creado a partir de un shader, llamado interior mapping. Arte con shaders Los shaders tambien pueden ser artisticos, modicar el aspecto visual del juego o incluso ser el elemento artistico diferencial como por ejemplo el cel-shading en la saga Borderlands. Tipos de Shaders: ○ Bordeado dinámico. ○ Objetos holográficos o brillantes. ○ Falsificación de interiores como en Spiderman (2018). ○ Estilos artísticos como cel-shading en Borderlands. Colliders Los colliders denen la masa del objeto y sus características, sirven para delimitar el espacio real de colisión que va a ocupar en el escenario. Definen el espacio de colisión de los objetos en el escenario.Existen diferentes formas de aplicar colliders a un objeto: Tipos de Colliders: ○ Mesh Collider: Igual al objeto.un collider con la forma exacta al objeto que se lo aplicamos. ○ Box Collider: Forma de caja o esfera.en este caso una caja que hace las funciones de collider, pero puede ser una esfera, plano, etc. ○ Varios box colliders: Delimitados manualmente.delimitamos nosotros manualmente el espacio de colisión mediante diferentes colliders Cuanto menos detalle tenga el collider, menos información de físicas tendrá que calcular el dispositivo, y por tanto, más optimizado. Iluminación La representación de mundos virtuales se basa en cálculos de la cantidad de luz incidente que se reeja desde las supercies de los objetos 3D. Sin iluminación, todos los objetos se verían completamente negros. Por lo tanto, los mundos virtuales también deberían incluir al menos una, pero generalmente varias fuentes de luz, además de los objetos 3D. Representa los cálculos de luz incidente reflejada en los objetos 3D. Tipos de luces: ○ Direccional (Sol). ○ Puntual (Bombilla). ○ Focal (Linterna). ○ De área (Ventana). ○ Ambiental global (Luz mínima sin foco concreto). ○ Mapeo de luces: Luz pre-renderizada para optimizar. Luz direccional :Comúnmente conocida como sol, es una luz innitamente distante que afecta a todo el espacio y su contenido. Luz puntual :Similar a una bombilla, emite luz en todas direcciones. Luz focal :Similar a una linterna, emite luz hacia una dirección y con cierta apertura, como un cono. Luz de área :Similar a una ventana, se emite luz desde un rectángulo plano en una sola dirección. Común en entornos de VR al producir sombras más realistas, pero a cambio de un alto coste computacional. Luz ambiental global :Es una luz que no tiene dirección y es igualmente intensa en toda la escena. Muchas veces hay luz aunque no provenga de un foco concreto, ya que la luz va rebotando en muchas supercies, por lo que es como un nivel mínimo de luz que tiene que existir en la escena Mapeo de luces :La luz que se encuentra en la escena también se puede bakear, esto provoca que se genere un mapa de luz (lightmaps), luz que esta impresa en la propia textura y que no se comporta de forma dinámica. Para que algunos elementos de este bakeo de luces sean dinámicos, se deberán crear una serie de esferas llamadas lightprobes, que rodean al objeto y le permiten que la luz le afecte de forma dinámica. Sonido Mono, estéreo, envolvente y binaural Además de las fuentes de luz, las fuentes de audio también pueden formar parte del mundo virtual. Estos se pueden integrar en el mundo al igual que otros objetos. En los sistemas de grácos de escena, esta integración se logra en forma de nodos de audio Tipos de sonido: ○ Espacial: Proviene de una posición definida.sonido que proviene de una posición denida en el mundo, y solo puede escucharse dentro de un radio ○ Ambiente: No tiene origen específico.no viene de ningún sitio concreto y se puede escuchar en todas partes. ○ Tipos de salida de audio: ○ Mono: Un solo canal. ○ Estéreo: Dos canales (izquierda y derecha). ○ Envolvente: Varios canales. ○ Binaural: Imita cómo escuchamos en la vida real. Mono: solo hay un canal de audio, no hay izquierda ni derecha. En cada oído escuchamos el mismo sonido. Suena antiguo, pero es útil cuando queremos que no exista distinción entre la izquierda y la derecha, que se escuche todo desde cualquier parte. Estéreo: 2 canales, uno por cada oído. En cada sonido escuchamos audios distintos, por lo que tenemos izquierda y derecha. Envolvente: varios canales de audio, dependiendo del formato pero suelen ser 5, aunque están más pensado para cines. Binaural: cada oreja escucha una cosa y además de forma distinta (con retardo incluso), y da más sensación de inmersión al ser muy parecido a como escuchamos en el mundo real. Accesibilidad en VR Auditiva, visual y motriz Discapacidad auditiva: Una persona puede estar sorda, pero también puede tener una infección de oído o estar en un entorno ruidoso o que requiera silencio. ○ Subtítulos configurables. ○ Feedback visual y háptico. ○ Inclusión de lengua de signos (ejemplo: Moss). Subtítulos Podemos ofrecer incluir subtítulos en la conguración de la aplicación si existen voces en o o personajes hablando. También es interesante mostrar subtítulos para sordos, que incluyan no solo voces sino sonidos como alarmas, puertas, mecanismos, etc. Para los subtítulos también deberíamos incluir conguraciones de tamaño, color, e idioma. Feedback múltiple No quedarse solamente en poner un sonido para hacer feedback, sino jugar con elementos visuales y hápticos, para que en caso de no poder escuchar sigamos notando que algo ocurre. Lengua de signos Es una posibilidad el incluir gestos y animaciones en esta lengua para que las personas que la hablan puedan entenderlo. Un juego muy famoso en VR es Moss, y el personaje se comunica en lengua de signos con el jugador. Discapacidad visual: Una persona puede estar ciega , pero también puede tener un problema de visión o simplemente estar distraído y no prestar atención a la cosas. ○ Opciones para daltónicos. ○ Alto contraste. ○ Descripción en voz alta. Daltonismo Hay que tener en cuenta a personas daltónicas para la elección de colores que sean importantes para la experiencia. Los colores se pueden elegir en diseño, pero también pueden darse conguraciones especiales para que estas personas puedan adaptar su experiencia. Contraste Siempre hay que tener en cuenta que el contenido pueda leerlo la gran cantidad de gente. Hay que tener en cuenta que personas que tienen miopía, hipermetropía, astigmatismo y demás lo tienen en el mundo real pero también en VR. No está de mas incluir alguna opción de alto contraste en la conguración. Descripción en voz alta Si un usuario es ciego podría apuntar a los objetos y que una voz pueda decirle lo que es, igual que con su móvil. Discapacidad motriz: A una persona le puede faltar un miembro de su cuerpo, pero también puede estar recuperándose de un accidente o estar en una situación en la que no puede estar de pie o tiene las manos ocupadas. ○ Interfaz ajustable para una mano. ○ Configuraciones para cinetosis. ○ Ajuste automático de altura Controlar tamaños de elementos interactivos Especialmente cuando usamos un puntero, si se tiene mal pulso puede ser complicado apuntar y pulsar (cuando se pulsa el mando se mueve). También cuando utilizamos las manos tener unos botones de tamaño más grande para no pulsar varios al mismo tiempo. Uso con una mano A veces se nos quedará sin pilas uno de los mandos o personas no tendrán 2 manos, por lo que no está de más ofrecer alternativas para controlar la experiencia con una sola mano. Además de poder elegir si eres diestro o zurdo, que es muy común suponer que uno es diestro. Vértigos o mareos Algunas personas pueden ser más sensibles a la cinetosis, especialmente si es la primera vez que usan VR. Ofrecer conguraciones para aumentar la visión túnel, disminuir la velocidad del movimiento, o tener movimientos alternativos como Half Alyx, es útil para que cada usuario pueda estar cómodo. Distintas alturas Uno puede ser alto o bajo, pero además puede estar en silla de ruedas. Si tenemos elementos interactivos otantes, conviene no jarlos del todo, sino tener en cuenta la altura de los usuarios (que las gafas son capaces de detectar). Tema 8: Diseño en AR con gafas (realidad mixta) Índice. Cómo funcionan unas gafas de MR. Bases de la experiencia en MR. Interacción en MR. Interfaces de usuario en MR Cómo funcionan unas gafas de MR Proyectando hologramas en el mundo real Tipos de gafas. Enfoque exterior (passthrough):Las gafas tienen pantallas que ocupan todo el campo de visión del usuario y lo sustituyen por un video en tiempo real de las cámaras externas, dando la impresión de que estamos viendo el mundo real. ○ Sustituyen el campo de visión real por un video en tiempo real de cámaras externas. ○ Ejemplo: Meta Quest 3.. Pantalla holográfica:Las gafas tienen una pantalla transparente donde se proyectan los hologramas. Nos permite ver el mundo real a través de ella. Su campo de visión es reducido y también su resolución. ○ Pantalla transparente que proyecta hologramas. ○ Campo de visión reducido. ○ Ejemplo: Snap Spectacles. Gafas destacadas de realidad mixta Hololens 2:3.849 € - 5.049 € Desarrolladas por Microsoft, eran las más exitosas, al orientarse desde el principio a la empresa. (Descontinuadas en 2024) Enfocadas a empresas, descontinuadas en 2024. Magic Leap 2: 3.299 € Trató de orientarse al consumidor medio con poco éxito y ahora se orienta a la empresa. Tiene un cable ya que el procesamiento gráco lo realiza en un elemento exterior. Orientadas a consumidores y empresas, con procesamiento externo. Apple Vision Pro: 4.000 € Desarrolladas por Apple, las venden para los consumidores más pioneros como una alternativa real a los ordenadores, centrando su valor en la "computación espacial" Alternativa a ordenadores, basadas en "computación espacial". Bases de la experiencia en MR Aspectos principales. Espacio virtual y real.. Sonido.. Interacciones.. Interfaz de usuario (UI).. Narrativa y háptica (como en VR). Espacio real: escaneo Siempre se escanea el entorno antes de empezar las experiencias. El escaneo de las supercies permite generar una malla para posicionar los hologramas de forma más realista y ocluirlos. Pueden detectarse supercies concretas: techo, una pared, el suelo, un espacio vacío, una mesa, un sofá, una lámpara... Antes de empezar, se escanea el entorno para posicionar hologramas realistas y detectar superficies específicas (techo, pared, mesa). Espacio real: uso del espacio El usuario puede arrancar la aplicación desde cualquier tipo de sala y la experiencia tiene que adaptarse. En diseño tenemos que pensar qué queremos que las gafas encuentren, más que en las características especícas del entorno o a la distancia a la que aparecen. Siempre hay que tener una alternativa por si el objeto que necesitamos no hay: ¿qué pasa si no hay un sofá? ¿qué pasa si no hay techo? ¿qué es lo mínimo que necesita mi experiencia? La experiencia debe adaptarse a cualquier entorno, ofreciendo alternativas si ciertos elementos faltan. Espacio real: colocación y oclusión Los objetos que mostramos deben seguir las reglas físicas el espacio real del usuario, colocándose de forma correcta en supercies y esquivando obstáculos que se encuentren. Es necesario ocluir los elementos para mostrar en qué posición están, que no es más que aplicar una máscara a parte del objeto que se muestra tapada por un objeto del espacio real. Oclusión: Parte del objeto se oculta tras elementos reales para mayor realismo. Espacio virtual: grados de virtualidad Existen distintos grados de virtualidad que podemos usar en nuestra experiencia. Localizado(espacio compartido):Están posicionadas en un sitio concreto del espacio. En un espacio compartido podemos tener varias aplicaciones ejecutándose al mismo tiempo cada una en su sitio Un sitio fijo (espacio compartido). Portales(espacio completo): Ofrece una experiencia más inmersiva pero sin quitar el entorno de la vista. Al ocupar un espacio completo, solo se vería una aplicación. Ocupan espacio completo pero mantienen el entorno visible. Inmersivas(espacio completo): Pueden usar todo el espacio que tenemos alrededor para que la experiencia funcione, tanto mixta incluso 100% virtual. Usan todo el entorno o crean un espacio virtual. Sonido en MR: Utilizar sonidos para informar al usuario cuando se produzcan cambios en el entorno. Por ejemplo, cuando tenga que mirar a algún sitio, reciba alguna noticación. Jugar con el sonido 3D para dirigir al usuario a donde queremos que mire, y para guiarle dentro del espacio que la aplicación está intentando crear. Cuidar la cantidad de sonidos que reproducimos y la información que muestran. Utilizar sonidos para interacciones, no solo cuando ocurren sino incluso para marcar cuándo empiezan y cuándo acaban. Combinar con feedback visual, porque la app que hagamos quizá solo pueda usarse en entornos silenciosos o ruidosos (como una fábrica) y el sonido ahí no se va a notar. Guía al usuario mediante sonidos 3D y notificaciones. Evitar exceso de sonidos. Integrar feedback visual y auditivo. Interacción en MR Tipos de interacción Las interacciones y reglas de uso son idénticas a las de VR. Los mandos tienen sus particularidades, pero en general hacen lo mismo.. Con mandos: La interacción con manos es la más cómoda, ya que no necesitamos depender de un mando para utilizar la experiencia. Hay distintas formas de utilizarlas según las gafas que estemos usando y la distancia a la que nos encontremos de los elementos. Funcionalidades similares a las de VR. Más intuitiva, depende de la tecnología de las gafas.. Interacción directa o cercana (entre 40 y 60cm): Son las más naturales para los usuarios, ya que trasladan gestos que harían de forma natural, como tocar algo con un dedo o agarrar un objeto grande o pequeño. Cerca de 40-60 cm (gestos naturales como tocar o agarrar).. Interacción indirecta o lejana (mas de 60cm): Los gestos indirectos son rápidos y cómodos, ya que permiten interactuar con cualquier objeto sin importar su ubicación en el espacio, ya que no es necesario alcanzarlo con las manos. Más de 60 cm (permite alcance remoto). Feedback en interacciones Hover(lejos): Se resalta la zona por la que me estoy aproximando Hover(cerca):Cuando más me acerco más preciso es el punto que se resalta Tocar: Al tocar, el punto se ubica donde mi dedo hace contacto y hay feedback visual y auditivo. Recomendado usar sonidos cuando comienza el contacto y cuando termina. Agarrar: El objeto cambia de apariencia y hay feedback visual y auditivo. Recomendado usar sonidos cuando agarro y cuando suelto el objeto.. Interacción con mirada La interacción con mirada es muy parecida a la de VR, pero tiene el añadido de que tenemos el seguimiento de ojos (eye tracking), por lo que con mirar es suciente sin tener que mover la cabeza todo el rato. Evitar mostrar un puntero constantemente donde miramos porque va a molestar. Aprovechar la mirada para interactuar más allá de conrmar algo, por ejemplo, si está leyendo algo. Es recomendable retrasar la aparición del temporizador para seleccionar algo, porque es complicado saber cuándo miramos para leer o para conrmar. Interaccionamos de las vision Pro: Las Vision Pro usan una interacción combinada de manos y eye tracking, de forma que no existe un puntero que sale de nuestras manos, sino que miramos al objeto con el que queremos interactuar, y realizamos el gesto de la acción correspondiente. Interacción en modo manos libres : Consiste en combinar la interacción por mirada con voz, de forma que se puede tener las manos ocupadas mientras vamos realizando y viendo cosas en realidad aumentada Bastaría con mirar a un elemento y decir "Seleccionar" para conrmar. Es recomendable asignar un comando a todos los elementos interactivos y que se vea lo que el usuairo tiene que decir. También es útil cuando cargamos con objetos o llevamos guantes que las gafas no pueden reconocer. Transición entre modos de control LOS MODOS SE CAMBIAN SEGÚN SEA MÁS CÓMODO Si no tengo las manos a la vista puedo usar la mirada. Si tengo un objeto cerca puedo agarrarlo con la mano. Si lo tengo lejos, puedo usar la mirada o el puntero con la mano. Ningún modo debe ser jo, debe respetarse lo que al usuario le salga más natural. LAS MANOS NO SIEMPRE SON VISIBLES Las manos se detectan solo si las cámaras de las gafas pueden verlas. Si estoy mirando arriba y mis manos están debajo no podré usar las manos (salvo en las Vision Pro). En denitiva, siempre habrá varias formas de interactuar. Interfaces de usuario en MR Tipos de interfaces. Ventanas: Planas, similares a apps móviles.Son interfaces planas, que. funcionan igual que las interfaces web o app móviles. Tienen el objetivo de ser intuitivas y fáciles de manejar, especialmente cuando tienen texto encima.. Volúmenes: Interfaces 3D ancladas en un punto del espacio.Son interfaces 3D posicionadas en un punto concreto del espacio. Se interactúa con ellas de distintas maneras. Diseño de interfaces Anclado a una posición: Útil para menús en lugares específicos.El menú de las Vision Pro aparece en una posición concreta. No es incorrecto, aunque puede ocurrir que el usuario no encuentre el menú si se mueve (o que lo vea de lado). Acompañando al usuario: Ideal para elementos siempre visibles.Otros menús como los de las HoloLens acompañan al usuario en todo momento. Esto es útil para interfaces que debe estar siempre a la vista, como los casos en los que un usuario use las gafas para trabajar. Billboarding: La interfaz siempre mira al usuario. En realidad mixta los usuarios pueden moverse libremente en el espacio y ver objetos desde diferentes ángulos. El billboarding consiste en hacer que una interfaz mire hacia el usuario independientemente de su orientación. Se recomienda utilizar el "billboarding" para mejorar la legibilidad y usabilidad de las interfaces para que los usuarios puedan interactuar desde cualquier parte. Color y brillo: En una pantalla transparente cuanto más oscuro es el color menos se verá, es decir, será más transparente. En realidad mixta podemos utilizar esto para mostrar elementos más o menos opacos. Hay que tener cuidado con elementos interactivos muy opacos porque nos taparán las manos. En pantallas transparentes, colores oscuros se ven menos. Considerar la opacidad de elementos interactivos. Tema 9: Diseño en AR en dispositivos Índice. Cómo funciona la realidad aumentada.. Bases de la experiencia en AR.. Interacción en AR.. Interfaces en AR. Cómo funciona la realidad aumentada: PANTALLA, CÁMARA Y SUPERFICIE Los dispositivos con AR escanean las supercies con ayuda de la cámara y más sensores que puedan tener los dispositivos, como un LIDAR, GPS o giroscopio. La pantalla del móvil es donde se proyectan e interactúa con estos elementos. INTERACCIÓN ESPACIAL DESDE LA PANTALLA Las experiencias de AR están pensadas para usarse en todo su espacio, por lo que nos podemos mover libremente para que los elementos reaccionen a nosotros o verlos desde otro punto de vista. LA OCLUSIÓN ES IMPORTANTE PARA DAR REALISMO La oclusión permite tapar elementos que se detecta que en el mundo real deberían estar tapados por otro objeto o por una persona. Street View(Giroscopio) Una de las primeras versiones de AR de Google Maps incluía la posibilidad de proyectar puntos de interés sobre el "mundo real". Utiliza el giroscopio para simular lo que podría ver la cámara, pero no usa cámara. Representa elmente la localización de los puntos de interés con respecto a la realidad. Night Sky (Giroscopio) Permite localizar en el cielo estrellas, planetas, constelaciones y demás información astronómica. Utiliza el giroscopio para simular lo que podría ver la cámara, pero no usa cámara. Representa elmente la localización de los puntos de interés con respecto a la realidad. A día de hoy tiene varios modos más reales para ver el cielo con la cámara o que el techo de tu habitación sea abierto y se vea el cielo. EyeToy (PS2) (cámara) EyeToy son una serie de juegos innovadores para Playstation 2 que utilizaba una cámara para interactuar con distintos videojuegos. Los elementos virtuales no se proyectan la realidad del usuario, sino que mete al usuario en un mundo virtual. Sólo podemos ver los elementos virtuales a través de la pantalla EyePet (PS3) (cámara) Usando la tecnología del EyeToy, se proyecta un animal virtual dentro de nuestro espacio para poder jugar con él y cuidarle. En este caso, el EyePet aparece en el espacio del usuario, al contrario que en EyeToy. Podemos interactuar con las manos o con mando. Invizimals (PSP) (cámara+giroscopio+QR) Con la cámara de la PSP podemos encontrar Invizimals ocultos por nuestra realidad e interactuar con ellos a través de una tarjeta QR. La cámara detecta la posición del QR y es aquí donde se proyectan los bichos. Por tanto, el movimiento es limitado al área del QR. Se crea la ilusión de que están realmente en la mesa, ya que la PSP es una pantalla móvil. Pokémon GO (cámara+giroscopio+LIDAR) Navegación andando en el mundo real. Localizaciones reales. Proyección de pokémons en el lugar donde estemos. Gamicación social. Alcance social grande, alcance cámara medio. Filtros de Instagram(cámara+giroscopio+ FACE ID) Mapeo de la cara. Proyección de elementos 3D en puntos concretos. Detección de gestos y muecas. Oclusión con cabeza o manos. Alcance reducido. Google Maps Live View(cámara+giroscopio+GPS) Indicaciones proyectadas sobre las calles. Mapeo por cámaras. Localización con GPS e información del entorno. Proyección a largas distancias. Baseses de la experiencia AR Espacio real. Espacio virtual. Sonido Háptica. Interacciones. Interfaz de usuario (UI). Espacio Real: Las experiencias en AR son más acotadas comparado con MR Es importante prestar atención a la asignación espacial. Dicultad para crear inmersión Puede existir un escaneo inicial para detectar las supercies necesarias, etiquetarlas, y guiar al usuario en caso de que exista algún problema. Si se busca un espacio o supercie concreta hay que indicarlo. Hay que cuidar la seguridad del usuario, con avisos e indicaciones para prevenir accidentes. Toda la atención del usuario está en una pantalla. Podemos interrumpir la experiencia si el usuario no hace caso. Espacio Virtual: La iluminación y las sombras son muy importantes para dar realismo a los objetos que se proyectan en la pantalla La oclusión también es importante Pensar en cuanto movimiento tiene nuestra experiencia Se puede utilizar sentados o tenemos que movernos Cuanta mas inmersión queremos crearemos 360 tendrá que ser Sonido y Háptica: Al igual que en MR, noticar la aparición de los objetos y que el dispositivo vibre cuando se haga contacto con algún objeto o se haga alguna interacción es importante Interacciones: Manipulación Directa: Para hacer la experiencia lo más realista posible, lo suyo es que el usuario sienta que las acciones que hace afecta a los objetos. Esto se incrementa cuando el usuario es quien mueve el objeto tocando la pantalla encima del objeto que se está visualizando Manipulación Indirecta:Es menos inmersiva pero más eciente. Se utiliza cuando hay acciones complicadas o que se repiten mucho. Se usan botones estáticos en la pantalla y son más fáciles de usar porque no se van moviendo dependiendo de donde estemos apuntando con el teléfono. Gestos:Los gestos que utilizamos en pantalla con nuestros dedos deben ser lo más simples y estandarizados posible y no hay ue abusar de ellos. En Ar no solo se pueden detectar gestos en la pantalla táctil. Por ejemplo, se se puede detectar la posición de una persona en una app para hacer sentadillas, sacar la lengua, parpadear, o detectar posiciones con las manos. Interacción Espacial:La interacción espacial es aquella en la que se interactúa con el espacio virtual dependiendo de donde nos encontramos, sin que exista una interacción con la pantalla. Puede realizarse sólo con el dispositivo, o a veces requiere de otros dispositivos o sensores, conectados por Bluetooth o NFC. Interfaz de Usuario: Campo de visión / Tamaño de la pantalla En el caso de AR, no hay un campo de visión como tal, sino que vemos todo a través de una pantalla cuyo tamaño dependerá del dispositivo. Además hay que adaptarse al dispositivo, por lo que la mayoría de las interfaces que se muestren van a ser planas y seguirán los estándares que cada sistema operativo tenga. El uso de interfaces 3D es menos recomendable en AR. Referenciar objetos fuera de la pantalla Tenemos que poner referencias visuales y auditivas cuando un objeto aparece o permanece fuera de la pantalla. Priorizar el espacio virtual en pantalla Dado que la interfaz y el espacio virtual comparten espacio en la pantalla, siempre hay que intentar mostrar el máximo espacio virtual posible. Hay que adaptar la UI para que ocupe menos o mostrarla y ocultarla. Orientar las interfaces hacia el usuario En el caso de que queramos meter una interfaz en el entorno 3D porque consideramos que aumenta la sensación de inmersión, todas las interfaces miren al usuario directamente y no aparezcan giradas. Presentar objetos grandes de forma reducida Si metemos un objeto muy grande de golpe en la pantalla el usuario puede no darse cuenta de que es lo que está viendo porque lo verá cortado. Es mejor introducirlo a tamaño reducido y mostrarlo después a tamaño real. Cuidar la ergonomía Prestar atención a cómo van a usar la aplicación los usuarios cuando sujeten el dispositivo. Previsiblemente con un móvil en vertical usarán una mano y con el móvil en horizontal o con una tablet usarán dos manos.