7/6/16

Realidad virtual para contar historias





Se está hablando mucho en los últimos meses sobre la realidad virtual aplicada a contar historias, especialmente desde la propuesta que hizo el New York Times.

Lo primero que habría que decir es que llamar “realidad virtual” a una proyección estereoscópica es exagerar bastante pero, en cualquier caso, se trata de un recurso nuevo que merece ser tenido en cuenta. Un pequeño, muy pequeño, paso hacia la holosala.

El que el usuario pueda sumergirse en un mundo virtual es una técnica que se viene experimentando desde hace varios años en campos militares y profesionales. Los cascos con oculares en los que se proyectan imágenes o informaciones se han ido desarrollando poco a poco aunque siempre resultaron incómodos, costosos y difíciles de manejar para usos cotidianos y para el público en general. Nótese que hablamos de “ver” (y quizá escuchar) un entorno aparentemente 3D. La auténtica realidad virtual queda aún muy lejos puesto que requeriría no sólo ver sino sentir, tocar, estar sometido a las inclemencias de ese entorno virtual, etc.

La aparición de Oculus supuso un avance significativo pero el precio seguía siendo muy elevado, amén de precisar estar conectado a un ordenador de alta gama con fuerte capacidad de cálculo.


Fue en el año 2014 cuando Google presentó lo que podríamos llamar Realidad Virtual Económica al crear un sistema muy simple, casi un juguete, en el que esa imagen que simula el entorno 3D se genera en un teléfono móvil con sistema operativo Android y este se coloca en unas gafas-soporte hecho de cartón. Estas gafas, las Google Cardboard permitían, de pronto, que cualquier persona pudiera acceder a un sistema de realidad virtual rudimentario que, si bien se aleja mucho de los profesionales, es suficiente para juegos y pequeñas aplicaciones.




¿Cómo funciona? En realidad, el secreto está en el software que muestra la imagen en el teléfono. La pantalla queda dividida en dos partes, derecha e izquierda, sobre las que se muestran dos imágenes distintas para cada ojo, al modo como nuestra visión funciona en realidad. Es el cerebro el que, mezclando ambas imágenes, genera la sensación de profundidad y la perspectiva, ese efecto estereoscópico que nos hace creer que estamos dentro de un espacio 3D real. Para que nuestro cerebro se engañe es preciso que esas imágenes lleguen por separado a cada ojo y que lleguen desde una distancia pequeña y precisa. La función de las gafas, el soporte de cartón, es esa, mantener el teléfono en una posición relativa adecuada respecto a los ojos y evitar que un ojo pueda ver la imagen que corresponde al del otro.  Es preciso, asimismo, que esas dos imágenes se distorsionen ligeramente ya que el ángulo de incidencia con los ojos es muy elevado.


Un vídeo que muestra la división en dos mitades puede verse en este enlace.

Tras la primera aparición del dispositivo (Google lo regaló como gadget en su conferencia del 2014 a los asistentes), han aparecido en el mercado cientos de copias más o menos desarrolladas con precios que van de unos pocos euros a varias decenas de ellos. Desde simples copias en cartón a gafas más elaboradas en plástico u otros materiales, protegidas contra el sudor o la lluvia, más cómodas de llevar o que se nos aflojan cada minuto, desde las que tienen lentes que son poco más que lupas de feria hasta las que cuentan con ópticas de alta calidad que permiten una mejor visión. Incluso, en Internet abundan los tutoriales para fabricárselas uno mismo.






Debe quedar claro, no obstante, que gran parte del buen funcionamiento del sistema depende del teléfono, no de la gafa-soporte. Para empezar, es necesario que la pantalla del teléfono tenga una buena resolución y píxeles de muy pequeño tamaño (o, lo que es lo mismo, alta densidad de píxeles). Nuestros ojos van a observar la pantalla desde muy corta distancia, apenas unos centímetros, y son muy hábiles detectando los puntitos luminosos que conforman la imagen. Si vemos una imagen pixelada, el efecto de inmersión en un mundo virtual 3D queda arruinado. Normalmente, dejaremos de percibir el pixelado a partir de 450-500 ppp de resolución (muchos teléfonos no llegan a esto). Obviamente, es preciso que el soporte-gafa tenga el tamaño adecuado al tamaño de la pantalla y a la distancia focal requerida por la misma (las Cardboard tienen una distancia focal de 45 mm) y, por tanto, debe seleccionarse un modelo concreto. No todas las gafas valen para todos los teléfonos.

También es preciso que el teléfono tenga un giróscopo que detecte la posición de la cabeza. Si al girar esta, el dispositivo no se entera de que lo hemos hecho y no regenera la imagen ya que estamos mirando para otro lado, la magia de la realidad virtual desaparece.  

Algunos teléfonos disponen de un sensor magnético (“la brújula”). Es por ello, que las gafas originales de Google disponen de un botón en el lateral que no es más que un imán que se desplaza. Si el teléfono es capaz de detectar este movimiento, las aplicaciones pueden interaccionar con el usuario en función de lo que este haga con dicho botón. Existe también una versión con una palanquita conductiva que cumple la misma función. Igualmente, las gafas originales disponen de una etiqueta NFC para que el teléfono detecte automáticamente que lo hemos metido en el soporte y lance la aplicación que permite ver las dobles imágenes.

También es preciso que el soporte sea compatible con nuestras circunstancias. Si, por ejemplo, usamos gafas convencionales necesitaremos uno que permita su uso o bien que las lentes sean ajustables a nuestra miopía.

En el desarrollo del entorno virtual es preciso tener en cuenta dos elementos fundamentales. Primero, la grabación de dicho entorno y segundo, la conversión de la imagen original a las dos mitades.

Grabar una imagen en 360º que permita, luego, al usuario mirar en cualquier dirección no es una tarea sencilla. Google propone Jump que es un sistema de 16 cámaras individuales situadas en círculo con un software que combina cada toma y generando cualquier imagen intermedia que pudiera requerirse en función del giro de la cabeza del usuario.

Para la conversión estereoscópica y la creación del juego o la historia, Google pone a disposición de los programadores tres herramientas de desarrollo, en función de la plataforma: una para Android que necesita activar Java, otra para iOS y la tercera es Unity, que usa C. Otros proveedores proponen sus propios kits de desarrollo los cuales pueden encontrarse bien sea en la Google Play o en la App Store.  Recientemente, Google ha actualizado sus plataformas para que soporten audio que provenga de fuera del sistema, interrelacionando más el mundo virtual con el real exterior.

 Y, ya sólo nos queda lo más difícil. Crear una historia que sea interesante y que aproveche los recursos de la realidad virtual económica.

Hay ya bastante juegos, anuncios, etc. que aprovechan la tecnología pero, probablemente, la iniciativa más profesional y seria es la del New York Times que ha desarrollado una serie de reportajes digitales en realidad virtual para ser visionados con este tipo de gafas y un teléfono móvil. Precisa instalarse una app del NYT

Hay ya varias propuestas: The Displaced sobre la tragedia de los 60 millones de desplazados por guerras o catástrofes; Lebanon: Hana’s Story , la historia de una niña de 12 años en un Líbano en conflicto; South Sudan: Chuol’s Story, la historia de 9 años de un niño soldado; Ukraine: Chuol’s Story, el drama de otro niño de 11 años cuya vida queda devastada por la guerra; Seeking Pluto's Frozen Heart, acerca de los descubrimientos realizados por la nave New Horizons en Plutón; The Click effect sobre la potencial comunicación con delfines y ballenas y Walking New York, que narra cómo se realiza un reportaje para Times Magazine. Reportajes que, por otro lado, puede leerse también de manera convencional en la web del periódico sin el aditamento de realidad virtual.






En este vídeo puede verse el interior de las gafas y su funcionamiento: