La Realidad Extendida, ¿más extendida en 2024?

La Realidad Extendida, ¿más extendida en 2024?

Fernando Rada, SNGULAR Studios Director

Fernando Rada

SNGULAR Studios Director

12 de diciembre de 2023

Introducción

La Realidad Extendida, Mixta, o la Computación Espacial como se la conoce actualmente en su acepción más general, permite mezclar capas digitales con el mundo físico real de una forma natural. Los dispositivos utilizan sensores, cámaras, e interfaces físicos y hápticos para, a través de algoritmos de mapeado espacial, visión computerizada, y seguimiento en el espacio 3D de los elementos de la escena, manipular el contenido digital que se integra con el entorno real.

A diferencia de la Realidad Aumentada convencional, donde las capas digitales se superponen sobre la imagen real, sin capacidad de mezclarse en el entorno tridimensional, las nuevas tecnologías inmersivas permiten a las empresas crear experiencias interactivas realistas, donde las capas digitales y la escena real se combinan de forma completamente armónica y sin costuras, proporcionando espacios de interacción colaborativos con infinitas aplicaciones para empleados y clientes.

Sin embargo, a pesar de la constante evolución de estas tecnologías, su grado de adopción en la industria es aún relativamente baja.

Dispositivos tradicionales de Realidad Extendida

Hasta la fecha, los dispositivos de Realidad Extendida o Mixta más utilizados a nivel profesional han sido las dos generaciones de Microsoft Hololens. Ambas versiones se basan en un visor transparente, que deja pasar la imagen del entorno real, en cuya superficie se ubican unas “lentes holográficas”, que en realidad son estructuras multicapa o guías de onda que se utilizan para confinar la imagen digital proyectada en un espacio concreto. Es precisamente esa una de las principales limitaciones de este tipo de visores, porque el campo de visión (FOV, Field of View) de las capas digitales es bastante reducido, lo que implica que cuando giramos la cabeza perdemos de vista los elementos de la imagen digital que se salen del FOV. Sin embargo, la segunda versión de Hololens trajo muchas mejoras interesantes, sobre todo por su integración con nuevos servicios en la nube de Azure específicamente diseñados para la Realidad Mixta, como los que permiten entornos colaborativos y asistencia remota, como Dynamics 365 Remote Assist. Por ejemplo, un técnico que lleve unas Hololens 2 puede conectar con un ingeniero experto que esté a miles de kilómetros, y transmitir señal de vídeo en tiempo real para que éste desde su móvil haga indicaciones precisas utilizando voz, marcadores, anotaciones, y otros elementos gráficos, que aparecerán directamente en las capas digitales de las Hololens 2, para guiar a la persona que necesita soporte en la resolución del problema.

En los últimos tiempos hemos asistido a una serie de lanzamientos algo decepcionantes de nuevos dispositivos de Realidad Extendida basados en esta aproximación de pantallas translúcidas que prometían resolver algunas de las limitaciones de estas gafas, como el de Magic Leap, que en sus especificaciones iniciales anunciaba un sistema de proyección en la retina para evitar el problema del campo de visión reducido, y al final se conformó con aplicar un sistema similar al de su competidor de Microsoft. Con el anuncio de este último en 2021 cancelando su “proyecto Calypso”, o lo que es lo mismo la tercera generación de Hololens, parece que por el momento la orientación del hardware de Realidad Extendida va a abandonar la línea de gafas translúcidas para apostar más por cascos de Realidad Virtual con capacidades de Realidad Mixta, como es el caso de los nuevos dispositivos de Meta, Pico, Oppo, Varjo y el nuevo Apple Vision Pro.

La nueva Realidad Extendida

Los cascos de Realidad Virtual han experimentado una clara evolución hacia dispositivos con capacidades de Realidad Extendida o Mixta. El notable incremento de las ventas de cascos de VR, impulsado por el mercado de los videojuegos, ha espoleado la mejora y abaratamiento de todos los componentes de estos dispositivos, configurando un contexto donde la adopción de los sensores y capacidades añadidas de computación requeridos para añadir a la experiencia virtual una buena experiencia en Realidad Mixta, se esté extendiendo cada vez más. Este sistema, a diferencia de las gafas con pantallas translúcidas, utiliza cascos que bloquean totalmente la visión del exterior, para permitir un uso totalmente inmersivo en Realidad Virtual. Sin embargo, para su uso en modo Realidad Mixta, capturan la imagen real del exterior a través de cámaras, y la muestran en las pantallas del dispositivo, junto con los objetos o capas digitales, en un proceso que se conoce como passthrough. Con este sistema se consigue incrementar dramáticamente el FOV, y parece que será este tipo de aproximación a la Realidad Mixta la que veremos en el futuro próximo. El lanzamiento de Meta Quest 3 es una clara apuesta de la compañía por introducir elementos que mejoren sus capacidades de Realidad Mixta, como el passthrough en color mejorado, un FOV que casi triplica el de Hololens 2, o su sensor de profundidad que permite generar automáticamente una malla 3D de los elementos reales de la escena, para integrarlos con el resto de objetos digitales. Si bien la adopción de lentes pancake, junto con el nuevo chipset Snapdragon XR2 Gen 2, permiten reducir su tamaño y acercar el centro de gravedad hacia el cuello, su ergonomía es todavía muy mejorable, aunque es algo que con la progresiva disminución del tamaño de todos los componentes acabará llegando.

La llegada de las Apple Vision Pro

Pero sin duda la inminente comercialización del Apple Vison Pro (AVP) parece que puede dar un impulso aún mayor a la adopción de la Realidad Extendida en sus múltiples aplicaciones. Si nos atenemos a sus abrumadoras especificaciones técnicas, va a mejorar todos los elementos clave que mejor definen una buena experiencia en Realidad Mixta. Incorporan el chip Apple M2, el mismo que se utiliza en alguno de los ordenadores más potentes de su gama, y lo complementan con otro chip, el R1, que se dedica exclusivamente a procesar las señales de entrada de las 12 cámaras y 5 sensores del visor. Por un lado cuenta con pantallas de resolución superior a 4K por cada ojo, con tecnología Micro OLED, que mejoran notablemente la nitidez y el contraste (los negros dejarán de ser grises), y un sistema de audio espacial enriquecido por los sensores que mapean el entorno en 3D. El passthrough del AVP deja completamente atrás los problemas de distorsiones y deformaciones de los objetos de la imagen real, y es capaz de transmitir la imagen a las pantallas en tan solo 12 milisegundos, permitiendo aplicaciones impensables hasta ahora, como trabajar con monitores físicos reales durante horas sin necesidad de quitarse el visor. Por otro lado, incorpora un sistema de seguimiento ocular avanzado basado en LEDs y cámaras infrarrojas, siendo éste un elemento sustancial para permitir el control de la interfaz a través de la mirada, a la vez que habilita capacidades técnicas que mejoran la tasa de relleno como el foveated render, el cual reduce o aumenta dinámicamente la resolución de distintas zonas de la pantalla dependiendo de hacia dónde se dirija la mirada. Dos cámaras de alta resolución y un escáner LiDAR, se encargan de hacer el mapeado del entorno en tiempo real, generando una malla 3D para todos los elementos de la escena. Además se utilizan para realizar un seguimiento muy preciso de las manos, que igualmente se emplean para el control de la interfaz, con lo que cualquier operador que necesite tener las manos libres puede usar el visor sin necesidad de un mando. Otro elemento muy a destacar es su software, que ha sido siempre uno de los puntos fuertes de Apple. Se ha apostado por desarrollar un sistema operativo completamente nuevo, visionOS, que consta de una interfaz completamente tridimensional, que responde de forma dinámica a la luz natural y proyecta sombras sobre el entorno real, ayudando a que el usuario perciba los elementos digitales de forma integrada. Finalmente, a falta de probarlas, parece que su ergonomía puede ser otro aspecto en el que supera claramente a los cascos MR que hemos visto hasta hoy, y es algo muy relevante para su adopción generalizada en cualquier industria o aplicación profesional.

Nuevas aplicaciones de la Realidad Extendida

Una de las áreas donde el impacto de estas tecnologías puede ser mayor es el de la gestión del ciclo de vida de los productos. A través de simulaciones inmersivas, los diseñadores e ingenieros podrán acoplar módulos virtuales a máquinas físicas reales que, a través de sensores físicos, aportarán datos a un sistema digital que permitirán evaluar el funcionamiento de las partes digitales y físicas en conjunto, reduciendo los tiempos de pruebas, optimización y fabricación de prototipos.

Por otro lado, en un entorno empresarial donde los equipos se encuentran cada vez más deslocalizados, es muy frecuente enfrentarse a escenarios de diseño colaborativo, y sin duda estas herramientas permitirán a equipos dispersos geográficamente trabajar juntos en un entorno virtual común, manipulando modelos 3D e intercambiando feedback en tiempo real, lo cual no sólo acelerará el proceso de diseño, sino que permitirá asegurarse de que todos sus responsables estén en la misma página, y dispongan de toda la información simultáneamente.

Otro ámbito de aplicación muy interesante es la formación inmersiva. A través de herramientas de Realidad Mixta y Realidad Virtual, pueden desarrollarse gemelos digitales que permitan el aprendizaje de la operación de cualquier dispositivo o elemento físico. Están especialmente indicados en la enseñanza de cualquier técnica que requiere manipulación de objetos físicos en el espacio, ya sea en biomedicina, ingeniería, telecomunicaciones, o cualquier otro sector industrial, consiguiendo mejoras en la seguridad, reduciendo costes frente a la formación presencial, permitiendo un registro ágil y unificado del avance en las formaciones, y habilitando un sistema totalmente dinámico para la actualización de los módulos formativos.

El futuro del Metaverso y la Realidad Virtual

El metaverso es un espacio virtual persistente y compartido, donde los usuarios interaccionan entre sí y con objetos digitales en tiempo real, generalmente a través de avatares, y donde frecuentemente se adopta una economía basada en monedas virtuales que permiten el intercambio de bienes digitales. Tradicionalmente los metaversos estaban estrechamente relacionados con los videojuegos. De hecho, los que hemos estado pegados a esta industria a lo largo de los años, vemos con cierta dosis de estupefacción cómo este término ha irrumpido en prácticamente todos los sectores profesionales como si de un descubrimiento reciente y revolucionario se tratara. Realmente, desde el lanzamiento del que pasa por ser el primer MMO, Ultima Online hacia 1998, son muchos los videojuegos que satisfacen los criterios que deberían definir un metaverso de forma inequívoca. Es bien conocido que cuando un término alcanza un nivel semejante como “buzzword”, todas las compañías quieren “subirse al carro”, y a consecuencia de ello se empiezan a generalizar acepciones mucho más vagas del concepto. Espacios virtuales tan comunes como las propias redes sociales, X, Instagram o Facebook, pudieran interpretarse en último término como metaversos, en tanto en cuanto son universos digitales persistentes donde la gente “vive” e interacciona entre sí. Sin embargo, estos espacios no cumplen una premisa fundamental, la de ofrecer un universo virtual paralelo e inmersivo, característica además que sus pequeñas pantallas 2D difícilmente pueden ayudar a proporcionar.

Por otro lado, la irrupción de otras tecnologías como las criptomonedas, y otros elementos relacionados como los NFTs, que se han encajado rápidamente en el concepto de metaverso, ha provocado aún más confusión en la percepción generalizada del término, y ha supuesto una barrera de entrada adicional que no en todos los escenarios debería ser necesario franquear.

Parece que estas acepciones un tanto imprecisas del término, junto con implementaciones poco acertadas o precipitadas que se han traducido en experiencias decepcionantes, han generado confusión en las empresas y poco han ayudado a que el concepto se pueda adoptar en sus múltiples ámbitos de aplicación. Eso sí, los que ya hacían metaversos desde hace veinte años, los grandes actores de la industria de los videojuegos han seguido evolucionando con gran éxito esta fórmula. Valgan como ejemplo World of Warcraft de Blizzard, con dos décadas manteniéndose con picos de 13M de usuarios mensuales, y Fortnite de Epic con promedios mensuales de jugadores activos superiores a 250M. Estos metaversos se han convertido no sólo en un espacio de entretenimiento, sino que nuestros hijos los utilizan como red social donde “quedan” para verse diariamente. Los grandes estudios de videojuegos han entendido claramente este potencial, aprovechando estos espacios para desarrollar eventos virtuales con asistencia masiva que impulsen la monetización y retención de usuarios, como es el caso de los conciertos en directo de Travis Scott y Marshmello en Fortnite, con más de 12 y 10 millones de asistentes respectivamente.

Dejando a un lado los metaversos de la industria del videojuego, parece claro que debemos reflexionar acerca de cuáles deben ser realmente los criterios que los definan mejor para su desarrollo más provechoso en el entorno empresarial. También seguramente acabarán por enfocarse desde objetivos funcionales más precisos en cada caso e industria, más que como espacios donde concurran usuarios de forma masiva, salvo en las soluciones directamente relacionadas con las comunicaciones entre personas, como las de Meta o Microsoft. No olvidemos que por muy atractivos que sean los entornos virtuales que podamos construir, los usuarios sólo van a acudir y permanecer en ellos en la medida en que les aporten claramente valor. Es en este aspecto de la orientación a objetivos funcionales donde la Realidad Virtual y la Realidad Extendida, a la vista de sus nuevas capacidades tecnológicas, pueden ayudar a impulsar la adopción de los metaversos en el ámbito empresarial. Los nuevos dispositivos stand-alone (sin cables), con tracking de manos (sin mandos), con capacidades de Realidad Mixta, más ligeros, más potentes y con ergonomía muy mejorada que permite extender las horas de uso, van a proporcionar soluciones VR y MR que resuelvan problemas o necesidades del mundo real en entornos virtuales profesionales colaborativos e inmersivos. ¿Lo empezaremos a ver en 2024? Esperamos que sí.

Fernando Rada, SNGULAR Studios Director

Fernando Rada

SNGULAR Studios Director

Con más de 25 años de experiencia como emprendedor y alto ejecutivo en el ámbito móvil, juegos y medios digitales, desde finales de la década de 1980 ha fundado y dirigido diferentes empresas liderando equipos multidisciplinarios con un historial comprobado de resultados destacados. Actualmente, es Director de SNGULAR Studios, un proveedor internacional de soluciones tecnológicas que ayuda a las empresas a aprovechar las tecnologías digitales más avanzadas para crear valor y crecer. Además, se ha embarcado en una intensa actividad académica, ya que actualmente es Profesor Universitario en Gestión Empresarial de Proyectos en ESNE (Universidad Camilo José Cela, Madrid), y ha obtenido su doctorado "Cum Laude" en Ciencias Económicas y Empresariales en la UNED.