Agencias/ Ciudad de México.- Trabajando en la intersección de la óptica y la inteligencia artificial, científicos de Stanford desarrollan nuevas técnicas para mejorar las pantallas 3D para realidad virtual y aumentada.

Los cascos de realidad virtual y aumentada están diseñados para colocar a los usuarios directamente en otros entornos, mundos y experiencias. Si bien la tecnología ya es popular entre los consumidores por su calidad envolvente, podría haber un futuro en el que las pantallas holográficas se parezcan aún más a la vida real.

En su propia búsqueda de estas mejores pantallas, el Laboratorio de Imágenes Computacionales de Stanford ha combinado su experiencia en óptica e inteligencia artificial. Sus avances más recientes en esta área se detallan en un artículo publicado en Science Advances y el trabajo que se presentará en SIGGRAPH ASIA 2021 en diciembre.

En esencia, esta investigación confronta el hecho de que las pantallas de realidad virtual y aumentada actuales solo muestran imágenes en 2D a cada uno de los ojos del espectador, en lugar de imágenes en 3D, u holográficas, como las que vemos en el mundo real.

“No son perceptualmente realistas”, explicó Gordon Wetzstein, profesor asociado de ingeniería eléctrica y líder del Laboratorio de Imágenes Computacionales de Stanford. Wetzstein y sus colegas están trabajando para encontrar soluciones para cerrar esta brecha entre la simulación y la realidad mientras crean pantallas que sean más atractivas visualmente y más agradables a la vista.

La investigación publicada en Science Advances detalla una técnica para reducir una distorsión de moteado que a menudo se ve en pantallas holográficas regulares basadas en láser, mientras que el artículo de SIGGRAPH Asia propone una técnica para representar de manera más realista la física que se aplicaría a la escena 3D si existiera en el mundo real.

En las últimas décadas, la calidad de imagen de las pantallas holográficas existentes ha sido limitada. Como lo explica Wetzstein, los investigadores se han enfrentado al desafío de conseguir que una pantalla holográfica se vea tan bien como una pantalla LCD.

Un problema es que es difícil controlar la forma de las ondas de luz con la resolución de un holograma. El otro gran desafío que obstaculiza la creación de pantallas holográficas de alta calidad es superar la brecha entre lo que sucede en la simulación y cómo se vería la misma escena en un entorno real.

Anteriormente, los científicos han intentado crear algoritmos para abordar ambos problemas. Wetzstein y sus colegas también desarrollaron algoritmos, pero lo hicieron utilizando redes neuronales, una forma de inteligencia artificial que intenta imitar la forma en que el cerebro humano aprende información. A esto lo llaman “holografía neuronal”.

“La inteligencia artificial ha revolucionado prácticamente todos los aspectos de la ingeniería y más allá”, dijo Wetzstein. “Pero en esta área específica de las pantallas holográficas o la holografía generada por computadora, la gente acaba de comenzar a explorar las técnicas de inteligencia artificial”.

Yifan Peng, investigador postdoctoral en el Laboratorio de Imágenes Computacionales de Stanford, está utilizando su experiencia interdisciplinaria tanto en óptica como en ciencias de la computación para ayudar a diseñar el motor óptico que se integra en las pantallas holográficas.

“Solo recientemente, con las innovaciones emergentes en inteligencia de máquinas, hemos tenido acceso a las poderosas herramientas y capacidades para hacer uso de los avances en la tecnología informática”, dijo en un comunicado Peng, quien es coautor principal del artículo Science Advances y coautor del artículo SIGGRAPH.

La pantalla holográfica neuronal que estos investigadores han creado implicó entrenar una red neuronal para imitar la física del mundo real de lo que estaba sucediendo en la pantalla y lograr imágenes en tiempo real. Luego, combinaron esto con una estrategia de calibración de “cámara en bucle” que proporciona retroalimentación casi instantánea para informar ajustes y mejoras. Al crear un algoritmo y una técnica de calibración, que se ejecutan en tiempo real con la imagen vista, los investigadores pudieron crear imágenes de aspecto más realista con mejor color, contraste y claridad.

El nuevo artículo de SIGGRAPH Asia destaca la primera aplicación del laboratorio de su sistema de holografía neuronal a escenas 3D. Este sistema produce una representación realista de alta calidad de escenas que contienen profundidad visual, incluso cuando partes de las escenas se representan intencionalmente como lejanas o desenfocadas.

El trabajo de Science Advances utiliza la misma estrategia de optimización de cámara en bucle, combinada con un algoritmo inspirado en la inteligencia artificial, para proporcionar un sistema mejorado para pantallas holográficas que utilizan fuentes de luz parcialmente coherentes: LED y SLED. Estas fuentes de luz son atractivas por su costo, tamaño y requisitos energéticos y también tienen el potencial de evitar la apariencia moteada de imágenes producidas por sistemas que dependen de fuentes de luz coherentes, como los láseres. Pero las mismas características que ayudan a los sistemas de fuentes parcialmente coherentes a evitar las manchas tienden a producir imágenes borrosas con falta de contraste.

Al construir un algoritmo específico para la física de fuentes de luz parcialmente coherentes, los investigadores han producido las primeras imágenes holográficas 2D y 3D de alta calidad y sin manchas utilizando LED y SLED.

Comentarios desactivados en Perfeccionan científicos técnicas de pantallas 3D para realidad virtual en EEUU