NVIDIA lanza para sus tarjetas VRWorks 360 Video SDK 2.0
octubre 19, 2018NVIDIA VRWorks, el kit de desarrollo de NVIDIA para desarrolladores de VR, que proporciona un conjunto de API, bibliotecas y motores para permitir un rendimiento de gráficos de alta gama al crear elementos bajo el paraguas de VR. Su última actualización ve, una vez más, las mejoras realizadas en su 360 Video SDK, que ya ha emocionado a empresas como STRIVR y Pixvana.
«Cuando experimentas una situación como si realmente estuvieras allí, las tasas de retención de aprendizaje pueden aumentar», comentó el Director de Tecnología de STRIVR, Brian Meek, al blog oficial de NVIDIA. «El nuevo Warp 360 ayudará a asegurar que nuestros clientes permanezcan completamente inmersos, y la funcionalidad y el rendimiento que Turing aporta a VRWorks no pueden ser superados».
La nueva actualización de la versión 2.0 acelera la velocidad de unir videos de 360 grados, así como una serie de otras características que hacen que grabar y transmitir en 360 grados sea mucho más fácil. También agrega soporte adicional para NVIDIA CUDA 10 y, por supuesto, las adiciones más recientes a sus alineaciones de GPU.
Las actualizaciones de la arquitectura de Nvidia Turing incluyen:
Audio Ambisonic: aumenta la inmersión de los videos de 360 grados al habilitar el audio 3D, omnidireccional, de manera que la dirección percibida de las fuentes de sonido cambia cuando los espectadores modifican su orientación.
Región de interés personalizada: permite la costura adaptable definiendo el campo de visión deseado en lugar de coser un panorama completo. Esto permite nuevos casos de uso, como el video de 180 grados, al tiempo que reduce el tiempo de ejecución y mejora el rendimiento.
Mono mejorada: aumenta la robustez y mejora la calidad de imagen para equipos de cámara ecuatoriales. Las configuraciones multi-GPU ahora son compatibles con escalas de hasta 2x.
Costuras móviles: ajusta manualmente la ubicación de la costura en la región de superposición entre dos cámaras para preservar la fidelidad visual, especialmente cuando los objetos están cerca de la cámara.
Nueva puntada mono basada en profundidad: utiliza la alineación basada en profundidad para mejorar la calidad de costura en escenas con objetos cercanos a la plataforma de la cámara y mejora la calidad en la región de superposición entre dos cámaras. Esta opción es más intensiva en computación que mover las costuras, pero proporciona un resultado más sólido con contenido complejo.