En abril de 2017, el reconocido escalador Ueli Steck murió mientras se preparaba para subir a las cimas de los montes Everest y Lhotse sin oxígeno. Jonathan Griffith y Sherpa Tenji, amigos cercanos, intentaron terminar este proyecto, mientras que el galardonado director de realidad virtual y fotógrafo alpinista Griffith capturó la historia completa. Asimismo, Griffith trabajó con Matthew DeJohn, experto en posproducción de realidad virtual, a fin de editar y etalonar las imágenes, y con Keith Kolod y Brendan Hogan para el diseño de sonido.
“Es increíble como un equipo reducido de gente pudo lograr todo esto. La colaboración entre yo como camarógrafo, Matt y Keith fue un gran contribuyente para que pudiéramos crear esta serie con una calidad tan alta”, comentó Griffith. “Matt y Keith sugirieron cómo capturar contenidos de realidad virtual, por ejemplo, la forma en la que afecta el temblequeo de la cámara al unir las distintas imágenes o la manera de tener en cuenta el nadir y el cenit en cada encuadre y considerar cuestiones de proximidad. El proceso de posproducción eficiente nos ayudó a enfocarnos en lo que era necesario, y estoy muy feliz con el resultado final. Todos en el proyecto dieron el 100 %, y eso se ve en el material obtenido”, añadió.
DeJohn fue responsable de recopilar una gran cantidad de material grabado con distintos sistemas de cámaras profesionales. “Un proyecto de realidad virtual cuenta con varios equipos con múltiples personas dedicadas a la edición, el etalonaje y el compaginado de imágenes, pero gracias a DaVinci Resolve, Keith y yo nos pudimos hacer cargo de todo”, expresó DeJohn. “DaVinci Resolve es perfecto para la posproducción de contenidos de realidad virtual. El hecho de que cada herramienta que precisaba correspondía a una aplicación diferente hacía el proceso poco rentable y eficiente. Ahorramos mucho tiempo simplemente al cambiar de prestaciones con un solo clic, en vez de tener que enviar archivos de un programa a otro”, agregó.
Para la edición, DeJohn empleó DaVinci Resolve Studio a fin de montar la serie en 2K x 2K, volvió a vincular el material original en 8K x 8K y luego cambió la resolución de la línea de tiempo a 8K x 8K con el propósito de llevar a cabo la corrección cromática y la renderización finales. Además, utilizó las herramientas de edición de audio Fairlight para realizar ajustes precisos, organizar las distintas tomas de narración con diversos niveles de audio y ordenar los archivos originales. “En el etalonaje, usé Resolve para asegurar una estética realista en todas las imágenes y conservarla en los diferentes sistemas de cámaras y condiciones de rodaje. La realidad virtual te obliga a ser real, de modo que utilicé DaVinci Resolve a efectos de preservar el realismo en cada escena, debido a que cualquier indicio de sobresaturación o una corrección cromática poco natural podría arruinar la experiencia del usuario. Etaloné todo el contenido desde el primer montaje, así que, cuando llegó el momento de realizar el último etalonaje, fue solo cuestión de pulir algunos detalles”, manifestó.
Fusion Studio se empleó para corregir la alineación estereoscópica, realizar las animaciones gráficas, eliminar los equipamientos, arreglar nadires, estabilizar las tomas, reorientar imágenes en 360 grados, ver las escenas en 360 grados con unas gafas de realidad virtual y controlar las áreas de enfoque. El procesamiento más complejo lo llevó a cabo Kolod en Fusion Studio. Kolod explicó: “Cada toma en este tipo de producción es una imagen base para los efectos visuales. Yo confié en Fusion. Es mejor, más rápido y más económico. El tiempo de renderización es mucho más corto, y la integración con el resto de las etapas de posproducción es impecable y sumamente eficiente”.
“Algo tuve que arreglar bastante fue la alineación vertical incorrecta, que acarrea problemas enormes al momento de ver las imágenes. Incluso el espectador puede notar si una cámara está apenas torcida”, añadió Kolod. “En el proyecto, usamos muchas cámaras con trípodes, así que uno pensaría que ese material iba a ser sumamente estable. Pero el más mínimo viento o movimiento en la que debería ser una toma tranquila es lo que hace que no se pueda ver una escena en realidad virtual. Por lo tanto, recurrí a Fusion para estabilizar muchas de las imágenes. Los contenidos de realidad virtual de calidad óptima deben ser compaginados manualmente por un artista que se asegure de que no haya áreas poco uniformes. El motivo por el cual esta serie es tan increíble es que hubo un experto involucrado en cada parte del proceso: en el rodaje, la edición, el etalonaje y el compaginado final”, concluyó.
© Newsline Report 2020