Guía de la animación en tiempo real

Guía de la animación en tiempo real en la que Epic Games trata de abarcar los campos más destacados de la tecnología gráfica que nos envuelve en estos últimos años.

Algunos de ustedes pueden preguntarse últimamente: ¿Qué es todo este alboroto que escucho sobre la animación en tiempo real? ¿Cambiador de juego disruptivo, dices? ¿El futuro del desarrollo visual colaborativo? Estas preguntas no son nada nuevo en muchos círculos creativos. Pero no hemos visto muchos escritos sobre la inevitable convergencia de los enormes mundos de la tecnología de motores de juegos; y el entretenimiento animado 2D y 3D producido tradicionalmente en cine y televisión.

La vieja frase «Nunca los dos se encontrarán» de repente me viene a la mente. Bueno, todo eso está cambiando. Rápidamente. Esos «gemelos» ahora están corriendo uno al lado del otro por el mismo twack. Lo que se estaba filtrando lentamente en el discurso de la producción de entretenimiento convencional. Con un innovador esfuerzo previo aquí y un largometraje realizado completamente en un almacén allí; ahora es una verdadera inundación repentina.

La pandemia

La pandemia de COVID-19 obligó a los estudios a descubrir flujos de trabajo de producción remotos y basados ​​en la nube. Lo que provocó una ree-valuación de sus procesos lineales. De repente, las herramientas y los flujos de trabajo alternativos que solían considerarse demasiado perturbadores para sus prácticas probadas y verdaderas estaban sobre la mesa, con la tecnología en tiempo real al frente y al centro. Sin embargo, una cosa es segura: la aceptación, la integración y el despliegue se sienten como un imperativo en lugar de una incursión.

Enfrentados a un grupo de talentos no lo suficientemente grande (y ya no nómada); los estudios están adoptando todo tipo de metodologías de producción para manejar una explosión sin precedentes de producción de animación. Impulsada por streamers insaciables que exigen un gran volumen de características, episodios y cortos con imágenes de alta calidad producidos en un tiempo récord a bajo costo para todos los grupos demográficos, géneros, idiomas y culturas imaginables. ¡Es agotador solo decirlo, y mucho menos producirlo!

Por cada espectáculo taquillero que puede permitirse el lujo de cinco o seis años de desarrollo y producción; hay cientos que se están concibiendo, desarrollando y poniendo en producción mucho más rápido que nunca. La preproducción rápida, con equipos remotos más pequeños, se desplaza necesariamente hacia cualquier conjunto de herramientas que permita un desarrollo más rápido. Previs, que se utiliza para presentar escenas complejas, coreografiar acrobacias, calcular ubicaciones de cámara complejas.

Una herramienta indispensable

Además del desarrollo de la historia, de repente se convierte en una herramienta increíblemente importante para los directores, que ahora pueden sentarse con un pequeño equipo y visualizar un espectáculo completo, escena por escena, en en tiempo real, con imágenes de alta resolución, composición de fotogramas e iluminación.

Los flujos de trabajo de animación en tiempo real están facilitando el control creativo de formas sin precedentes. ¡Puede crear un prototipo de toda su película antes de tener que contratar a un servicio de catering!

Nada de esto ha sucedido por accidente o en el vacío. La producción en tiempo real impulsada por la tecnología que utiliza motores de juegos ha impulsado todo tipo de innovación durante años. Lo hace en muchos estudios conocidos como ILM y Wētā FX; como la integración de captura de rendimiento en el set o escenarios de pared LED que integran FX en la cámara.

Pero si ha estado prestando atención, habrá visto que Epic Games y Unreal Engine, a través de iniciativas como el programa Epic MegaGrants. Que han estado apoyando y celebrando el trabajo de miles de artistas individuales y pequeños equipos de estudio durante años. . Epic ha estado impulsando la tecnología de motores de juegos y las canalizaciones de animación en tiempo real en todas las áreas imaginables de producción de contenido; no solo en el entretenimiento. Es casi como un secreto que sucede a simple vista.

¿Por qué es todo esto importante?

Es importante porque los artistas, por naturaleza, adoptarán cualquier herramienta o medio de producción que les dé la más mínima ventaja. Las herramientas de animación en tiempo real ofrecen a los equipos creativos el lujo de realizar todo tipo de cambios con efecto inmediato. No hay horas de espera, días o incluso semanas para obtener resultados. Las imágenes finales o casi finales están literalmente al alcance de la mano.

Argumente como quiera que el canal de producción lineal tradicional sigue siendo el rey (y lo es). Pero ya no puede ignorar el hecho de que la animación en tiempo real se está convirtiendo rápidamente en un flujo de trabajo cada vez más importante; incluso imperativo, en cualquier canal creativo serio.

Love Death Robots cortesía de Netflix - Guía de la animación en tiempo real
Love Death Robots cortesía de Netflix – Guía de la animación en tiempo real

¡Ese gemelo seguro ha seguido rodando toda la noche!

En más de 20 años de entrevistar a cientos de los principales supervisores de VFX, supervisores de animación, supervisores de CG y similares; y hacer la pregunta: ¿Le preocupa que la tecnología de producción ejerza demasiado control sobre el proceso creativo? Siempre he recibido la misma respuesta: La tecnología de producción siempre debe apoyar la visión del director.

Las producciones de animación y efectos visuales son increíblemente difíciles, exigentes y exigentes. Las imágenes complejas requieren enormes cantidades de planificación, disciplina, talento y recursos para producir. Nunca hay suficiente tiempo, personas o recursos. Alguna vez.

Los motores de juegos brindan a los equipos acceso inmediato a contenido repleto de activos de alta resolución. Simulaciones y movimiento basados ​​en la física; texturas y ropa realistas; todo tipo de partículas FX; y cámaras e iluminación compleja; todo controlado en tiempo real para una toma de decisiones rápida, iterativa y creativa nunca antes alcanzable. Puede ser disruptivo, pero ciertamente no es trivial; ni la locura de los pioneros centrados en el juego que nunca aprendieron a respetar las líneas de producción de animación probadas y verdaderas.

Guía de la animación en tiempo real

La animación en tiempo real puede no ser la caballería cargando colina abajo todavía. Es más como tener un amigo confiable que sabes que siempre aparecerá con poca antelación, ansioso por echarte una mano. Y ese es el tipo de ayuda que siempre es bienvenida.

Dan dirige Animation World Network (AWN.com), una de las mayores editoriales de noticias e información sobre animación y VFX. Dan ha formado parte de jurados, ha pronunciado conferencias magistrales y moderado paneles en numerosos eventos de la industria, como Animation Masters Summit y FMX; y actualmente es presidente del Computer Animation Festival para SIGGRAPH Asia 2022.

Introducción a la guía de la animación en tiempo real

La animación se trata, en esencia, de dar vida a las historias a través de personajes, mundos y actuaciones. Los artistas crean historias siguiendo un canal de producción, una serie de procesos diseñados para que el flujo de trabajo sea fluido y eficiente. Pero incluso la tubería más fluida requiere una supervisión y un refinamiento persistentes para que todo suceda. Para llegar al momento en que todo se une para producir una obra de arte.

Trabajar dentro de una tubería es esencial para terminar un proyecto en cualquier período de tiempo razonable. Sin embargo, las canalizaciones de animación no están escritas en piedra; los estudios siempre están buscando formas de aprovechar las nuevas tecnologías para avanzar tanto en la eficiencia creativa como en la económica.

Es lógico pensar que cualquier cambio en los procesos de animación que hayan funcionado durante décadas no debe comprometer la narración de historias. Es ideal hacerla mejor, más fácil y más rápida. Aquí en Epic Games, vemos a la industria al borde del precipicio de un nuevo paradigma para la animación; una canalización en tiempo real que brinda a los creadores más oportunidades para iterar; explorar, experimentar y descubrir, desde el desarrollo de la historia hasta el renderizado final.

Guía de la animación en tiempo real

En esta guía, obtendrá un recorrido por las canalizaciones en tiempo real que se utilizan hoy en día y descubrirá cómo los productores; directores, TD y artistas han eliminado los puntos débiles comunes en la canalización tradicional con este nuevo flujo de trabajo.

Estos profesionales de la industria, que han hecho la transición y están produciendo proyectos en Unreal Engine; hablarán sobre la libertad creativa que han disfrutado al colaborar e iterar en tiempo real. Comparte cómo las fases de producción como el diseño, la animación y la iluminación ya no son lineales; sino que ahora se superponen de manera fluida; y expresar cómo ver los píxeles finales antes les permite contar mejores historias.

También le informarán sobre los beneficios intangibles, como la emoción de ver que el proyecto se lleva a cabo tan rápido; y una mayor satisfacción del artista cuando los cambios aparecen instantáneamente.

¿Para quién es esta guía de la animación en tiempo real?

El mundo del contenido de animación está cambiando: cómo lo hacemos, cómo lo entregamos y cómo lo consumimos.

El contenido lineal al que nos hemos acostumbrado se está explotando más allá del cine y la televisión en nuevos medios como experiencias interactivas; realidad virtual y aumentada, entretenimiento basado en la ubicación y más. Desde este punto de vista, queda claro que los mundos de la producción de animación y el desarrollo de juegos están convergiendo; de una manera que brinda a los creadores más oportunidades para contar sus historias. Esta convergencia incluye la creciente aceptación de un motor de juego como plataforma para el desarrollo de contenido animado.

Epic Games, el creador de Unreal Engine, ha producido The Animation Field Guide para cualquier persona interesada en aprender más sobre las muchas facetas y beneficios de producir proyectos de animación con los flujos de trabajo en tiempo real que un motor de juego fomenta naturalmente.

Guía de la animación en tiempo real

Si usted es un director que quiere agilizar el proceso de revisión para tener más oportunidades de repetir su visión. Un artista que necesita comentarios instantáneos sobre los cambios de iluminación o animación; o un director técnico que busca impulsar más eficiencias en toda la tubería, esta guía es para ti.

Y cuando esté listo para sumergirse en profundidad para obtener más información y orientación técnica; puede explorar las ideas, los consejos y los trucos compartidos por los profesionales de la industria y el personal de Epic en nuestra nueva comunidad de desarrolladores de Epic. Como la Guía técnica para la creación de contenido lineal.

Unreal Engine y canalizaciones en tiempo real

Durante los últimos 25 años, Unreal Engine se ha establecido como la principal plataforma abierta para juegos AAA. También ha visto una amplia adopción en múltiples industrias. En el campo de la arquitectura, los diseñadores han descubierto que pueden usar tecnología en tiempo real para llevar sus visiones a los clientes mucho más rápido. En la industria automotriz, Unreal Engine impulsa sesiones de diseño colaborativo, simuladores de conducción, pruebas de vehículos autónomos y soluciones HMI (interfaz hombre-máquina).

La industria del cine y la televisión no ha sido una excepción: los equipos de producción han aprovechado Unreal Engine durante años; desde la etapa previa hasta la posproducción. A la serie de Disney The Mandalorian, por ejemplo, se le puede atribuir el mérito de demostrar la viabilidad de la tecnología en tiempo real; y los efectos visuales en la cámara para producir contenido de calidad cinematográfica.

Unreal Engine está experimentando una adopción acelerada en la industria de la animación como una plataforma creativa para el desarrollo desde la preproducción hasta la producción y la posproducción; y no solo para el renderizado en tiempo real. De hecho, si su objetivo al implementar una canalización en tiempo real es simplemente reemplazar su flujo de trabajo y software de renderizado existentes; es menos probable que tenga éxito y se perderá muchos beneficios.

Guía de la animación en tiempo real

Como plataforma, Unreal Engine afecta todos los aspectos de su flujo de trabajo, desafiando las normas familiares de una canalización tradicional. Entonces, si solo está aquí para reemplazar su renderizador, esta guía no es para usted. Pero si está listo para saltar y ver cómo un flujo de trabajo en tiempo real puede mejorar toda su canalización; siga leyendo mientras compartimos ideas e historias de usuarios sobre cómo los estudios están haciendo la transición.

Los animadores empezaron a animar para contar historias, y una canalización en tiempo real hace que esto sea más posible que nunca. Estamos entusiasmados de estar a la vanguardia de una nueva forma de trabajar que tiene el potencial de llevar la industria a alturas aún mayores, y esperamos que se una a nosotros. Empecemos.

Unreal Engine y canalizaciones en tiempo real - Guía de la animación en tiempo real
Unreal Engine y canalizaciones en tiempo real – Guía de la animación en tiempo real

Evolución de la canalización en tiempo real

Para comprender mejor los beneficios de una canalización en tiempo real; comencemos con un viaje rápido por el carril de la memoria para volver a visitar las canalizaciones tradicionales desarrolladas a lo largo de la historia de producción de animación. Explorar estas canalizaciones lineales brindará información sobre las diferencias entre estos enfoques y los flujos de trabajo paralelos de una canalización en tiempo real.

Canalizaciones lineales

La animación ha capturado los corazones y la imaginación de los creadores desde sus inicios. Incluso antes de que Disney y Nine Old Men revolucionaran e impulsaran la animación a la cultura dominante en la década de 1930; su historia se estaba escribiendo.

La década de 1800 vio una serie de desarrollos en la ilusión estroboscópica, comenzando con el fenaquistiscopio en 1833; una simple tarjeta redonda con dibujos y ranuras que el espectador giraba y miraba.

Esta invención condujo directamente a varias máquinas más basadas en ilusiones, como el zoótropo y el praxinoscopio. Si bien todos solo podían reproducir bucles, el praxinoscopio avanzó la ciencia mucho más con la capacidad de mostrar una animación mucho más larga; el uso inteligente de espejos para una visualización más fluida y la proyección de imágenes para que varias personas pudieran disfrutar de la presentación a la vez.

El advenimiento del cine como entretenimiento a principios del siglo XX le dio al mundo un nuevo medio para compartir historias animadas. Después de producir Blancanieves y los siete enanitos, aclamada por la crítica, la década de 1900 perteneció a Disney; que se esforzó por alcanzar estándares de calidad cada vez más altos en cada nueva película que producían.

Guía de la animación en tiempo real

Cada proyecto requería los servicios de cientos de empleados talentosos y dedicados; animadores, artistas de tinta y pintura, fotógrafos, editores de películas, locutores, ingenieros de sonido y muchos otros.

Disney recurrió continuamente a la tecnología para mejorar la narración. Las contribuciones de Disney a la evolución de la animación incluyen la adición de sonido totalmente sincronizado a la animación; como se vio por primera vez en el corto Steamboat Willie (1929); descubrir cómo combinar la acción en vivo con la animación para la película Song of the South (1946); y desarrollo de procesos xerográficos para acelerar la producción, utilizados en la película 101 dálmatas (1961).

Disney también aprovechó las herramientas y las innovaciones del momento (la cámara multiplano, la rotoscopia y muchas otras); para agilizar el proceso de producción y mantener un alto nivel de calidad visual y narración.

Canalización tradicional de animación 2D/Cel Pero incluso con los avances tecnológicos creados por Disney. Las canalizaciones 2D eran muy lineales, tomaban mucho tiempo para producirlas y requerían mucha mano de obra.

Guía de la animación en tiempo real

En un proceso de línea de montaje, un animador comenzaría dibujando contornos de poses clave en hojas de celuloide (también conocidas como cels); entregaría las hojas a tweeners que conectarían la acción y las pasaría para entintarlas, pintarlas y fotografía.

Cualquier cambio por parte de un director tendría un efecto exponencial en el proceso. Incluso un cambio menor en el color haría que el proceso se volviera a pintar a mano; y los cambios más detallados podrían significar comenzar una secuencia desde cero con nuevos dibujos. Se pueden perder días, semanas, a veces meses de trabajo.

Incluso en las canalizaciones más eficientes del momento, cada película tardó años en materializarse.

Canalizaciones lineales - Guía de la animación en tiempo real
Canalizaciones lineales – Guía de la animación en tiempo real

Pipeline tradicional de animación 2D/Cel

El lanzamiento de Toy Story de Pixar en 1995 puso la animación 3D en el mapa para audiencias de todo el mundo. Inspirados a legiones de estudios a participar en el juego a medida que el precio de las computadoras comenzó a disminuir drásticamente; y el software 3D listo para usar estuvo disponible ( y asequible) para PC de escritorio.

Si bien las computadoras también mejoraron la eficiencia en las canalizaciones 2D tradicionales, la revolución 3D realmente abrió nuevas posibilidades creativas en la narración de historias que posiblemente fueron superadas solo por el impacto de Disney en la animación en la década de 1930. Pero esta innovación también vino con sus propios desafíos, y lo que quedó fue un proceso de línea de ensamblaje en gran parte lineal con algunos departamentos nuevos que surgieron en el camino.

Las canalizaciones 3D aún requerían una mano de obra significativa, pero con la introducción del proceso altamente computacional de renderizado; las legiones de artistas de tinta y pintura fueron reemplazadas por salas llenas de costosas computadoras.

Guía de la animación en tiempo real

Al igual que con el proceso 2D, a los directores les tomó mucho tiempo ver la visión final convertirse en realidad, y cualquier cambio implicó costosas combinaciones de horas de mano de obra y de computadora para arreglarlo. Los cambios tenían que retroceder en la tubería a través de múltiples departamentos, y eran costosos y requerían mucho tiempo.

Año tras año, la tecnología de animación 3D ha continuado ampliando los límites de la fidelidad visual con funciones como materiales basados ​​en la física, pelo y piel, y simuladores de física. Pero a pesar de estos avances, la cantidad de horas-hombre requeridas para terminar un proyecto de animación sigue siendo bastante alta, lo que hace que el tiempo para producir una película o serie animada todavía se mida en años.

Pipelines y Creatividad

Si bien los flujos de trabajo de animación tradicionales han funcionado durante muchos años, tienen un inconveniente importante: se debe realizar una gran cantidad de planificación por adelantado para evitar cambios en el futuro, ya que los cambios son costosos y requieren mucho tiempo.

Debido a que la visión creativa final del director no se realiza hasta el final de la producción, los directores no tienen la libertad de iterar y experimentar libremente; deben esperar que su visión se haga realidad y deben ser frugales con sus cambios.

La conclusión es que la inflexibilidad inherente a una tubería tradicional puede ser sofocante para la creatividad.

Una verdadera mejora de la canalización lineal tradicional interrumpiría por completo su naturaleza lineal y proporcionaría un mayor nivel de flexibilidad creativa a lo largo de todo el proceso de producción. Tal tubería pondría las tareas en paralelo para una mayor eficiencia y daría a los artistas la oportunidad de iterar en cualquier punto del camino con una pérdida mínima de tiempo de producción.

Pipelines y Creatividad - Guía de la animación en tiempo real
Pipelines y Creatividad – Guía de la animación en tiempo real

Canalización en tiempo real

El término «tecnología en tiempo real» abarca una serie de herramientas, procesos y flujos de trabajo, que incluyen:

  • Representación en tiempo real, que los motores de juego emplean para mostrar el entorno y la acción con la máxima calidad a medida que el jugador se mueve.
  • Captura de la actuación en tiempo real, donde los movimientos de un actor se digitalizan y transfieren directamente a un avatar mientras el actor actúa.
  • Colaboración en tiempo real, donde un grupo de artistas o ingenieros trabajan juntos en el mismo proyecto en una sesión en vivo, actualizando modelos, texturas, iluminación y animación sobre la marcha.
  • Cabello y pelaje en tiempo real, donde los artistas pueden ver la versión final en lugar de tener que trabajar con proxies.
  • Efectos visuales en tiempo real, donde los resultados completos de los efectos de partículas, simulaciones físicas y otros procesos posteriores que consumen mucha memoria se procesan y son visibles en fracciones de segundo, en lugar de pasar por un paso de composición separado.

Guía de la animación en tiempo real

Los avances en los motores de juego son la base de estas nuevas técnicas disponibles. Y cuando se combinan, estas funciones y flujos de trabajo se convierten en la base de una canalización de animación capaz de lograr una alta fidelidad visual al mismo tiempo que brinda a los artistas y técnicos más libertad creativa que nunca, y también acelera la producción a través de una colaboración sencilla y una iteración rápida.

La accesibilidad, la velocidad y la iteración son los sellos distintivos de una canalización de animación en tiempo real, que lo distinguen de un flujo de trabajo de CG tradicional.

Cómo las canalizaciones en tiempo real están cambiando la animación La ventaja más obvia de usar un motor de juego para producir animación es el renderizado en tiempo real, que permite una iteración rápida y ahorra una enorme cantidad de tiempo de producción simplemente eliminando los tiempos de renderizado de horas o días de duración. la ecuacion. Pero junto con el renderizado en tiempo real viene una serie de beneficios adicionales que cambian la forma en que los equipos abordan el proceso de principio a fin, todo con el objetivo de amplificar la creatividad y la narración.

Guía de la animación en tiempo real

En una canalización en tiempo real, todavía se necesitan todos los trabajos y departamentos en un flujo de trabajo tradicional (diseño, bloqueo, desarrollo de apariencia, rigging, animación, iluminación y efectos especiales), pero no necesariamente ocurren en el orden en que está. acostumbrados a. Lo que ha cambiado es el momento de estas actividades, con una gran superposición entre los pasos que solían ser controlados y secuenciales.

Canalización en tiempo real - Guía de la animación en tiempo real
Canalización en tiempo real – Guía de la animación en tiempo real

Pipeline 3D en tiempo real

Otra diferencia está en la forma en que el diseño y las previsiones fluyen directamente hacia la producción. En una canalización tradicional, los productos de diseño y previsualización se usan comúnmente solo como referencia, y todo el trabajo duro que ha realizado su equipo se descarta a medida que avanza la producción.

Con un flujo de trabajo en tiempo real, su producción se convierte en un primer borrador tan pronto como el desarrollo de la historia, y los creativos de cada departamento pueden ajustar y pulir la pieza en el transcurso de la producción hasta su finalización. Trabajar de esta manera le da a cada departamento una visión completa del proyecto mientras avanza en el desarrollo, para que puedan contribuir de manera más efectiva al conjunto. En efecto, lleva la postproducción a la preproducción. Básicamente, ahora está «arreglándolo antes» en lugar de «arreglarlo en la publicación».

Este flujo de trabajo cambia fundamentalmente la forma en que los equipos de animación abordan la producción de principio a fin, brindándoles amplias ventajas:

  • Velocidad: Trabaje más rápido y de manera más inteligente.
  • Iteración: Iterar temprano y con frecuencia. Volver, descubrir, experimentar.
  • Fidelidad visual: Trabaje con un alto nivel de calidad visual desde el principio y sin grandes granjas de renderizado ni largos tiempos de renderizado.
  • Colaboración: Explore realmente el interior del proyecto junto con su equipo y trabaje en paralelo con otros departamentos.

Estas ventajas se traducen en beneficios creativos y ahorros en la producción:

Más oportunidades para la creatividad. Cuando los artistas tienen la capacidad de abordar rápidamente los comentarios, los directores pueden experimentar y explorar más libremente.

Más oportunidades para la visualización. Con la tecnología en tiempo real, puede comenzar antes el desarrollo del aspecto 3D, lo que informa mejor a sus artistas en el futuro. La experimentación que habría sido demasiado difícil, costosa o lenta con una canalización lineal ahora es posible.

Iteración más rápida

¿Necesitas cambiar algo? ¿Quieres probar un ángulo de cámara diferente? ¿Quieres improvisar? ¿Cómo sería esta escena durante la hora mágica? Los cambios de artista toman segundos en lugar de días o semanas. Ahora puede controlar la edición, lo que significa que puede encontrar y promulgar soluciones en el momento sin tener que avanzar en su canalización.

Entrega más rápida

El renderizado en tiempo real elimina una de las partes más largas de la producción de animación. Con tiempos de procesamiento que se pueden medir en fracciones de segundo por fotograma, se pueden generar varias versiones para su revisión, lo que reduce el tiempo total necesario para las aprobaciones. Los tiempos de respuesta más cortos tienen el potencial de acelerar la producción y reducir los presupuestos.

Mayor variedad de estilos

Desde hiperestilizado hasta fotorrealista, ahora solo está limitado por su propia imaginación, ya que Unreal Engine tiene las herramientas para crear casi cualquier aspecto que pueda soñar.

Acércate a la visión del director. Cuando el director puede solicitar nuevas tomas de captura de movimiento en el acto, ver una docena de opciones de iluminación en unos minutos y explorar diferentes posiciones de la cámara con el deslizamiento del mouse, ellos (y todo su equipo) pueden participar en momentos de descubrimiento.

Mejor narración. Durante la producción, no es raro que el equipo encuentre mejores formas de transmitir una historia más allá del guión gráfico o guión original. Con una tubería en tiempo real, experimentar con nuevas composiciones de tomas, ángulos de cámara e iluminación toma solo unos minutos, por lo que la historia recibe el mejor tratamiento posible al final.

Oportunidades transmedia

Los narradores modernos están creando experiencias para sus audiencias más allá de la narración lineal. La tecnología en tiempo real, como plataforma, brinda a los creadores más oportunidades para atraer audiencias en todos los medios: juegos, dispositivos móviles, transmisión en vivo, entretenimiento basado en la ubicación y XR, solo por nombrar algunos.

Lo que fue realmente nuevo para nosotros, cuando comenzamos a usar Unreal Engine para Yuki 7, estaba logrando un aspecto final con el que estábamos contentos que no involucrar una herramienta de composición.

Entrevista a BRON Digital y Jason Chen y Aaron L. Gilbert

Jason Chen es Executive Vice President y Aaron L. Gilbert es CEO, BRON Studios

BRON Studios, con sede en Vancouver, se fundó en 2010 con una actitud de «cineasta primero» hacia la acción en vivo y la animación, y ha participado en numerosos proyectos ganadores de premios de la Academia. BRON Digital se lanzó como una división de BRON Studios durante la pandemia de 2020 con la intención de utilizar canalizaciones en tiempo real para los proyectos de BRON.

Fables es un recuento de cuentos tradicionales como La tortuga y la liebre, Los tres cerditos y El niño que gritó lobo, con un nuevo giro para el público contemporáneo. El estudio también está trabajando en Gossamer, una adaptación animada de la novela para adultos jóvenes de Lois Lowry sobre un hada que da sueños.

BRON Digital realmente ha adoptado una canalización en tiempo real en los últimos años. ¿Cómo se llegó a esto?

Aaron: Cuando Jason y yo nos conectamos por primera vez, él estaba trabajando conmigo en otro programa como supervisor de VFX. Y una noche a las 3 AM, estaba jugando en su iPad haciendo referencia a Unreal Engine, mostrándome arreglos rápidos en tomas, mostrándome cómo funcionan las cosas. Nunca lo había visto antes. Tenía curiosidad y le pedí a Jason que viniera a BRON y nos enseñara sobre el motor.

En ese momento, me gustaba nuestra canalización tradicional de CG. Estábamos produciendo grandes cosas de las que estaba muy orgulloso, como The Willoughbys. Sin embargo, odié que una película tomó tres años y medio, casi cuatro años para producir en nuestro estudio. Y en esos mismos cuatro años, estaba haciendo de 60 a 80 proyectos de acción en vivo.

Quería descubrir cómo poner en marcha tres, cuatro, cinco, diez proyectos animados en ese marco de tiempo de acción en vivo. Así que la pregunta era, ¿cómo se nos ocurre un enfoque de acción en vivo para la animación? Empecé a hablar de esto hace 10 años. De hecho, escribí un artículo sobre un enfoque de acción en vivo para la animación, con nuestro exjefe de producción en BRON.

Luego sucedió la pandemia mundial, y eso nos obligó a tomar algunas decisiones. Tuvimos varios programas de acción en vivo, una película y una serie de televisión en preparación y producción en todo el mundo, todos cerrados. Necesitábamos una línea de ingresos. Así que le pregunté a Jason si podíamos poner en marcha un equipo para esta canalización en tiempo real de inmediato, y en abril de 2020 comenzamos.

¿A qué te refieres cuando lo llamas un enfoque de acción en vivo para la animación?

Aaron: Sigue la misma estructura que una filmación de acción en vivo, usando hojas de llamadas, etc. Se sentía como una forma más eficiente de hacer las cosas.

El flujo de trabajo de Unreal Engine está mucho más cerca de un flujo de trabajo de acción en vivo que el tradicional. Lo que más me gusta de esto es nuestra capacidad de ver tantas cosas diferentes, y cómo iterar y cómo cambiar rápidamente. Al igual que la acción en vivo, podemos decir: «Hagamos esto de nuevo» o «Intentémoslo de otra manera». No tienes esa opción con la animación, si lo estás haciendo de la manera tradicional.

Eso no es nada en animación que hayas experimentado. Y para mí, ese es el enfoque de acción en vivo de la animación. Todo lo que implica hacer animación tradicional todavía tiene que suceder, pero ahora los pasos son diferentes. Puedes llevarlo adelante, mirando todo desde el momento en que comienzas.

Guía de la animación en tiempo real

Jason: La acción en vivo es definitivamente de donde proviene el núcleo de mi pasión por el cine. No hay nada como ir al set, un enorme y singular escenario sonoro. Tienes de 75 a 100 miembros de la tripulación allí, y luego, de repente, el AD grita «¡Roll!» Y entre «¡Acción!» ¡y corte!» tienes 100 artesanos enfocados en ese pequeño momento, cada uno contribuyendo con su propio arte y habilidad dentro de ese momento.

Lo que hace Unreal Engine es replicar eso. Puede tener energía enfocada e involucrar a tantas personas en flujos de trabajo remotos, sesiones de entorno multiusuario y sesiones de revisión.

En la fase de preparación, también adoptamos las sensibilidades de acción en vivo de presentar recorridos en vivo en el escenario para que nuestros directores y nuestros diseñadores de producción experimentados puedan recorrer virtualmente nuestros escenarios antes de que cualquier material o sombreador pase a los entornos. Nuestros DP miran a través del plató y dicen cosas como: “Esta esquina está un poco oscura. ¿Puedes hacer un agujero en esta esquina para que podamos tener una luz que entre por allí? Miramos una revisión al día siguiente, y todos la aprueban.

Guía de la animación en tiempo real

Y luego progresa a lo que nos encanta llamar «producción física» en el escenario. El equipo de dirección de arte presenta una muestra de diferentes materiales y colores, y tienen una sesión en vivo donde comienzan a colocar nuevos materiales o incluso colores. Hicimos esto a principios de 2020 con personas en Nueva Zelanda, Londres, Nueva York, Dakota del Norte y yo en Los Ángeles, todo en una sola sesión. Pero debido a que estamos en Unreal, no hay soportes en C, ni sacos de arena, y es mucho más eficiente. Nuestro récord personal es de más de 21 configuraciones en solo una sesión de dos horas con uno de nuestros DP en Unreal.

Una de las cosas que me hizo enamorarme de las películas fue ir al backlot de Universal y ver cómo se hacían las cosas. Es gracioso que se complete el círculo. Una canalización en tiempo real aplica esas mismas estrategias.

Ahora todo el mundo está contribuyendo. Pero lo realmente bueno es que, desde el punto de vista del arte, en nuestros entornos, ves todas esas influencias desde una perspectiva global, que es algo que nunca anticipamos. Le das a un artista un informe para algo simple como un pasamanos, y luego, de repente, ves aparecer estos pequeños destellos de art nouveau. Tú dices: “Eso es hermoso. ¿Quien hizo eso?» «Oh, ese fue Bruno». Todo se une en esta canalización y flujo de trabajo verdaderamente internacional.

Aaron: Si estás haciendo una película de acción en vivo, quieres que todos hablen al frente. Intrínsecamente, esta canalización trae todo su proceso, incluida la publicación y la entrega, a la discusión desde el primer día, porque debe pensar en el final para diseñar correctamente el comienzo. Para un cineasta, es algo increíble, porque puedes ver las cosas abrirse frente a ti de inmediato.

¿Cómo ha afectado el uso de un flujo de trabajo en tiempo real la velocidad y el rendimiento de la producción?

Aaron: Con la tubería de Unreal Engine, después de menos de dos años, estamos llegando al mercado con nuestro primer programa Fables, y nuestro segundo programa poco después, y estamos en producción en nuestro tercer programa. Y hay un cuarto, quinto, sexto, séptimo y octavo detrás de eso. En una canalización de animación tradicional, todavía estaríamos a más de un año del primer programa. Esa es una realidad.

Desea poder llegar al final del día y decir: “¡Guau! Mira lo que hice. En la animación tradicional, ese momento «Wow» te lleva un año o dos para llegar. Eso es realmente difícil para un director, y para todos, realmente, preguntarse qué estamos construyendo, hacia dónde va. Eso es lo que me encanta de adoptar esta tubería de Unreal Engine en todos los ámbitos: tienes ese «¡Guau!» momento todos los días.

La canalización que creamos con Unreal es mucho más eficiente (las líneas de tiempo, las capacidades de iteración, el hecho de que puedes ver las cosas de inmediato) que una canalización de CG tradicional. Y el producto del trabajo que vemos es fenomenal. Al final del día, para mí, se trata de lo que vamos a terminar.

No estamos haciendo nada fuera de esto. Así es como lo estamos haciendo, punto, porque es muy eficiente. ¿Por qué gastaríamos un dólar en otra parte? Porque esos otros dólares no pueden hacer lo que un dólar puede hacer en Unreal Engine.

¿Capacitó a su personal actual sobre el nuevo oleoducto o tuvo que contratar gente nueva?

Aaron: En realidad hubo un cambio de cultura. Íbamos a apostar con el canal en tiempo real, y muchas personas que habían estado con BRON durante algún tiempo decidieron que querían vivir más dentro de un canal tradicional. Y nos dejaron, lo cual entendemos, y les deseamos lo mejor.

Pero las personas que querían trabajar en una nueva tubería, se quedaron. Todavía tenemos muchas personas que han sido parte de nuestro equipo durante muchos, muchos años.

Jason: También pensamos en el hecho de que muchos de nuestros increíbles colegas de nuestros programas de acción en vivo ahora están sin trabajo. ¿Cómo nos acercamos a ellos y los involucramos en el proceso? Porque creo que uno de los grandes problemas y las grandes interrupciones que han ocurrido en los últimos 10 o 15 años en los efectos visuales, especialmente, es que el equipo de acción en vivo filma el producto y dice: «¡Corte, envuelva!» y no lo ven durante seis meses a un año. Y para cuando lo ven en los cines, ha cambiado por completo porque los efectos visuales han estado en un silo.

Guía de la animación en tiempo real

Así que pensamos, traigamos a nuestros artistas de acción en vivo, nuestros DP de acción en vivo y diseñadores de producción, a la mezcla en tiempo real. Pueden ver resultados reales y no solo colocar una luz, volver mañana y ver cuál es el resultado. Pueden instintivamente iluminar un personaje, iluminar un ambiente. Y no hay soportes en C ni sacos de arena con los que lidiar. Todo el mundo está aprendiendo desde cero. Tenemos artistas que van desde los 20 hasta los 60 años, que provienen de una gran cantidad de experiencias diferentes. Pero todos están en el mismo campo de juego. Es genial verlos en nuestro chat de Unreal Engine en Slack, compartiendo cosas aleatorias que encuentran. Es muy, muy divertido.

Dentro de BRON Digital tenemos una gran comunidad de comunicación abierta. Hay una hora reservada al final de la semana para que todos muestren todo lo que han hecho, ya sea arte conceptual, modelado, rigging, herramientas, secuencias que mostramos, música, todo. Y todos participan, comparten y se asombran del trabajo de los demás, pero también comparten información sobre cómo lo hicieron.

Guía de la animación en tiempo real

Esas sesiones han sido increíblemente, increíblemente útiles a medida que avanzamos porque, eventualmente, todos esos empleados trabajarán juntos en un espectáculo u otro. Entonces, es importante que creemos ese sentido de comunidad, especialmente en este momento de la pandemia también.

Aaron: Además, la realidad es que nuestro primer programa fue la primera vez que lo hicimos. Hay una curva de aprendizaje. El segundo show es más eficiente y el tercero va a ser más. A medida que continuamos refinando los procesos y podemos, como dice Jason, compartir información entre los diferentes miembros del equipo, esa es la forma en que crecemos. Es la Universidad BRON. Ese es el objetivo.

¿Ve otras oportunidades más allá de la animación con esta canalización?

Aaron: Con una canalización tradicional, construiríamos, manipularíamos, animaríamos, pero solo tocaríamos las cosas que alguna vez íbamos a ver. No puedes tirar nada. Todo este mundo de Unreal Engine cambia las cosas por completo, porque no solo estás viendo lo que hay en la pantalla.

Tienes que ser consciente de todo, porque estás construyendo dentro de un motor de juego, por lo que es literalmente un 360 de tu entorno. Lo que viene con eso, es simplemente increíble. El director tiene que fijarse mucho no solo en lo que está directamente en esta pantalla, sino que también tenemos que proyectarlo en el metaverso, en el mundo en línea y en los juegos que estamos creando, porque cada uno de estos muestra, cada show que estamos haciendo en BRON Digital lo tiene todo.

El mundo en línea que estamos creando es cinemático y hermoso. Gracias al motor, podemos crear estos mundos increíbles que son vibrantes e interactivos. Todo lo que hacemos, cada dólar que gastamos aquí, lo reutilizamos en ese increíble mundo en línea, nuestro metaverso, el metaverso BRON con estas propiedades y luego con nuestros juegos.

Estrategia NFT

Tenemos una estrategia NFT muy ambiciosa y una estrategia de comercialización digital en torno a algunas de nuestras propiedades, en realidad tanto digitales como impresas. Nuestro objetivo es llegar al plato una y otra vez con este increíble trabajo. Todo el mundo quiere construir una franquicia, y cada franquicia comienza con los personajes que estás creando.

Todo el mundo tiene que enamorarse de esos personajes que están en pantalla, o no hay franquicia. Todo lo que estamos construyendo en este momento se está construyendo con el objetivo de crear franquicias. Creemos que nos estamos dando la mejor oportunidad de hacerlo gracias a lo que Unreal nos permite hacer y lo eficientes que pueden ser nuestros dólares.

Jason: En el aspecto técnico, pudimos hacer algo realmente emocionante con el entorno de Fables. Uno de nuestros artistas pudo armar una prueba de concepto funcional que transmitía píxeles desde el motor a un iPad de tercera generación, y pudo caminar por el entorno de Fables que vemos en nuestra serie de televisión con una aniquilación mínima. Y lo armó en tres días.

Guía de la animación en tiempo real

Podríamos portar eso porque los activos existen, porque las animaciones están ahí. Mientras animamos, también creamos bibliotecas de animación que inherentemente se conectan directamente al motor. Entonces es como si tuviéramos todas las herramientas disponibles. Siempre recordaré que estábamos sentados en nuestra oficina de Los Ángeles y les entregué a Aaron y Steven, nuestro CEO y COO, ese iPad. Y solo había un gran botón verde de Inicio. Lo presionaron y comenzaron a correr por el entorno con la misma iluminación que nuestros DP establecieron para esos entornos, con el tema musical sonando.

Ese es el verdadero sueño ahí mismo: una vez que termines de ver tu episodio y te encante el contenido que estás viendo, toma tu iPad y ve a explorar por tu cuenta ahora. Encuentra pequeños rincones y grietas. Planeamos continuar con futuras versiones de Unreal para ayudar a unir todo, aumentar la calidad y asegurarnos de que también estemos continuamente a la vanguardia de la tecnología.

Flujo de trabajo en tiempo real la velocidad y el rendimiento de la producción - Guía de la animación en tiempo real
Flujo de trabajo en tiempo real la velocidad y el rendimiento de la producción – Guía de la animación en tiempo real

Entrevista a Spire Animation Studios y Trouble

David Smith es Senior Vice President of Digital Production and Visual Effects, Cosku Turhan Real-time CG Supervisor y Rajesh Sharma VP of Engineering.

El equipo de Spire Animation Studios tiene una trayectoria impresionante, con trabajo en películas como Encanto; Spider-Man: En el Spider-Verse; y Cigüeñas. David Smith es el vicepresidente sénior de producción digital y efectos visuales de Spire, y aquí se le unen Cosku Turhan, supervisor de CG en tiempo real, y Rajesh Sharma, vicepresidente de ingeniería. Su trabajo es, como dice David, «romper tuberías para hacer las cosas».

Los tres están trabajando en el actual proyecto en tiempo real de la compañía, la película Trouble. La historia sigue a Jax, un adolescente que ingresa a una dimensión paralela conocida como World of Trouble, donde emprende aventuras, hace amigos y planea un camino de regreso a casa.

¿Qué te hizo buscar canales de animación en tiempo real?

David: Queríamos alejarnos de los departamentos aislados que encuentras en los proyectos de animación tradicionales, donde un artista entra en una habitación y organiza las cosas. En cambio, queríamos tener un lugar donde pudiéramos ser un poco más espontáneos y comenzar a colaborar en Unreal Engine en el momento en que creábamos una historia.

Cualquier cosa que nos alejara de un artista que presentaba su trabajo, tomaba notas y volvía a sumergirse en un archivo independiente. Un flujo de trabajo en tiempo real tenía más sentido.

¿Cómo está cambiando el proceso en tiempo real la forma en que los artistas hacen su trabajo?

Cosku: Estamos en medio de un gran cambio de paradigma en este momento, porque Unreal Engine está abriendo muchos flujos de trabajo colaborativos. También está cambiando quién puede hacer qué y cuándo. Por ejemplo, nuestros modeladores también son escenógrafos y constructores de mundos.

Los artistas que nunca solían iluminar lo están intentando, y todo se debe a que ahora pueden ocurrir muchos procesos diferentes muy rápido dentro y alrededor del motor. Y creo que la gente está disfrutando eso, porque todos los que hemos estado contratando han dicho cosas como: «He estado haciendo lo mismo durante los últimos 10 años y quiero hacer las cosas de manera diferente». Pueden tener un mayor impacto en este nuevo paradigma usando muchos sombreros, y les gusta.

David: Darles a los artistas la oportunidad de usar más sombreros también se presta a equipos más pequeños y ágiles, que es un objetivo nuestro. Queremos reducir el tamaño de los equipos, para que podamos tener circuitos de comunicación más estrechos y asegurarnos de que todo se considere contextualmente, en lugar de por separado en departamentos inflados.

Guía de la animación en tiempo real

Estamos mirando la iluminación, por ejemplo, cuando estamos haciendo el diseño de los activos, porque la forma en que la luz golpea un entorno en particular es importante para la forma en que lo estamos construyendo. Y estamos descubriendo que la consideración se puede hacer temprano en el proceso en lugar de demasiado tarde, cuando tiene que volver atrás o simplemente vivir con eso porque no tiene tiempo para hacer el cambio.

Cosku: Hacerlo en tiempo real conduce a una fase de exploración realmente increíble durante el diseño y cuando estás ajustando las cámaras, porque tienes un set completo bajo tus manos. Y dentro de él están la iluminación y los elementos reales, todos los cuales están mucho más desarrollados de lo que tendrías en una etapa de diseño tradicional.

Esto permite este flujo de trabajo inteligente en el que puede colocar una cámara en un lugar donde antes no pensaría, porque no tenía los elementos frente a usted. Te permite explorar cosas muy, muy rápido y fácilmente. Y lo hace muy, muy divertido, también. Mucha gente está viendo esa chispa en la industria en este momento, y hay mucho entusiasmo a su alrededor.

Si las personas están usando muchos sombreros, ¿cómo se pone orden en el proceso?

Rajesh: Organizamos los equipos en grupos, lo cual es exclusivo de Spire.

David: Los llamamos pods porque los equipos de artistas en cada pod son multidisciplinarios. Entonces, en lugar de dividir las tareas en silos, por ejemplo, tener un diseñador de desarrollo haciendo lo suyo, un modelador haciendo lo suyo de forma independiente, y luego un encendedor haciendo la iluminación en un momento posterior, en Spire, todo el equipo está visualizando esas disciplinas juntas dentro de Unreal Engine. A medida que avanza el proceso de esculpido o modelado, el encendedor contribuye al mismo tiempo.

E incluso cuando estamos haciendo parte del modelado en Maya, por ejemplo, inmediatamente llevamos esa geometría a Unreal Engine, para que podamos tener esa interacción multidisciplinaria mientras pensamos en ello, mientras nos damos cuenta. el diseño general—en el mismo medio donde ejecutaremos la toma final.

Esto es excelente para los equipos de activos, por supuesto, pero también es útil para Layout. Cuando podemos mirar el diseño a través de una cámara prevista, podemos ver si está sirviendo a la historia a medida que los diferentes elementos se unen.

¿En qué estado se encuentran los activos cuando empiezas a colaborar?

David: Bastante duro. Una vez que tenemos un concepto en mente, intentamos simular algo en 3D lo antes posible en Unreal, para poder comenzar el proceso. A veces hay algunas texturas en él, pero en su mayoría comienza bastante bloqueado. Sin embargo, eso es suficiente para que comencemos y obtengamos los ritmos de la historia.

Lo siguiente que quiere el equipo es entrar en un volumen de captura de movimiento para un paso que llamamos Story Capture; todos nosotros estamos diciendo: «¡Vamos a dispararlo!» Y no tiene por qué ser complejo.

Hay muchas formas muy sencillas de capturar la historia en un entorno de producción virtual, y no necesitamos una gran captura de movimiento porque no tenemos la intención de usarla más adelante; haremos una animación estilizada de fotogramas clave con animadores de calidad para la interpretación final de la historia.

Guía de la animación en tiempo real

Obtienes una versión realmente genial del diseño de esta manera. Fomenta ese tipo de producción espontáneo que se siente orgánico y nos permite experimentar en el momento con mocap y un Live Link a la escena Unreal. A los actores también les encanta, porque pueden verse a sí mismos en contexto. Pueden darse la vuelta y ver cómo se ven como su personaje animado en el mundo estilizado en cualquier momento. Es realmente útil para ellos.

Otra ventaja es que una vez que haya realizado esos disparos iniciales, siempre tendrá los datos de movimiento. Si su edición inicial lo hace inclinarse hacia un ángulo diferente, aún puede usar los datos de rendimiento para refinar un diseño aproximado.

Una vez que tenemos una buena edición/diseño, dividimos las tomas y las enviamos al equipo de animación que actualmente trabaja en Maya. Utilizan la misma geometría de entorno que usábamos en Unreal, que exportamos como archivos USD. El equipo de animación anima las diferentes tomas y actuaciones, y luego las envía de regreso a Unreal para una mayor colaboración en el contexto para terminar la toma.

Guía de la animación en tiempo real

Una vez que las cosas comienzan a solidificarse un poco más, refinamos el resto de los detalles en cada toma, por ejemplo, agregando una iluminación clave muy específica en los personajes.

Luego renderizamos todo fuera de Unreal y obtenemos estas bellas imágenes. Hacemos un pase compuesto, un pase de post-proceso en NUKE con nuestros elementos principales y cualquier cosa que podamos romper. Esto nos da un poco de flexibilidad adicional, ya que no tenemos que resolver todo en el motor, al tiempo que nos brinda algunas herramientas adicionales que podemos usar para jugar con el aspecto de la imagen.

Cosku: A los directores también les encanta este proceso porque es muy inmediato. Las canalizaciones tradicionales no le dan el margen de maniobra para hacer cambios en el momento, o simplemente hacer que se sienten a su lado y cambien de luces o colores. Rajesh: A veces, cuando terminas el día, pierdes el contexto de la solicitud y por qué la hiciste en primer lugar. Cuando realiza cambios en paralelo, en tiempo real, puede ver de inmediato si una idea funciona o no.

¿Cuál fue el mayor desafío que enfrentó al implementar este flujo de trabajo?

David: Estamos en una posición única porque estamos comenzando con esta mentalidad, y todos los que estamos trayendo están a favor. Han visto los problemas con un flujo de trabajo departamentalizado y quieren hacer un cambio.

Pero incluso entonces, tienes que averiguarlo. La mayoría de nosotros no venimos de un entorno de juego. Afortunadamente, teníamos el entusiasmo de Cosku, que había pasado por algunos proyectos de AR y VR, e incluso había trabajado en animación lineal con Unreal Engine en el pasado.

La única barrera era la logística. Tuvimos que averiguar cómo usarlo y determinar lo que aún se necesitaba hacer de manera tradicional. Luego, a medida que aprende, comparte lo que sabe. Siempre estamos hablando de lo que hemos aprendido, en lo que estamos trabajando y lo que aún tenemos que resolver.

Guía de la animación en tiempo real

Creo que la tubería siempre estará evolucionando, ya que la tecnología está cambiando rápidamente. Todos están probando cosas diferentes, por lo que tratamos de aprender de ellos y de nuestras experiencias, tal como lo hicimos la primera vez que saltamos a las computadoras hace 20 o 30 años e intentamos hacerlo.

Rajesh: También veo otro desafío en el futuro. Lo probamos con un equipo pequeño, alrededor de 15 a 20 personas en ese momento, pero para hacer un largometraje de animación, habrá secuencias, cientos de tomas y cientos de personas distribuidas por todo el mundo. Gestionar ese trabajo y seguir colaborando sin pisarnos: ese va a ser el reto.

Cosku: Definitivamente escalabilidad, en términos de complejidad y tripulación. Porque si 100 personas están en la misma toma contra tres… por supuesto, eso lo hará mucho más complejo, pero lo resolveremos.

¿Pasar a un flujo de trabajo en tiempo real abre otras oportunidades para los estudios?

Cosku: Una de las principales razones por las que elegimos Unreal fue porque queremos que estas películas realmente vivan en el metaverso. No solo la distribución a una sala de cine o las plataformas de transmisión, sino también VR, AR y dispositivos móviles, para que pueda experimentar los personajes y sus entornos en múltiples plataformas.

Además, creo que muchos inversores también esperan ese mundo de metaverso en el que todos están interesados.

Esto nos permite ser ágiles con eso. Dado que todo está construido dentro de Unreal, podemos exportar estos mundos y personajes con bastante facilidad a diferentes plataformas y luego crear nuevas experiencias mucho más fácilmente. Es increíble tener un concentrador central que pueda atender todas estas diferentes formas de salida.

Imagen de prueba de Century Goddess cortesía de Spire Animation Studios - Guía de la animación en tiempo real
Imagen de prueba de Century Goddess cortesía de Spire Animation Studios – Guía de la animación en tiempo real

Entrevista con Sony Pictures Imageworks | en salas abovedadas sepultadas | doug extraño

Doug Oddy es productor sénior de efectos visuales. Doug Oddy llegó a Sony Pictures Imageworks (SPI) procedente de MPC, donde se desempeñó como productor de efectos visuales en varias películas como The Mummy, Suicide Squad, Guardians of the Galaxy y The Amazing Spider-Man 2. Se desempeñó como productor. en In Vaulted Halls Entombed, un episodio de la serie de Netflix Love, Death & Robots producido por SPI.

En Vaulted Halls Entombed, un episodio de la serie de Netflix Love, Death & Robots, se centra en un escuadrón de soldados que encuentran más de lo que esperaban mientras se aventuran bajo tierra tras el rastro de terroristas fugitivos. También fue el punto de partida para la primera incursión de SPI en la animación en tiempo real, un movimiento que los llevó a rehacer su tubería tradicional desde cero.

Cuéntenos sobre la construcción de la tubería para In Vaulted Halls Entombed

Vaulted Halls fue la primera vez que hicimos un proyecto en tiempo real usando un motor de juego en Sony. Creíamos en la tecnología: habíamos visto la calidad del trabajo que estaba saliendo tanto de personas como de empresas de todo el mundo, y sabíamos que era capaz de hacer lo que queríamos hacer.

También sabíamos que teníamos mucho que aprender y no queríamos entorpecer el proceso tratando de adaptarlo a nuestra canalización existente. En cambio, decidimos adoptar los conjuntos de herramientas en tiempo real y usarlos como se pretendía.

Tenemos una tubería extremadamente estable, robusta y confiable en Imageworks que ha estado en desarrollo durante más de 25 años. Como puede imaginar, los protocolos implementados requerirían una gran cantidad de tiempo y esfuerzo para integrar una nueva plataforma, especialmente una en la que pretendíamos confiar para el píxel final.

Configuraciones de red

Hay configuraciones de red, una gran base de código, nuestros equipos, nuestros sombreadores, la forma en que renderizamos. Cada pequeño detalle que hemos creado para mejorar el proceso de animación, cada herramienta que nuestros artistas emplean día a día, todas las herramientas patentadas o modificaciones a los DCC existentes que hemos escrito, literalmente nos alejamos de todo eso.

Nos construimos una caja de arena en la que podíamos usar Unreal Engine sin modificaciones. No queríamos perder tiempo tratando de hacer que Unreal Engine imitara nuestros flujos de trabajo, cuando estaba claro que los flujos de trabajo inherentes en tiempo real en el motor nos permitirían saltar al desarrollo creativo desde el principio. Queríamos centrarnos en crear grandes imágenes de inmediato y en crear una historia visual convincente que ayudara a impulsar la narrativa.

Teníamos un equipo de 40 a 45 personas trabajando internamente en la pieza, que tardó unos nueve meses en completarse, incluida la preparación, la preproducción, las capturas de rendimiento y la posproducción. Si considera que casi no teníamos experiencia con el tiempo real, el tiempo de respuesta es increíblemente rápido.

Fue un gran cambio en nuestro paradigma de producción, pero cuanto más intente impulsar los flujos de trabajo o las mentalidades tradicionales en un entorno en tiempo real, más luchará. Una vez que aceptamos las ventajas inherentes del tiempo real, el proyecto realmente despegó.

¿Cuáles fueron los pasos en la tubería?

Comenzamos con lo que llamamos la construcción «Nerf», que implicó construir la pieza de principio a fin utilizando piezas muy toscas. Esto nos dio los parámetros más básicos de lo que podría ser ese mundo. La construcción de mundos es un concepto que existe en los flujos de trabajo tradicionales, pero puede adoptar un enfoque muy medido y en capas cuando se trabaja en tiempo real.

Luego empezamos a bloquear la narrativa y el diálogo, los aspectos clave de la actuación. Normalmente harías esto en tomas individuales, mientras que aquí lo haces por secuencia e inmediatamente ves si el mundo que construiste se desarrolla.

Los guiones gráficos tradicionales siguen siendo muy efectivos, pero aquí en realidad creamos guiones gráficos directamente en el motor. Hicimos un pase de diseño aproximado con una versión de la pieza completa de 15 minutos que se sintió como una vista previa: debido a que las cámaras son más dinámicas, puede continuar agregándole forma con el tiempo. Al igual que una pintura, agrega capas con más detalle a medida que avanza.

Guía de la animación en tiempo real

Decidimos agregar algunas de nuestras propias capturas de actuación a la pieza, ya que queríamos proporcionar a los actores y al equipo de dobles la mayor cantidad de detalles posible antes de la filmación.

Nuestro equipo de animación usó trajes Xsens para avanzar en la película, agregando detalles y jugando con las ideas del director para los diferentes ritmos. Queríamos brindar a los artistas la mayor cantidad de detalles posible dado que actuarían en un escenario de sonido casi vacío, y podríamos brindarles la capacidad de verse a sí mismos en vivo en la pantalla, en la película, mientras actuaban.

La sesión de captura de movimiento fue increíble. Con toda la pieza en Unreal Engine, no solo podíamos mostrar a los artistas los personajes que estaban interpretando, sino también los entornos en los que se suponía que debían estar, en vivo en el escenario. Luego grabamos sus actuaciones con Take Recorder, lo que significaba que podíamos irnos al final de cada día con todas nuestras actuaciones disponibles para reproducir en nuestra escena de Unreal Engine.

Guía de la animación en tiempo real

En el transcurso de una semana, vimos la pieza transformarse de un borrador de animaciones a una pieza completamente desarrollada, completa con las actuaciones de los actores y las tomas seleccionadas por el director. Las capturas aún requerían limpieza y procesamiento facial, pero lo que podemos grabar en vivo en el motor es tremendo.

Love Death Robots cortesía de Netflix - Guía de la animación en tiempo real
Love Death Robots cortesía de Netflix – Guía de la animación en tiempo real

¿Qué tipo de trabajo hiciste fuera del motor?

Además del modelado y texturizado habituales, hicimos la animación de fotogramas clave para criaturas no humanas fuera del motor, las que no podíamos capturar.

Hicimos algunos de los efectos completamente en el motor y algunos en Houdini, simplemente porque necesitábamos dirigir el arte de ciertos aspectos con el director. Parte de la curva de aprendizaje también requería que aprendiéramos a adaptarnos a los flujos de trabajo y prácticas establecidos de nuestros clientes.

Utilizamos MetaHumans para crear tres de los seis personajes de la película. El equipo de 3Lateral nos ayudó a impulsar la tecnología para que los diseños se asemejaran mucho a la apariencia de nuestros actores, sin tener que pasarlos por una instalación de escaneo. La capacidad de marcar nuevos diseños de personajes por la mañana y luego animarlos por la tarde fue alucinante.

¿Cómo cambia el trabajo en tiempo real la forma en que abordas un proyecto?

Es un enfoque diferente porque no estás trabajando en tomas, estás construyendo un mundo. Una vez que se crea el mundo y se construye la animación, puede crear nuevas tomas y volver a visualizar la secuencia, la edición o la cinematografía, todo sin costo para su agenda. Siempre que se tarde en mover esa cámara o activo, ahí está su toma, renderizada en tiempo real.

Es bastante relajante trabajar y crear dentro de la edición actual de su película, a diferencia de las tomas individuales. Se pueden visualizar y completar o descartar grandes cambios sin esperar tres días para ver cómo funciona. Incluso nuestro proceso para tomar notas se ve afectado: cuando realiza los ajustes en vivo mientras trabaja, se pregunta para qué sirven las notas. Guardamos notas, pero son principalmente para documentación histórica, en caso de que queramos revisarlas más tarde.

Se dice que la belleza del teatro en vivo es que puedes ver una obra o actuación una y otra vez, y cada vez simplemente sentarte en un lugar diferente crea una experiencia completamente nueva. Trabajar en tiempo real tiene esa sensación. Puedes trabajar con calidad final y cambiar tu punto de vista, al instante y con solo un puñado de artistas. En ese momento, es como Navidad todos los días.

la forma en que abordas un proyecto - Guía de la animación en tiempo real
la forma en que abordas un proyecto – Guía de la animación en tiempo real

¿Qué ve para el futuro de las canalizaciones en tiempo real?

La naturaleza colaborativa de la comunidad en tiempo real se fortalece, especialmente con el enfoque abierto de Epic Games para compartir herramientas y hacer avanzar la tecnología para todos sus usuarios. Han creado una comunidad increíble. Existe la sensación de que recién comenzamos a ver los resultados de lo que esta comunidad de artistas puede hacer con estas herramientas. Es un momento emocionante.

Como probablemente ya se haya dado cuenta, el uso de una canalización en tiempo real requiere un cambio de mentalidad para aquellos que están acostumbrados a trabajar con un flujo de trabajo lineal. En este capítulo, discutiremos ese cambio y también veremos cómo una canalización en tiempo real afecta el proceso de producción general.

En el camino, conocerá a algunos de los creadores que han dado el salto y escuchará cómo lo hicieron y por qué.

Trabajar con una canalización en tiempo real

¿Qué significa producir con un flujo de trabajo en tiempo real? Estos son los principales aspectos de la tubería que conducen a este nuevo paradigma para la producción de animación.

Renderizado en tiempo real

Una diferencia importante entre las dos canalizaciones son los tiempos de renderizado. Debido a que la renderización puede ocurrir tan rápido como una fracción de segundo en una canalización en tiempo real, se elimina la larga espera entre presionar el botón Renderizar y ver los resultados. Al reducir el costo de renderizado, interrumpe efectivamente la canalización lineal y permite una iteración significativa en el diseño, el bloqueo, la iluminación, la animación, la composición, la ubicación de la cámara y otros aspectos de la producción.

Flujos de trabajo paralelos

Muchos usuarios de una canalización en tiempo real mencionan un flujo de trabajo paralelo como una de las grandes ventajas de una canalización en tiempo real. Los encendedores pueden funcionar además del modelado; la animación puede funcionar junto con los efectos. Debido a que todas las tomas se ensamblan en Unreal Engine, con herramientas de diseño, animación, iluminación, superficies y efectos fácilmente accesibles para todos los departamentos, ya no es necesario que un departamento espere a que otro termine y entregue las tomas para el siguiente paso.

Colaboración a través de una única plataforma

Unreal Engine proporciona un centro central para todos los activos, animación, iluminación, cámaras y efectos visuales, de modo que los departamentos puedan trabajar en paralelo en todas las secuencias, ahorrando tiempo en general y brindando más oportunidades para la narración colaborativa.

Todos los miembros de su equipo, desde directores hasta supervisores y artistas, pueden ver cómo se desarrolla el proyecto a medida que se agrega o edita cada pieza.

En una tubería tradicional, las notas se hacen por disparo. Con una canalización en tiempo real, puede trabajar en contexto en secuencias para probar variaciones y cambios. Una nota larga sobre un cambio en una toma puede ir desde «difícil de explicar» y potencialmente malinterpretada por un artista, hasta «Vamos a resolverlo mientras estamos juntos en la llamada». Tal flujo de trabajo mejora naturalmente la creatividad y la narración de su equipo, ya que los artistas pueden contribuir directamente al proceso en tiempo real.

Animación, estilo de acción en vivo

¿Qué pasaría si su proceso de animación pudiera ser más como una filmación de acción en vivo donde los directores pueden ser espontáneos, explorar su creatividad y descubrir accidentes felices en el set?

  • El director y el DP pueden recorrer el escenario virtual para planificar las tomas, la iluminación y la acción.
  • El Departamento de Arte puede experimentar con diferentes texturas, colores y materiales en conjunto con los encendedores del ambiente.
  • El equipo de producción entrega «metraje» en lugar de tomas a Editorial, lo que les permite elaborar una mejor historia.

Al igual que en un set de acción en vivo, estas actividades pueden ocurrir a la vez, con varios miembros del equipo presentes y trabajando juntos. En lugar de que un departamento trabaje en un paso y lo transfiera al siguiente, los equipos trabajan en paralelo, en colaboración, para completar un proyecto.

Trabajar con ubicaciones, no con escenas

Mencionamos anteriormente que trabajar en una canalización en tiempo real se asemeja a un escenario de acción en vivo. Un ejemplo es la forma en que cada nivel en el motor es un escenario o ubicación donde puede filmar varias secuencias, de la misma manera que se pueden filmar varias escenas en una ubicación en una filmación de acción en vivo. Si bien, en teoría, podría hacer lo mismo en su aplicación DCC, Unreal Engine, al haber sido diseñado para el desarrollo de juegos de varios niveles, puede manejar entornos mucho más grandes y «más pesados» que la mayoría de las aplicaciones DCC.

BRON Digital ha aprovechado al máximo esta característica del motor al construir toda la ciudad de «Little Hamilton» en Unreal Engine. La ciudad incluye todos los escenarios de su serie animada Fables, y cada episodio tiene lugar en un lugar separado.

Haciendo el cambio

Algunos creativos llegan a la mesa en tiempo real con la idea de que usarán Unreal Engine para renderizar y nada más. ¿Por qué no llevar el entorno y los personajes completos al motor y renderizarlos allí? Si bien tal esquema podría tener algún mérito, se estaría perdiendo un mundo de beneficios si se limitara solo a eso.

Una de las razones por las que Unreal Engine puede reproducir tomas en tiempo real es que todas sus funciones integradas están diseñadas para optimizar los cálculos de renderizado. Los materiales, las luces, las cámaras y los aspectos de la escena que requieren cálculos con gran cantidad de memoria (trazado de rayos, activos instanciados, LOD, iluminación dinámica, sombras suaves, renderizado de pelo/pelo, multitudes, etc.) se configuran mejor utilizando el motor incorporado. -en herramientas, ya que estas han sido diseñadas para facilitar la reproducción en tiempo real.

El uso del sistema de secuencias de comandos visuales Blueprint abre otro mundo, donde puede escribir sus propias herramientas de producción para automatizar las tareas comunes de los artistas.

Canalizaciones en tiempo real

En una tubería en tiempo real, encontrará que la programación y la carga de recursos difieren significativamente del enfoque tradicional. Por ejemplo, es probable que sus mecheros y artistas de efectos visuales puedan comenzar a trabajar mucho antes de lo que solían hacerlo, superponiéndose con tareas que tradicionalmente se realizan al principio del proceso, como el diseño y el bloqueo. Espere que, especialmente en su primer proyecto, habrá algunos ajustes en el pensamiento en lo que respecta a la programación.

Con varias personas trabajando potencialmente en una toma o secuencia al mismo tiempo, el control de la fuente será importante. Muchos equipos de animación de Unreal Engine usan Perforce para realizar un seguimiento de las últimas actualizaciones y evitar que los artistas sobrescriban el trabajo de los demás.

También es probable que su proceso de revisión cambie dramáticamente, para mejor. Tener un centro central significa que todos pueden ver el progreso del proyecto y pueden sugerir cambios. Esto puede ser una bendición o una maldición, dependiendo de tu perspectiva. WildBrain Studio informa que durante la producción de LEGO Friends, después de que el equipo se dio cuenta de que todos podían contribuir, no era inusual que una sola sesión de revisión se convirtiera en una lucha libre de una hora de duración. Las sesiones se volvieron a controlar rápidamente al limitar quién podía asistir y por cuánto tiempo.

A pesar de estos desafíos, los equipos que han adoptado una tubería en tiempo real informan que hay muchos más beneficios que inconvenientes.

Entrevista a La Cabane Productions, Shards CGI | Mush-Mush y los Mushables

Perrine Gauthier es Productora y Fundadora, La Cabane Productions y Romain Trimaille es CEO y Head of CG, Shards CGI.

La Cabane es la productora con sede en Francia de Mush-Mush & the Mushables, una serie galardonada que retrata las aventuras cómicas de una comunidad de pequeños guardianes del bosque. Para la segunda temporada, La Cabane se asocia con Shards CGI, un estudio también con sede en Francia, para todo el trabajo de CG fuera del rigging y la animación. Después de usar un flujo de trabajo tradicional para la temporada 1, el equipo pasó a una canalización en tiempo real para la temporada 2.

¿Cómo se ve la canalización en este momento?

Perrine: Durante la primera temporada, habíamos utilizado un flujo de trabajo de Blender de extremo a extremo, pero ahora Unreal Engine está guiando el diseño, la iluminación, la revisión de tomas y la renderización del cuadro final.

Al usar Unreal Engine para el diseño, el equipo de CG puede anticipar cualquier problema con la iluminación y el renderizado durante la preproducción, mejorando la eficiencia y evitando la necesidad de volver a renderizar los fotogramas cuando surgen problemas artísticos o técnicos.

Los artistas también pueden mejorar la calidad de sus tomas al observar la posición y el papel de la luz antes de que comience la animación. El director, Joeri Christiaen, puede elegir ángulos de cámara que ya tengan en cuenta la dirección de la luz y las sombras, logrando la mejor fotografía para una escena y evitando posibles problemas relacionados con la luz y las sombras más adelante.

Guía de la animación en tiempo real

Romain: Los tiempos de renderizado drásticamente reducidos son otra gran ventaja. En la temporada 1, las imágenes finales llegaban a los 50 minutos por cuadro; apenas llegamos a los tres minutos por cuadro para la temporada 2, lo que significa que podemos dedicar mucho más tiempo a la calidad creativa e introducir más dispersión debajo de la superficie para agregar detalles.

También estamos obteniendo mucho valor de los sistemas de Unreal Engine, específicamente los que manejan materiales dinámicos, Blueprints y LOD. Estamos descubriendo que los flujos de trabajo son bastante fáciles y se prestan bien para cambios rápidos o tareas por lotes.

En términos de Blueprints, los estamos usando para modificar instantáneamente la calificación de múltiples activos a la vez. También usamos Python para automatizar las formas en que creamos, conformamos y exportamos activos y secuencias. Esperamos que esta API se extienda a más funciones en el futuro; es una herramienta poderosa.

Perrine: Esta nueva canalización también nos convenció de actualizar el contenido antiguo. Por ejemplo, nos inspiramos para volver a renderizar la secuencia de apertura de la temporada 1 en Unreal Engine para la temporada 2. Vimos la oportunidad de mejorar aún más la calidad sin dejar de preservar el aspecto del programa. Ahora el renderizado es más nítido, los colores son aún más vibrantes y el bosque está más vivo que nunca, gracias a las habilidades ambientales de Unreal.

Cómo se ve la canalización en este momento - Guía de la animación en tiempo real
Cómo se ve la canalización en este momento – Guía de la animación en tiempo real

¿Qué motivó el cambio a una tubería en tiempo real en La Cabane?

Perrine: Una de las principales razones es que queríamos reducir nuestra huella de carbono y el cambio ya está dando sus frutos. Desde que incorporamos Unreal Engine en nuestro flujo de trabajo de Mush-Mush & the Mushables, hemos visto una reducción del 90 % en el tiempo de renderizado entre las temporadas 1 y 2, y una reducción drástica en el consumo eléctrico, el volumen de la granja de renderizado y la necesidad de aire acondicionado; habitaciones. Solo para el tiempo de renderizado, estamos registrando 11.000 horas menos en una carga de trabajo de 14 300 fotogramas. Usamos Unreal Engine desde la etapa de diseño, lo que significa que podemos anticipar gran parte de la iluminación y evitar volver a renderizar más adelante.

¿Cuál es el valor de la animación en tiempo real? ¿Cómo lo ves progresar?

Romain: La principal ventaja, en esta etapa, es la capacidad de iterar muy rápidamente y, por supuesto, no tener que esperar horas para ver el renderizado. Esto nos da mucha flexibilidad y crea condiciones de trabajo más cómodas para nuestro equipo. Tenemos mucha curiosidad por ver los próximos desarrollos y ver si la animación en tiempo real se pondrá al día con las tecnologías más tradicionales, especialmente cuando se trata de elementos específicos como el vidrio, la vegetación y el cabello.

Perrine: Cuando dimos luz verde a la producción, Mush-Mush Season 2 fue una de las primeras series animadas de formato largo producidas con Unreal Engine. Esto está evolucionando claramente, ya que ahora se están trabajando en varios programas nuevos que utilizan esta tecnología, que es excelente para la industria de la animación. Las nuevas canalizaciones brindan nuevas perspectivas sobre proyectos y flujos de trabajo, y suceden cosas interesantes cuando sales de tu zona de confort.

Además, está el aspecto medioambiental. Aunque no es típico cambiar una canalización de CG entre temporadas, vimos esto como una gran oportunidad para implementar un flujo de trabajo que no solo fuera innovador, sino más ecológico. Existen claros beneficios artísticos, técnicos y de producción al elegir la animación en tiempo real, pero estas tecnologías también pueden desencadenar una mayor sostenibilidad en la industria.

Guía de la animación en tiempo real

La innovación ciertamente conlleva riesgos y costos adicionales, pero creemos que opciones como esta contribuirán a reducir la huella de carbono de nuestro sector. Por ejemplo, actualmente estamos trabajando con un consultor de sostenibilidad para evaluar cuidadosamente nuestras emisiones después del cambio y ver cómo nos ayudará a alcanzar los objetivos de nuestro plan de descarbonización. Sentimos que vamos en una buena dirección.

Entrevista a BRON Digital con Russ Smith, supervisor de efectos visuales y Alex Filipov, supervisor de animación

Russ ha trabajado para varios estudios, incluidos Walt Disney Feature Animation y DreamWorks Animation, en proyectos como Meet the Robinsons, Bolt, Abraham Lincoln Vampire Hunter y Night at the Museum. Alex fue animador senior en una variedad de proyectos como The Suicide Squad, Wonder Woman 1984, Men in Black: International y The Greatest Showman. Ambos se incorporaron a BRON Digital para trabajar en animación en tiempo real y VFX para la serie animada Fables.

¿Cómo ha sido el cambio de un canal de animación tradicional a uno en tiempo real?

Alex: Un día, lo “nuevo” toma un impulso hacia adelante y te arrastra con él. Me recuerda cuando empecé a pasar de la animación clásica al 3D. Originalmente, ni siquiera quería considerarlo. Ya podía dibujar lo que quisiera, así que no vi la necesidad. Pero luego apareció Tarzán y me convenció de que el 3D era algo que debería investigar, y tal vez había algo en todos esos beneficios de los que había estado escuchando.

Sentí lo mismo al trasladar nuestro último proyecto a Unreal. Puedes sentir que viene algo nuevo y vale la pena aprovecharlo. Y ya estamos arreglando algunos procesos heredados que solían hacernos enviar cosas al equipo de 3D. es refrescante

Russ: En este momento, creamos casi el 100 por ciento de nuestros entornos en Unreal Engine; use accesorios de una variedad de fuentes, incluido lo que podemos obtener gratis de Unreal Marketplace; y traiga los otros activos especialmente diseñados de nuestras aplicaciones DCC. Así que es una mezcla, no un reemplazo completo. Todavía tienes que hacer modelos, texturizarlos, manipularlos y animarlos. Pero lo que obtienes con Unreal Engine es un área increíblemente colaborativa para probar y finalizar ideas que es mucho más rápida y atractiva para todos.

¿Cómo se sienten los animadores con este flujo de trabajo?

Alex: Todos mis animadores están listos para saltar a Unreal, si aún no lo han hecho, especialmente los que acaban de salir de la escuela. Para ellos, no existe una larga historia del oleoducto tradicional. Lo que sea que les muestres, es su «primera vez». Son como, «Está bien, así es como lo hacemos».

Comenzar en tiempo real también les permite esquivar algunos de los vaivenes que la mayoría de los equipos tienen que soportar.

La comunicación es esencial, pero hay una gran diferencia entre enviar algo de vuelta a la canalización y finalizar las ediciones juntas en el momento sin cambiar de herramienta. Se necesita algo de coreografía y pensar en cómo hacerlo, pero las herramientas de Unreal nos ayudan a conectar al supervisor de VFX, al director y a los artistas en una discusión en vivo. Y eso reduce muchísimo los problemas de comunicación, lo cual es muy importante porque lo que hacemos es muy visual y, a veces, necesitas ver un cambio frente a ti para saber si es el correcto.

Fables imagen cortesía de BRON Studios - Guía de la animación en tiempo real
Fables imagen cortesía de BRON Studios – Guía de la animación en tiempo real

¿Estás trabajando con muchas escenas grandes con muchos elementos?

Alex: Lo estamos, y ese es uno de mis argumentos clave para sacar los procesos tradicionalmente laboriosos de nuestras aplicaciones DCC. Recuerdo esta escena realmente pesada que teníamos, que tenía entre 70 y 80 caracteres de resolución completa. En una aplicación DCC, tendrías que hacerlo en secciones. Esto es un problema porque las composiciones cambian todo el tiempo, la cámara cambia y, en última instancia, solo necesita ver todos los elementos en un solo lugar. Si intentáramos renderizar todo esto en una aplicación DCC, todavía estaríamos trabajando en esa toma nueve meses después.

Russ: Todos los trucos que habrías tenido que hacer… las importantes reducciones de polígonos, desactivar las pilas de deformadores y todo lo demás habría sido brutal, hasta el punto de que no estás viendo lo que esperas ver de todos modos. Pero con Unreal, usamos activos totalmente realizados y de resolución completa durante el proceso de iluminación y desarrollo de la apariencia, y hacemos juicios sobre la composición y el ritmo. Es la noche y el día.

Y muchas veces, lo que estamos viendo es correr a cinco o seis segundos por cuadro, lo cual es perfectamente aceptable. No requerimos que las cosas funcionen en tiempo real; solo queremos el mejor resultado posible y tomar decisiones más rápido.

Alex: Lo que me encanta de Unreal es que no importa cuántos personajes tengas, elementos ambientales o luces, si tienes una máquina lo suficientemente poderosa, puedes moverlos con bastante facilidad. Lo que ves, es lo que tienes.

¿Siempre ejecuta el proyecto en la configuración final, o su configuración depende de dónde se encuentre en el proceso?

Russ: Cuando diriges las sesiones en vivo con los artistas, tiendes a bajar la calidad para que reaccione en tiempo real. Pero luego, para los renders finales, para citar a Spinal Tap, vamos «hasta 11». Ya no se ejecuta en tiempo real, pero ¿a quién le importa? Son segundos por cuadro, lo cual está totalmente bien. Tenemos nuestras configuraciones que hacemos para la interacción, y son más que suficientemente informativas. Y luego tenemos nuestra configuración para renderizados felices, brillantes y de alto brillo al final. Ambos son extremadamente útiles.

Alex: Nunca quieres recibir esa sorpresa después de 11 o 24 horas de renderizado durante la composición. Ese sentimiento de «Oh, Dios mío, olvidé ese pase, o es el equivocado». Reducir la configuración, que es una práctica común con los renderizados fuera de línea, asegura que nunca lleguemos allí, dejándonos con este gran punto de reunión para que nuestros artistas y supervisores construyan.

¿Estás usando novios para todo el pelaje en Fables, o lo estás manejando con texturas?

Russ: ¡Estamos haciendo ambas cosas! Hay una escultura ZBrush en los activos que imita el aspecto del pelaje, y luego, para los primeros planos, activamos los peinados densos. Los novios, trabajando con la escultura como una especie de capa base, se convierten en un mapa normal para que no tengamos 100 millones de pelos de piel. Es más como 10,000. No pensé en ello hasta que empezamos a tratar con Unreal y estábamos a punto de perder un peluquero.

Me imagino que podría hacer exactamente lo mismo con una aplicación DCC, pero la dificultad de intentar algo así es que no vería el resultado final hasta que renderice. Tienes que pasar por muchos aros para mostrar los desplazamientos y no verías todas las partes. Simplemente es mejor en Unreal.

Pipeline en tiempo real por fase de producción

Una canalización de animación en tiempo real alcanza casi todos los mismos ritmos que una canalización tradicional, con un nuevo giro: todos los pasos se pueden realizar en paralelo, en la misma plataforma. Exploremos las fases de producción en el contexto de cómo los flujos de trabajo familiares se traducen en una canalización en tiempo real.

Desarrollo

Durante la fase de desarrollo, el equipo de la historia necesita herramientas que faciliten la creación y organización de guiones gráficos y la experimentación con diferentes formas de contar la historia. Al mismo tiempo, el Departamento de Arte debe comenzar a trabajar en el arte de personajes y entornos, y en el desarrollo y la visualización de la apariencia. En una canalización tradicional, cualquier trabajo que se realice para el guión gráfico, el desarrollo de la apariencia y la visualización debe volver a crearse más adelante en el entorno de producción.

Con una tubería en tiempo real, el equipo de la historia puede comenzar el proceso de visualización antes en Unreal Engine, utilizando representaciones aproximadas de sus accesorios, escenarios y personajes en 3D, o incluso combinando activos de recursos como Unreal Engine Marketplace, Quixel Megascans o MetaHumans.

Todo esto puede suceder en paralelo a medida que el Departamento de Arte finaliza sus diseños, lo que les permite acelerar su visualización en 3D. A medida que se ensamblan las escenas y se finalizan los activos, el equipo de Look Dev puede experimentar con materiales, sombreadores, efectos e iluminación para llegar a la apariencia única del proyecto, una apariencia que se puede aplicar fácilmente a todas las escenas de la secuencia.

Preproducción

En un proyecto de animación, la preproducción incluye pasos preparatorios como el diseño y la creación de activos, que abarca el modelado, la creación de superficies y el montaje de entornos y personajes.

Con una tubería en tiempo real, los pasos de la fase de preproducción permanecen prácticamente sin cambios. Lo que cambia es cuándo comienza la preproducción: la planificación por adelantado es absolutamente clave en una canalización en tiempo real, y eso significa que el trabajo de preproducción debe comenzar antes que con una canalización tradicional. De hecho, comienza antes de que finalice el desarrollo y transcurre en paralelo. De la misma manera, la preproducción fluye hacia la producción con procesos paralelos.

En un flujo de trabajo en tiempo real, una vez que los modelos se crean, sombrean y manipulan en una aplicación DCC, los modelos se pueden importar a Unreal Engine para que todo el equipo los revise. O se pueden manipular directamente en Unreal Engine con Control Rig, listos para animación de fotogramas clave o captura de movimiento dentro del motor. A medida que los activos evolucionan y se realizan cambios creativos, pueden fluir directamente al motor para una revisión iterativa. La preproducción también incluiría la configuración de versiones y control de fuente, para que el equipo pueda trabajar con confianza en las escenas de forma colaborativa.

Producción

La producción es donde está la acción, donde las tomas y las secuencias se ensamblan en Sequencer. Pero al igual que la preproducción, este proceso ahora se ejecuta en paralelo: los personajes se pueden colocar en sus entornos incluso antes de que finalicen, y el director de fotografía [DP] puede comenzar a configurar los ángulos de la cámara mientras el mechero ilumina las escenas. El Departamento de Arte puede continuar usando estas escenas incipientes para desarrollar el estilo visual del proyecto. Y como los modelos se actualizan e importan como parte del proceso de revisión, cualquier trabajo realizado hasta la fecha en materiales y filtros se aplicará automáticamente a la nueva versión.

Si se utiliza la captura de movimiento para animar a los personajes, se puede configurar un enlace en vivo entre la sesión de captura de movimiento y el personaje manipulado en el motor para obtener comentarios inmediatos sobre qué tan bien está funcionando la acción para la escena. El director puede solicitar más tomas mientras los actores de captura de movimiento todavía están equipados e iterar hasta que la acción sea la correcta. Si se configura la colaboración remota, los actores ni siquiera necesitan estar en la misma ciudad que el director; todo puede ejecutarse a través de Internet.

Ahora también puede hacer animación de fotogramas clave sobre datos de captura de movimiento, o usar su captura de movimiento como referencia y fotograma clave directamente en el motor con Control Rig.

Del mismo modo, la animación de fotogramas clave de aplicaciones DCC como Blender y Autodesk Maya se puede importar a Unreal Engine en múltiples formatos.

Post-producción

En una canalización tradicional, la posproducción es lo que sucede después de configurar y animar las tomas y las secuencias. Sin embargo, en una tubería en tiempo real, incluso mientras el DP todavía está experimentando con los ángulos de la cámara y los animadores están trabajando en sus actuaciones, los artistas de iluminación y VFX pueden ponerse a trabajar.

Pueden comenzar a colocar la iluminación y los efectos incluso mientras el desarrollo de la apariencia aún está en progreso, y los efectos informan las decisiones del Departamento de Arte. Las simulaciones de física pueden comenzar en activos de marcador de posición y estar listas para pruebas adicionales a medida que se introducen los activos finales.

Salida final

Cuando llega el momento de renderizar los píxeles finales, es hora de activar todas las configuraciones y activar los efectos de postprocesamiento, y dejar que se rompa. Con todas las campanas y silbatos activados, no es inusual que la renderización tome varios segundos por cuadro. A ese ritmo, puede proporcionar a Editorial «metraje» (varias opciones para cada toma) para que puedan elegir y elegir armar la mejor versión de su historia. Y si necesitan cambios o inyecciones adicionales, puedes darles la vuelta el mismo día.

Ya no tiene que esperar horas, días o, a veces, semanas para recibir inyecciones o esperar cambios.

Entrevista a Digital Dimension Entertainment Group y The Beachbuds, Martin Walker Chief Technology Officer y Frederick Faubert y Chief Creative Officer

Martin y Fred llegaron a Digital Dimension con una sólida experiencia en el desarrollo de juegos y se unieron al equipo que desarrolló una de las primeras canalizaciones de animación de Unreal Engine para la serie Zafari en 2017. Ahora han trabajado completamente en tiempo real con proyectos para Saturday Animation de la empresa. división.

Como el ala de animación de Digital Dimension, Saturday Animation Studio se ha centrado en crear contenido infantil utilizando métodos innovadores. Además del innovador Zafari, la compañía ha desarrollado The Beachbuds, que sigue a una familia de pájaros que dirige un centro turístico, y Chase and CATCH, un próximo programa sobre un policía adolescente que se enfrenta a un sindicato diabólico con la ayuda de su by- el compañero robot del libro, CHASE.

¿Por qué decidiste pasarte a un oleoducto Unreal?

Martin: Para nosotros, todo se trata de la producción en tiempo real y la capacidad de hacer iteraciones muy rápidas para ver los resultados y obtener la retroalimentación rápidamente, y luego reaccionar a la retroalimentación casi instantáneamente.

Con la retroalimentación instantánea, en realidad te sientas con el director de arte y haces cambios sobre la marcha, a diferencia del ciclo típico de renderizar algo, dar retroalimentación al artista para que pueda cambiarlo y luego lo renderizaremos de nuevo. . Ese ciclo dura tres o cuatro días. Con Unreal Engine, podemos hacerlo en cuestión de minutos.

Fred: Esa es la razón por el lado de la producción. También superviso todo el desarrollo de IP, y uno de los objetivos es construir marcas, no solo series animadas. Al trabajar directamente en un motor de juego, podemos acelerar la comercialización de productos en otras áreas además de la serie en sí.

Esta es la estrategia del metaverso detrás de la construcción de IP. Es importante para nosotros asegurarnos de que nuestra propiedad intelectual tenga una longevidad en el mercado y pueda llegar e interactuar con una audiencia más amplia en diferentes plataformas en los medios.

¿Cómo ha cambiado su tubería en tiempo real desde Zafari?

Martin: La primera iteración de nuestra canalización, usábamos Unreal para VFX, iluminación y renderizado. Todos los artistas seguían trabajando en aplicaciones DCC tradicionales, y luego hacíamos una importación masiva de datos a Unreal.

Para el segundo proyecto, comenzamos a hacer efectos especiales y sombreadores más sofisticados en el motor. En esta última iteración de la tubería, trajimos al 60% de los artistas a Unreal. El mayor desafío allí es la formación, hacer que los artistas entiendan Unreal lo suficiente como para que puedan hacer su trabajo en él.

Para nuestra última iteración de la tubería, estamos haciendo todo el diseño dentro de Unreal. Incluso estamos usando Control Rig para la animación. Hemos desarrollado nuestro propio modelo de sombreado personalizado que estamos usando dentro de él. La lista sigue y sigue y sigue. En este momento, todo lo que estamos haciendo fuera de Unreal es modelar, manipular y desollar, y algo de animación si es necesario. Todo lo demás se hace en Unreal.

¿Cuál fue el mayor desafío al cambiar a una canalización en tiempo real?

Martin: Uno, capacitar al personal en Unreal, y dos, comprender Unreal lo suficiente para que influya internamente en nuestra canalización y flujo de trabajo reales.

Tenemos algunos artistas que han estado trabajando en la misma línea de animación tradicional durante 20 años y estamos tratando de convencerlos de que es mucho más flexible si lo haces de esta manera.

El canal de animación tradicional es más un tipo de planificación y producción en cascada, mientras que en el desarrollo de juegos, Fred y yo estamos acostumbrados a tener muchas iteraciones. Hacer que entendieran cómo hacer iteraciones para hacer las cosas, e incluso revertir algunos de los flujos de trabajo, requirió un cambio en su mentalidad; en pocas palabras, tuvimos que educar al personal para que entendiera lo que es posible en Unreal en tiempo real, y luego adaptando los flujos de trabajo para que pudiéramos aprovechar al máximo las funciones en tiempo real de Unreal.

¿Cuál sería un ejemplo de invertir el flujo de trabajo hacia atrás?

Martin: Hablemos de entornos, que en animación llaman decorados o fondos. En una canalización tradicional, toman el guión gráfico o la animática con el arte conceptual y elaboran una lista de los activos que van a necesitar. Luego construyen todos los activos y se los entregan a un artista ambiental para que construya el escenario para una toma o secuencia en particular.

Entonces, los pasos son, construir todas las piezas y luego ensamblar las piezas, pero antes de que puedas hacer esto, debes tener una comprensión preliminar de cuáles son todas las piezas que realmente necesitas. Al final, crea activos que no necesita y descubre que se perdió algunos de los activos requeridos en el análisis preliminar.

Lo que estamos haciendo ahora es obtener el diseño para hacer un primer entorno preliminar y la configuración de la cámara en Unreal, incluso con solo cajas cuadradas si es necesario, solo para conocer el terreno. Y luego le damos eso a un artista ambiental, que puede comenzar a mirar Megascans y algunas de las características del follaje en Unreal, o lo que sea que necesite para comenzar a ensamblar el conjunto como lo ve la cámara antes incluso de tener activos.

En algún momento, el artista ambiental dice: «Está bien, todo lo que necesito ahora es este puñado de activos para poder terminar el trabajo». Esto es mucho más eficiente y no hay desperdicio. Esa es una forma de darle la vuelta, donde comenzamos a trabajar en entornos incluso antes de tener los activos.

¿Qué es lo que más le gusta de una canalización en tiempo real?

Martin: Lo que realmente me gusta son las iteraciones rápidas, y todos trabajando juntos hacia el mismo objetivo de manera iterativa. Creo que crea mucha más sinergia entre los departamentos. Es muy interesante ver la transformación.

Fred: Puedes invertir más en la elaboración de la narración y el universo que se expandirá más adelante, y atraer a tu audiencia con diversas experiencias de entretenimiento. Eso es lo que estás haciendo al final: estás elaborando la narración de una manera más iterativa. Eso es ganar-ganar.

Martin: Nos da aún más flexibilidad que la filmación en vivo. En una filmación en vivo, el equipo sale y filma una gran cantidad de películas, luego regresa al estudio para realizar la posproducción y el montaje de la película. Luego, si deciden que necesitan una nueva toma, tienen que regresar y volver a tomarla, o se las arreglarán con lo que tienen. Pero con Unreal, tenemos la oportunidad de ir y cambiarlo. Podemos mover el sol, mover la cámara, obtener las tomas que necesitemos.

Lo hicimos una vez con un cliente, una demostración rápida para ellos. Tenemos un sombreador estilizado en Unreal Engine que hace que el 3D parezca dibujado a mano, así que producimos un video con ese estilo y se lo enviamos al cliente, y el cliente dijo que sería genial si la cámara se moviera de esta o aquella manera. Les enviamos un nuevo video en una hora, y quedaron impresionados.

Real-Time Animation Pipeline in Action - Guía de la animación en tiempo real
Real-Time Animation Pipeline in Action – Guía de la animación en tiempo real

¿Cuáles son algunos de los controles personalizados que creó para sus proyectos?

Martin: Un estudio en Bali nos contrató para configurar la canalización en tiempo real de The Beachbuds, que como serie consta de 52 episodios, cada uno de 11 minutos de duración. ¡Es mucha animación para producir, más de 600 minutos! Y nuestro equipo de producción lo logró en aproximadamente 18 meses, desde el inicio del proyecto hasta el final.

El mayor desafío para Beachbuds fue automatizar la integración de activos en ShotGrid para el seguimiento de activos. Además, los pájaros de Beachbuds expresan sus emociones principalmente a través de los ojos, por lo que la animación se centra en gran medida en los ojos. Una de las grandes victorias que tuvimos fue producir plataformas dinámicas para el seguimiento de ojos, especulares y párpados dentro de Unreal usando Control Rig. Los animadores tuvieron un día de campo creando expresiones.

La otra gran victoria fue el shader personalizado que construimos. Para Chase y CATCH, algunas de esas imágenes parecen dibujadas a mano, pero en realidad son representaciones 3D de Unreal con nuestro modelo de sombreado. Modificamos el código fuente de Unreal Engine para admitir nuestro sombreador personalizado.

Guía de la animación en tiempo real

Fred: Estamos explorando y desarrollando mucho la apariencia con nuestro sombreador de dibujos animados personalizado, donde podemos jugar con la forma en que la luz rebota en la superficie para crear apariencias realmente únicas. Con nuestro sombreador de dibujos animados personalizado, podemos colorear la línea de arte por geometría para que nos dé una apariencia entre 3D y la apariencia clásica en 2D de Pocahontas de Disney, que también tenía una gran cantidad de líneas de arte coloridas.

Estamos explorando una forma de automatizar la combinación de diferentes estilos artísticos, donde puede establecer un valor en el grado que desee y generar una firma visual nunca antes vista. Estamos tratando de definir nuestro aspecto como estudio y sacar nuestra IP también, para que la audiencia sepa por la estética que es parte del mismo estudio, los mismos narradores. Parece que Unreal Engine te está ayudando a definir tu estilo.

Fred: Lo es. Muchos usuarios de Unreal optan por el aspecto PBR [renderizado basado en la física], la forma más realista. Al jugar con estos sombreadores, creo que esto brinda oportunidades para diferenciarnos de las masas.

¿Cómo han respondido sus clientes a su cambio a canalizaciones en tiempo real?

Fred: Es un viaje divertido, pero a medida que comenzamos esta nueva aventura, como industria, necesitamos constantemente educar a nuestros clientes que son nuevos en la tecnología en tiempo real porque están acostumbrados a funcionar de cierta manera, a un cierto ritmo. . Les parece que estamos haciendo el final desde el principio, y los hitos a veces pueden ser diferentes de lo que están acostumbrados.

Por ejemplo, como menciona Martin anteriormente, preferimos abordar el diseño antes de comenzar a crear activos para el entorno porque sabemos que vamos a ahorrar costos y maximizar el uso del conjunto de herramientas y la biblioteca proporcionados por Unreal, pero se usan para aprobar activos antes de hacer el diseño. Es difícil comprender la libertad creativa que puede brindar una canalización en tiempo real sin experimentarla.

O a veces, por el contrario, piensan que porque estamos en Unreal Engine, todo es posible y no hay límite. Ven un video detrás de escena en la web, y ven que es una caja de arena abierta, y todos se divierten y es muy productivo. Todo es cierto, pero en algún momento todavía tenemos que trazar una línea en la arena. Necesitamos establecer hitos claros para hacer todo el programa de manera productiva. Se abrió una caja donde algunos clientes piensan que pueden iterar para siempre en las cosas.

Guía de la animación en tiempo real

Martin: Aquí está la parte divertida, e incluso la estamos enfrentando internamente también: si estamos hablando con las personas creativas, se trata de la idea de que el cielo es el límite. Y luego hablamos con los gerentes de proyecto y los productores, y dicen que quieren los pasos en este orden en particular, y de lo contrario no nos pagarán. Entonces, hay una contradicción entre esos dos mundos, en este momento, con respecto a la forma en que hacemos proyectos en tiempo real.

En una tubería de animación tradicional, todo está tan planificado, establecido y predecible, hasta cierto punto. La gente tiene miedo de la iteración porque no hay el mismo nivel de predicción sobre cuándo llegarás a tu juego final.

Es el mismo tipo de comparación en el desarrollo de software, entre un modelo en cascada y un modelo ágil. A la mayoría de los gerentes les gusta el modelo en cascada porque es algo predecible, pero ágil tiene que ver con la iteración, los sprints de dos o tres semanas, y usted simplemente sigue adelante y ataca las cosas a medida que necesita atacarlas, y finalmente lo deja y dice «Está bien, eso es todo». Ahí es donde estamos: llegas al punto en el que dices: «Vamos a lanzar esto ahora». Nos enfrentamos al mismo tipo de escenario en este momento en animación, la diferencia entre cascada y ágil. Waterfall es la tubería tradicional, y el tiempo real se trata de ser ágil.

canalización de la pipeline en tiempo real
canalización de la pipeline en tiempo real – Guía de la animación en tiempo real

Entrevista a Chromosphere Studio con Kevin Dart, Director Creativo y CEO y Elizabeth Ito Directora.

Chromosphere es un estudio boutique de diseño y animación detrás de películas como June, y la dirección visual de espectáculos como Carmen Sandiego y Elizabeth Ito’s City of Ghosts. Kevin trabajó anteriormente como director de arte y diseñador para Steven Universe, Big Hero Six, Inside Out, Cosmos, Her y The Powerpuff Girls.

Chromosphere comenzó a explorar canales en tiempo real por primera vez en el tercer episodio de Yuki 7, una serie web animada que adopta la estética de las películas de espías de la década de 1970. Ahora están haciendo un buen uso de la misma canalización en Mall Stories, una serie de Elizabeth Ito centrada en los pensamientos cotidianos de las personas que trabajan en un centro comercial.

Cuéntenos sobre su viaje de la animación tradicional a un flujo de trabajo en tiempo real

Kevin: Con Yuki, realmente nos metimos de lleno porque ya habíamos hecho dos episodios usando nuestra canalización habitual. Ya teníamos los personajes y los ambientes en Autodesk Maya. Nos referimos a ella como nuestra tubería tradicional, pero definitivamente no es como los días de tinta y pintura. Todavía es bastante moderno, utilizando todas las herramientas digitales.

¿Cuál fue el mayor desafío al cambiar su forma de trabajar?

Kevin: Lo que fue realmente nuevo para nosotros, cuando comenzamos a usar Unreal Engine para Yuki 7, fue lograr una apariencia final con la que estábamos contentos y que no involucró una herramienta de composición. Esto fue bastante aterrador para nosotros porque siempre usamos la misma herramienta consistente en todos nuestros proyectos.

En nuestra canalización anterior, es una cosa larga, dilatada, toma por toma, y ​​cada semana obtienes algunas tomas nuevas y las conectas. Pero en Unreal Engine, es como si estuvieras trabajando en una toma y continúas mejorarlo todo el tiempo, y todo está sucediendo simultáneamente. Así que el aspecto siguió mejorando uniformemente a lo largo de todo el episodio mientras trabajábamos.

Ya sea que estuviéramos haciendo 2D o 3D, siempre dependimos mucho de la composición para obtener el aspecto característico de nuestros proyectos, donde todos tienen un aspecto único y estilizado. Entrar en Unreal fue abandonar ese aspecto en el que hemos confiado bastante desde que comencé a hacer proyectos animados en 2008.

Había una gran cantidad de incógnitas sobre si podríamos obtener esa cantidad de control sobre las imágenes que estamos tan acostumbrados a tener. En la nueva tubería de Unreal Engine, hacer que la apariencia funcionara fue como si hubiéramos entrado en un mundo completamente nuevo, y ahora estamos construyendo nuestra casa donde podemos hacer la apariencia de la manera que queremos.

¿Cómo afecta el uso de un flujo de trabajo en tiempo real a su trabajo en Yuki 7?

Kevin: No pensábamos mucho en eso mientras lo hacíamos, pero una vez que terminamos el tercer episodio de Yuki 7, seguimos hablando de lo diferente que era, que todos los que trabajaban en el proyecto en Unreal siempre podían para ver toda la película allí, en Sequencer.

En realidad, es un cambio bastante sísmico para todos. Ahora, siempre tienen acceso a lo último. No necesitan esperar a que pase por la iluminación, el renderizado y la composición, y luego me lo envían para que lo conecte a una edición. Todo está sucediendo allí mismo, todo al mismo tiempo. Y siento que les da a todos mucho más contexto todo el tiempo, mucho más de lo que están acostumbrados a tener.

Como director, es bueno que no sea el único que siempre tiene una visión general de todo el proyecto. Todo el mundo puede ver todo junto todo el tiempo, y menos cosas tienden a pasar desapercibidas.

Guía de la animación en tiempo real

Hay tantas cosas pequeñas cuando estás haciendo una película. No dejaba de pensar en los efectos de chispa que hicimos en Yuki. En los otros dos episodios, hubo tantas pequeñas cosas como esa, en las que pensé: “Oh, hombre, olvidamos hacer que este salpique aquí. Tengo que avisarle a alguien.

En nuestra tubería anterior, lo enviamos a otra persona, y esa persona lo anima, y ​​luego se envía de vuelta a través de todo este proceso. Pero con la canalización en tiempo real, debido a que todo tiene que pasar por menos manos, podemos asignar todos los efectos a una persona, y ellos pueden pasar y ver dónde deben estar todos los efectos.

Uno de los cambios es que simplemente necesitamos reconocer que es realmente diferente en el buen sentido. Y ahora que sabemos que es así, podemos planificar cómo utilizar el hecho de que todos pueden ver todo todo el tiempo en los siguientes proyectos. Es más una ventaja.

Parte de la motivación detrás de esto es saber que, una vez que todo esté hecho, podríamos tomar esto y sacarle todos estos otros usos, porque podríamos hacer más películas en el mismo espacio porque lo hemos construido en este camino. O bien, podríamos hacer otras experiencias interactivas.

Cuéntame sobre la canalización en tiempo real de Mall Stories, en comparación con la canalización de tu proyecto anterior, City of Ghosts.

Elizabeth: Con City of Ghosts, usamos un estudio externo para crear los ambientes, así que teníamos que tener ideas específicas de las tomas que íbamos a hacer antes de tomar las representaciones del espacio para usarlas como fondos.

Unreal Engine nos da la posibilidad de movernos por el entorno y descifrar nuestros fondos de esa manera, en lugar de tener que dibujar guiones gráficos. Para Mall Stories, fue realmente agradable poder simplemente caminar, verlo y preguntarme: «¿Es este el espacio que tenía en mente? ¿Es bueno el tamaño de este espacio?»

Otro ejemplo es con uno de los personajes de Mall Stories que trabaja en la parrilla mongola. Le preguntamos: «¿Cómo terminaste trabajando aquí?». y él dijo: «Acabo de entrar al centro comercial por un bistec con queso y vi un cartel de ‘Se necesita ayudante’ en este restaurante, así que vine y solicité un trabajo».

Real-Time Animation Pipeline en acción
Real-Time Animation Pipeline en acción – Guía de la animación en tiempo real

Guía de la animación en tiempo real

Así que le dije a Kevin y a sus diseñadores: «Tiene que haber un restaurante de bistec con queso en algún lugar, donde podamos desplazarnos detrás de esta barbacoa mongola». La diferencia es que yo no tenía que saber eso para que empezáramos. Podemos agregar cosas a medida que las necesitemos.

Otra diferencia es poder ver algunos cambios de inmediato y no tener que esperar a que alguien los haga y los represente. Por ejemplo, en los primeros pases que regresaron para City of Ghosts, hubo muchos problemas de escala, en los que tuvimos que enviar personajes de regreso al estudio de CG para que se hicieran un cierto porcentaje más grande. Luego, los personajes volvían, y todavía no se veía exactamente bien, y teníamos que averiguar por qué. Con Unreal, es más inmediato: puedes ver a alguien escalar algo en ese mismo momento, en contexto.

Mall Stories es una producción de Chromosphere / Kikutowne Production

En Mall Stories, tuvimos un problema con el ancho de una escalera mecánica. Sabíamos que tenía que ser más ancho de lo que se diseñó originalmente, pero no estábamos seguros exactamente de cuánto, y tampoco de si necesitábamos escalar algunos de los personajes para que cupieran en la escalera mecánica. Habría tomado semanas haber descubierto algo así con nuestra forma anterior de trabajar. Para Mall Stories, pudimos resolverlo muy rápido en Unreal.

¿Cómo cambió el trabajo en Unreal la forma en que abordas la resolución de problemas?

Kevin: A pesar de todas las cosas que podríamos adaptar específicamente para esa tubería, seguimos siendo las mismas personas con mentalidad 2D, y siempre miramos todo y preguntamos: «¿Cuál es la forma más fácil de resolver esto?» Para todas esas cosas que podrían ser grandes dolores de cabeza técnicos, analizamos si podemos hacer algo realmente fácil simplemente moviendo las cosas en Unreal.

Los fideos en Mall Stories son un muy buen ejemplo de esto. Todo el mundo estaba estresado al principio, sabiendo que había muchas tomas de gente cocinando y moviendo fideos y comida. Pensamos que íbamos a tener que hacer simulaciones de fideos con física y colisiones, o algo así de complicado.

Pero Theresa [Latzko, directora técnica de arte en Chromosphere] ideó una plataforma realmente genial en la que solo modelamos una pila de fideos, y les dio a los animadores algunas herramientas geniales para moverlos un poco. Y se ve completamente realista. Parece que hicimos algo realmente complejo técnicamente.

Guía de la animación en tiempo real

Elizabeth: Para Mall Stories, estamos jugando con ese concepto de actores secundarios. Tienes a cada uno de los personajes de fondo en una especie de bucle, donde están comiendo y mirando su teléfono, o dos personas simplemente paseando por el centro comercial.

Kevin: Estamos tratando de configurarlo para que todo el ambiente ambiental lo obtengamos esencialmente de forma gratuita en cualquier momento. Una vez que está todo configurado, es como si el centro comercial fuera un ser vivo. Hay gente caminando en él, y están comprando. Las fuentes se van. Hay gente sentada y comiendo. Y no tienes que preocuparte, por toma, de lo que realmente sucede en el fondo porque siempre es algo. Es como si tuvieras un set en vivo en el que estás filmando.

Esperamos tener accidentes felices, como personas que deambulan frente a la cámara. Elizabeth: Estoy emocionada de ver que eso suceda con personajes animados, algo así como tomas descartadas pero para animación. Y definitivamente no es así como funcionaba City of Ghosts, donde teníamos que planear exactamente qué harían los personajes en cada toma.

Guía de la animación en tiempo real

Kevin: Elizabeth sigue diciendo que solo quiere una herramienta en la que pueda sentarse y ver cómo suceden las cosas en el centro comercial, lo cual podríamos hacer por completo.

Elizabeth: Podemos resolver problemas realmente simples antes de lo que podríamos, si no estuviera involucrada en ver todo al respecto.

Kevin: Es tan diferente estar realmente en el espacio y saber que es un objeto 3D que puedes mirar a tu alrededor, o ver un personaje y poder entenderlo de la forma en que lo haces cuando realmente puedes manipularlo. de alguna manera Siento que esa es una gran diferencia.

Pequeñas historias de Chromosphere Production
Pequeñas historias de Chromosphere Production – Guía de la animación en tiempo real

Entrevista a BRON Digital, con Gossamer | Monifa Andrew y Andy Bean

Monifa llegó a BRON Digital después de trabajar en VFX en proyectos como Deadpool 2, Blade Runner 2049 y The Hunger Games: Mockingjay – Part I. Andy Bean fue un artista de VFX contratado para varios estudios, incluidos DNEG, Electronic Arts y Method Studios. Tanto Monifa como Andy tenían algo de experiencia en tiempo real antes de llegar a BRON Digital (Monifa con producción virtual, Andy con realidad virtual) y aprovecharon la oportunidad de hacer que una canalización en tiempo real funcionara para la serie animada Fables.

¿Cuál ha sido el mayor desafío de cambiar a una canalización en tiempo real?

Monifa: Para mí, uno de los grandes desafíos fue la terminología. La gente me preguntaba sobre los entornos y les explicaba que en Unreal Engine, cada nivel es un entorno diferente. También estaba orientando las mentes de todos los demás a una canalización en tiempo real. Como productor de línea, estás a cargo de explicar ciertas cosas a las personas, como horarios y fechas. Hablar de eso con confianza mientras se aprende un nuevo sistema ha sido una aventura.

espere que todo funcione, y solo dispararemos un renderizado al final. Es una batalla constante de reeducar a la gente. Muchas personas que vienen de VFX quizás estén un poco institucionalizadas después de hacer lo mismo durante más de 20 años. Ser un perro viejo y aprender nuevos trucos puede ser complicado en esta etapa de la vida, pero al mismo tiempo, es enormemente gratificante y te mantiene alerta.

Monifa: Sí. Puede dominar tantos paquetes de software, pero debe poder adaptar su mente y reestructurar en términos de todo lo que ha aprendido. Y no es necesariamente descartarlo todo, sino mezclarlo un poco y luego poder decir: «Está bien, ahora esta es nuestra tubería». Andy: Todavía es una pelea en curso cuando digo: «Mira, no tenemos una etapa de competición». Monifa: Cierto. ¡No he dicho las palabras «pases de renderizado» en 18 meses!

¿Qué hace que una canalización en tiempo real sea tan interesante para usted?

onifa: Tienes que adaptar la forma en que presentas el trabajo porque, dentro de Unreal Engine, puedes llevar a tu director por el entorno varias veces. La persona que creó el entorno te lleva a una visita guiada, una visita en 3D. En la forma antigua de hacer las cosas, obtendrían un ciclorama como un video QuickTime.

Pero con el artista dando el recorrido en tiempo real, significa que dependes en gran medida de tu artista. Tiene que haber ese fuerte vínculo de comunicación y colaboración. Siempre estamos en Zoom, lo que significa que debemos ser muy claros y comunicativos con nuestros equipos, más aún cuando trabajas dentro de Unreal Engine que con una canalización tradicional.

¿Qué herramientas de Unreal Engine te han ayudado más?

Andy: Siempre me he alejado del lado de la programación, no me gusta Python o C++, pero con el sistema Blueprint en Unreal, es como construir con bloques LEGO. Simplemente puede juntar estos bloques de colores y agilizar todo el proceso de flujo de trabajo, y fue muy fácil juntarlos. Es una manera muy intuitiva y fácil de entender de hacer las cosas.

¿Qué tipo de utilidades se crean con Blueprints?

Andy: Lo primero son los servicios de iluminación. Gran parte del renderizado y la iluminación en UE están controlados por variables de consola (Cvars) que están un poco escondidas debajo del capó. Hemos creado un conjunto de utilidades de iluminación para facilitar el acceso a ellas, como un botón para activar o desactivar el trazado de rayos.

Estas son solo las necesidades con las que nos encontramos a diario. Hay un botón para abrir Sequencer y otro para abrir el mapa del entorno. Podemos encender y apagar el vidrio y ocuparnos de la claraboya. Si queremos ver los valores de exposición, podemos mencionar todo eso. Tratar con valores de luz físicos del mundo real y valores físicos de cámara significa que podemos copiar y pegar configuraciones de luz y configuraciones de cámara para cumplir con los requisitos de nuestros DP. El proyecto Fables tiene 345 niveles. Constantemente tenemos que administrarlos y activarlos y desactivarlos, por lo que tenemos herramientas para eso.

En mis proyectos anteriores de VFX, muy a menudo solo trabajabas por disparo. Pero con este flujo de trabajo, podemos tomar varias tomas juntas y recorrer toda la línea de tiempo, y verificar que la iluminación se vea consistente, que cuente la historia y que todo se comporte correctamente.

Estas utilidades son tan simples de armar. Hay un poco de dolor de cabeza aquí y allá, pero lo que encuentro con el enfoque de LEGO es que casi puedo trabajar al revés, hacer ingeniería inversa y ver qué se conecta con qué y qué no. Es como hacer Wordle, pero en Blueprints.

Qué tipo de utilidades se crean con Blueprints
Qué tipo de utilidades se crean con Blueprints – Guía de la animación en tiempo real

¿Qué le dirías a un artista o a un estudio que busca pasarse a una canalización en tiempo real?

Monifa: Ponte en contacto con personas de la industria que sepas que están trabajando en algo basado en Unreal y pregúntales: «¿Qué has encontrado que sea simple al revisarlo? ¿Qué has encontrado que son trampas? ¿Cómo dirías que estás lidiando con eso? Definitivamente, comunicarse con las personas y ver exactamente lo que están haciendo es la mejor manera de comenzar.

Y además de eso, bucear y jugar un poco. Mire cómo puede tomar su experiencia existente, ya sea que esté en la iluminación, el modelado, la animación o los efectos visuales, y profundice en ella, en toda regla, y vea lo que puede hacer.

Andy: Estoy totalmente de acuerdo con Monifa en ese último punto. Y hay tantos recursos educativos: está la documentación, Unreal Online Learning, videos de YouTube, foros, etc. Algunas de las charlas de la gente de Epic en YouTube son bastante largas, a veces de dos o tres horas, pero puedes aprender más sobre los procesos mentales detrás de Unreal Engine y muchas de sus características.

Trabajar en tiempo real requiere un poco de tiempo para acostumbrarse, pero no hay excusa. Es gratis, así que solo descárgalo, lo abres y te ensucias las manos.

pasarse a una canalización en tiempo real
pasarse a una canalización en tiempo real – Guía de la animación en tiempo real

Tecnología detrás de una canalización en tiempo real

Unreal Engine comenzó su vida como una herramienta para el desarrollo de juegos, pero desde entonces ha demostrado ser una herramienta de producción viable para contenido animado lineal.

Como eje central para las tareas de preproducción, producción y posproducción, Unreal Engine puede renderizar tomas terminadas en tiempo real o casi en tiempo real. También proporciona un espacio único para todos los activos, animación, iluminación, cámaras y VFX, de modo que los departamentos puedan trabajar en paralelo, ahorrando tiempo en general y brindando más oportunidades para la narración colaborativa.

Unreal Engine también se ha abierto camino en otras industrias que no son juegos, como los efectos visuales en la cámara; visualización arquitectónica; diseño y fotografía automotriz; simulación de entrenamiento médico y militar; experiencias de realidad virtual; y muchos otros.

Estas son algunas de las características clave que ofrece Unreal Engine para crear una canalización de animación en tiempo real.

Representación en tiempo real

La representación en tiempo real significa que lo que ve es lo que obtiene mientras trabaja. Esta tecnología ha estado en el centro de los motores de juegos desde sus primeros días. Hoy en día, la calidad del renderizado del motor de juegos ha evolucionado para rivalizar con la de los renderizadores fuera de línea.

Con características como iluminación dinámica, partículas, física, cabello/pelo y procesos posteriores en tiempo real, ahora es posible obtener calidad cinematográfica directamente desde Unreal Engine. Con la introducción de Lumen, el sistema global de iluminación y reflejos completamente dinámico de Unreal Engine 5, la brecha entre los renderizadores fuera de línea se cierra de manera efectiva.

También se presentó en Unreal Engine 5 Nanite, un sistema de geometría virtualizado, que genera detalles de gran cantidad de polígonos y una gran cantidad de objetos en tiempo real. Nanite brinda a los estudios de efectos visuales y animación más flexibilidad para migrar sus mallas poligonales de alta densidad a flujos de trabajo de producción en tiempo real.

Cuando necesite una mayor fidelidad de imagen que la que se entrega con el renderizador en tiempo real, por ejemplo, si desea un mejor suavizado y desenfoque de movimiento, puede usar funciones integradas como Movie Render Queue y Path Tracer. Estas funciones le brindan más opciones para la optimización de activos: puede reducir los niveles de detalle para las revisiones en tiempo real y volver a aumentarlos para obtener el resultado final, mientras sigue procesando en segundos o minutos y no en horas o días.

Tecnología detrás de una canalización en tiempo real
Tecnología detrás de una canalización en tiempo real – Guía de la animación en tiempo real

Secuenciador

Sequencer de Unreal Engine ofrece la potencia de un editor no lineal para crear y previsualizar secuencias cinematográficas en tiempo real. Una tubería en tiempo real a menudo comienza con el bloqueo y el diseño en Sequencer con objetos y caracteres de baja resolución, luego cada activo se puede reemplazar con una versión más final a medida que avanza el trabajo. Sequencer trae herramientas de edición no lineal a su entorno 3D para que pueda tener el control de sus personajes, efectos visuales, objetos, cámaras y efectos de sonido en una línea de tiempo de varias pistas.

En Sequencer, tiene la opción de realizar cambios en toda la secuencia, además de realizar un cambio que afecte solo a una toma o tomas específicas. Cada personaje, cámara, luz y objeto se pueden editar en una escena completa, lo que le brinda la posibilidad de realizar cambios globales y luego reproducirlos instantáneamente para su revisión. También puede crear, modificar, reordenar o eliminar tomas de una secuencia en tiempo real.

Con este flujo de trabajo, Sequencer es una herramienta ideal para la experimentación y la iteración de tomas y secuencias, con cualquier cambio que se propague automáticamente a lo largo de toda la escena. El secuenciador es accesible para todos los artistas de la producción para que sepan que siempre están trabajando en contexto.

Colaboración remota

Incluso antes de que la pandemia de COVID-19 hiciera que los trabajadores de oficina se instalaran en casa, muchos estudios de animación ya habían comenzado a explorar las posibilidades de la colaboración remota. Con la llegada de los sistemas de conferencias remotas como Zoom, la distancia ya no es una barrera para las sesiones grupales de intercambio de ideas e historias.

La colaboración remota también ha brindado a los estudios más opciones para contratar a los mejores talentos para el proyecto. Ya no importa si un artista vive al final de la calle, al final del pasillo o al otro lado del mundo; aparte de las diferencias de zona horaria, ya no hay razón para limitar su equipo a los locales o pedirles a los artistas que se muden.

Los equipos de animación también usan herramientas de colaboración remota para permitir la exploración de ubicaciones virtuales y la importación de captura de movimiento en vivo.

Edición multiusuario. El sistema de edición multiusuario de Unreal Engine permite a los usuarios de la misma LAN o VPN conectarse a una sola sesión dentro del motor. Con todo el proyecto en una ubicación central (virtual), los compañeros de equipo de todo el mundo pueden iniciar sesión y tener sesiones de revisión en vivo dentro del proyecto a través del Editor multiusuario de Unreal Engine, independientemente de la ubicación o la zona horaria. A medida que cada usuario trabaja en la escena, otros usuarios pueden ver los cambios en tiempo real.

Conferencias remotas para conversaciones en vivo

Cuando se combina con conferencias remotas para conversaciones en vivo, la edición multiusuario hace posible que los miembros del equipo discutan tomas y secuencias mientras las actualizan sobre la marcha, lo que crea una experiencia verdaderamente colaborativa para todos los involucrados.

Transmisión de píxeles. La capacidad de los usuarios para configurar Pixel Streaming en Unreal Engine hace posible transmitir su proyecto a los dispositivos conectados a Internet de su elección. Esto significa que un miembro del equipo puede ver la última versión del proyecto en una tableta o un teléfono inteligente, desde cualquier lugar, sin tener que cargar Unreal Engine en la máquina local. El proyecto permanece en el servidor, con todo el trabajo pesado realizado en el lado del servidor; lo único que se envía al dispositivo son las imágenes en sí.

Suponga que la directora está en el aeropuerto, esperando que su vuelo sea llamado para abordar, y usted tiene una nueva versión de la animación para mostrarle. Para verlo, podría abrir su computadora portátil, esperar a que se cargue Unreal Engine, unirse a una sesión multiusuario y hacer clic en Reproducir. Pero es posible que la computadora portátil no sea lo suficientemente potente como para reproducir en tiempo real, por lo que le resultará imposible dar su opinión sobre el tiempo. En su lugar, podría enviarle un mensaje de texto al director con un enlace, y ella lo toca para ver la reproducción en su teléfono. Simple como eso.

Los primeros usos de Pixel Streaming fueron para la distribución de contenido interactivo para el consumidor: juegos, configuradores de automóviles y similares. Con la llegada de las técnicas de producción virtual llegó un nuevo uso para esta tecnología en tiempo real: la entrega de contenido para la revisión del equipo de desarrollo.

Herramientas de animación

Animar en el motor. A partir de Unreal Engine 5, los animadores ahora pueden crear fotogramas clave dentro del motor. Los TD pueden crear rápida y fácilmente controles amigables para los artistas para equipos faciales y corporales usando Control Rig, y compartirlos entre múltiples personajes; los artistas pueden posar personajes en Sequencer, guardar y aplicar las poses con Pose Browser; y cree fácilmente un movimiento natural con el solucionador Full Body IK. Y con Motion Warping, puede ajustar dinámicamente el movimiento principal de un personaje para alinearlo con diferentes objetivos, por ejemplo, saltando sobre paredes de diferentes alturas, con una sola animación.

Herramientas de captura de movimiento

Ya sea que use la captura de movimiento para la animación final o como referencia para la animación de fotogramas clave, Live Link de Unreal Engine puede transmitir los datos a su personaje en tiempo real, lo que permite a los actores de captura de movimiento crear actuaciones más significativas y garantizar que obtenga la mejor toma en el lugar. Con la capacidad de crear fotogramas clave sobre los datos de captura de movimiento en Sequencer, puede refinar los datos capturados en animaciones pulidas. Además, el sólido conjunto de herramientas de retargeting de Unreal Engine te permite reutilizar la animación entre personajes, incluso si tienen diferentes esqueletos y proporciones.

Otras características clave

Cola de procesamiento de películas

Esta herramienta fue diseñada para brindar un mayor control y renderizaciones de mayor fidelidad para contenido lineal cuando no puede comprometer áreas como el suavizado y el desenfoque de movimiento. Además, le ofrece la flexibilidad de renderizar pases de renderizado específicos cuando es absolutamente necesario aprovechar los flujos de trabajo de composición tradicionales y aprovechar complementos como la integración de Nuke de The Foundry con Unreal Engine.

Importación y exportación

Unreal Engine admite formatos de archivo comúnmente utilizados en canalizaciones de animación, incluidos FBX, USD y Alembic.

Personalización a través de Blueprints

El sistema de secuencias de comandos visuales de Blueprint ofrece un método sencillo para personalizar los eventos de animación. Los usos comunes de Blueprints en la animación incluyen cambios en los materiales basados ​​en la proximidad de un personaje a un objeto y activadores de sistemas de partículas para crear salpicaduras de agua o fuego.

Efectos visuales

Unreal Engine ayuda a que los efectos sean más accesibles con numerosas herramientas que se ejecutan en tiempo real, para que pueda ver lo que sucede de inmediato. Estas herramientas incluyen:

Chaos Physics

Si su proyecto requiere rotura y destrucción, tela, fluidos o animación de muñecas de trapo, la física en tiempo real puede cambiar las reglas del juego. Al ver los efectos durante el ciclo de producción en lugar de hacerlo después, los animadores y los artistas ambientales pueden modificar los modelos y la ubicación para obtener los mejores efectos posibles.

Partículas de Niagara

Crea fuego, salpicaduras de agua, humo y otros efectos basados ​​en partículas, renderice en tiempo real y vea exactamente cómo se verán en contexto.

Cabello y pelaje

La representación en tiempo real del cabello y el pelaje significa que puede ver instantáneamente cómo la iluminación y el movimiento los afectan, sin tener que esperar. Este flujo de trabajo acelera en gran medida el proceso de ajustar las propiedades del cabello, como el color y el brillo, para obtener el aspecto que desea, y brinda información instantánea sobre cómo el movimiento secundario afecta el cabello y la piel.

Volúmenes posteriores al proceso

Con el renderizado en tiempo real, la intención es que pueda obtener píxeles finales directamente desde Unreal Engine y evitar la necesidad de composición.

Unreal Engine ofrece efectos de postprocesado flexibles y potentes para modificar y ajustar sus escenas. Aproveche las herramientas integradas para la gradación del color y las técnicas de emulación de cámara, como la distorsión de la lente, la aberración cromática, la profundidad de campo, la floración y más.

Características clave de la animación en tiempo real
Características clave de la animación en tiempo real – Guía de la animación en tiempo real

Integración de Python

Unreal Engine ahora es compatible con Python 3, lo que le brinda la capacidad de crear herramientas personalizadas para satisfacer sus necesidades específicas de producción. Al combinar los widgets de la utilidad Editor basados ​​en Blueprint y el poder de Python, puede crear nuevas herramientas e interfaces para refinar y automatizar su canalización.

MetaHuman

El marco MetaHuman de Epic le permite crear personajes humanos fotorrealistas, completos con cabello y ropa, en una fracción del tiempo que tomaría construirlos desde cero. Aprovechando los datos de escaneo de múltiples humanos reales, la aplicación basada en la nube MetaHuman Creator produce personajes con estructuras corporales y faciales completas, listos para animar en Unreal Engine, en minutos. Y con el complemento MetaHuman para Unreal Engine, puede convertir fácilmente su propia malla facial personalizada en un MetaHuman.

Quixel Megascans

La vasta e impresionante biblioteca de vegetación, activos orgánicos y hechos por el hombre y texturas de alta resolución de Quixel es gratuita para todos en Unreal Engine. Con Quixel Bridge integrado en Unreal Engine 5, los activos vienen listos para arrastrar y soltar en su escena, lo que le brinda la capacidad de crear rápidamente un diseño aproximado o incluso un entorno fotorrealista completo en minutos, todo renderizado en tiempo real.

Empezando

La idea de cambiar a una tubería en tiempo real puede ser desalentadora. ¿Por dónde empiezas? Aquí hay algunos consejos que nuestros equipos destacados nos han dado para comenzar con este nuevo paradigma en la producción de animación.

Comience con un proyecto modesto y listo para activos. Si tiene activos de un proyecto existente, eso le ahorrará un paso para su proyecto de prueba. Reel FX, por ejemplo, probó las aguas al reproducir una sola escena de una secuencia animada que ya habían creado para otro proyecto. Ya tenían todos los activos y sabían el aspecto que buscaban, por lo que pudieron concentrarse en aprender el conjunto de herramientas de Unreal Engine para reproducir la toma.

Adopte una mentalidad de «pruébelo primero en el motor». Hay muchas áreas en las que Unreal Engine sobresale hoy en día para las canalizaciones de animación, y también áreas en las que Epic Games está en proceso de mejora. Cuando se sumerja en su primer proyecto de prueba, le recomendamos que adopte una actitud de «motor primero»: intente hacer todo lo que pueda en Unreal Engine, incluso si sospecha que podría ser más rápido o más fácil en una tubería más familiar.

Este enfoque lo llevará a descubrir dónde una canalización en tiempo real puede contribuir más a sus objetivos para el proyecto y cómo se puede fusionar mejor con su canalización existente. Además, cuando se sumergen con esta mentalidad, los estudios tienden a descubrir usos y beneficios emocionantes que no esperaban ni imaginaban.

Lea sobre las características relevantes

¿Qué herramientas de Unreal Engine puedes aprovechar al máximo? Por ejemplo, si su proyecto requiere activos de alto contenido polivinílico, como árboles y follaje, puede aprovechar el follaje de procedimiento integrado de Unreal Engine, lo que elimina la necesidad de crear y optimizar activos en su aplicación DCC.

Considere opciones de activos rápidos

El Unreal Engine Marketplace es un gran lugar para encontrar todo tipo de activos listos para el motor, ya sea para usar como marcadores de posición o finales. La banda de un solo hombre, Cory Strassburger, hace un uso liberal del Mercado para encontrar artículos cotidianos para la nave espacial Xanadu, hogar de su personaje de Blu.

Consultar proyectos existentes

Elija entre docenas de proyectos de muestra de Unreal Engine, accesibles desde la pestaña Muestras del iniciador de Epic Games, para ver las herramientas y configuraciones que usaron los creadores. Aquí hay solo un ejemplo, creado por Weta Digital, que muestra el uso del cabello y la piel.

Elige un equipo que quiera hacerlo

Nuestros usuarios lo mencionan con tanta frecuencia que vale la pena repetirlo: estará mejor preparado para el éxito si trabaja con productores, directores y artistas que estén entusiasmados con la tecnología en tiempo real y que estén ansiosos y abiertos a enfrentar los desafíos de conmutación de canalizaciones con resolución creativa de problemas.

Para BRON Digital, esto significó dejar ir a algunos artistas talentosos a favor de nuevos empleados que no podían esperar para probarlo; para Sony Pictures Imageworks, significó pedir voluntarios de su amplio grupo de artistas y personal técnico.

Aprende de los demás

La comunidad de desarrolladores de Epic es donde encontrará cursos de video gratuitos sobre casi todos los temas que se le ocurran, desde los conceptos básicos de iluminación y materiales hasta flujos de trabajo más específicos para la animación. También alberga los foros de Unreal Engine, que son una mina de oro de información de los propios usuarios.

Elige un equipo que quiera hacerlo
Elige un equipo que quiera hacerlo – Guía de la animación en tiempo real

Entrevista a 3rd World Studios | Allahyar y las 100 Flores de Dios |

Uzair Zaheer Khan es el fundador de 3rd World Studios, un estudio de animación pakistaní conocido por Allahyar and the Legend of Markhor, el primer largometraje de animación creado íntegramente con Unreal Engine. También se desempeña como director, guionista y artista en sus proyectos.

El último proyecto de Khan, Allahyar and the 100 Flowers of God, es la primera secuela de la serie Allahyar y también será la primera película estereoscópica en 3D de Pakistán. La historia lleva a los héroes al reino de la acción y la ciencia ficción mientras luchan contra el cambio climático y la deforestación.

Cuéntenos sobre su decisión de usar Unreal Engine para producir su última película, Allahyar and the 100 Flowers of God. ¿Qué fue lo que te hizo ir en esa dirección en tu experiencia anterior?

Unreal Engine ha recorrido un largo camino desde que hicimos nuestra primera película, Allahyar and the Legend of Markhor. Hubo demasiados beneficios para nosotros como para no continuar con Unreal Engine para nuestra próxima película, los más obvios fueron la iluminación y el renderizado en tiempo real, su capacidad para manejar cantidades masivas de datos, el flujo de trabajo totalmente no destructivo y muchos más.

¿Cuál es su proceso de desarrollo visual para lograr la estética distintiva de las películas de Allahyar? Unreal Engine juega un papel muy importante en nuestro proceso de desarrollo de apariencia. El flujo de trabajo visual del Editor de materiales es muy enriquecedor para nuestros artistas, quienes pueden crear sombreadores complejos con comentarios en tiempo real.

En general, el flujo de trabajo y las herramientas de sombreado e iluminación en tiempo real en Unreal Engine son un cambio de juego. El hecho de que podamos modificar nodos utilizando instancias de material hace que todo el proceso sea muy rápido y fácil, lo que brinda a los artistas la capacidad de combinar y mejorar los conceptos aprobados sin compromiso.

Usamos Blueprints para poblar escenas individuales para la iluminación, que almacena toda la información material y elimina la redundancia. Nuestros artistas de iluminación aún pueden modificar las instancias de material en tiempo real para cada escena o toma para lograr el aspecto deseado, y el aspecto se puede reutilizar en otras secuencias si es necesario.

Para la primera película de Allahyar, usaste Unreal Engine para los entornos y la iluminación, pero hiciste toda la animación fuera del motor. ¿Seguiste el mismo flujo de trabajo para Flowers of God, o ahora estás haciendo más en el motor?

Todavía usamos herramientas externas para la mayor parte de la animación, pero ahora usamos Unreal Engine para más y más requisitos relacionados con la animación. Por ejemplo, tratamos con cámaras casi exclusivamente dentro de Unreal Engine a diferencia de nuestra película anterior.

Desde entonces, hemos simplificado nuestro flujo de trabajo a través de herramientas de automatización para la importación de activos, animación y configuración de escenas en Sequencer, etc. Sin embargo, estamos muy entusiasmados con el flujo de trabajo de animación de personajes en Unreal Engine, y estamos en el proceso de desarrollar una canalización de animación completamente nueva que se basa únicamente en Unreal Engine para nuestras necesidades de animación.

Allahyar y las 100 Flores de Dios
Allahyar y las 100 Flores de Dios – Guía de la animación en tiempo real

Cuando hiciste la primera película de Allahyar, mencionaste que había detractores en la industria que decían que no se podía hacer una película animada con un motor de juego. ¿Ha cambiado esa actitud en la industria desde entonces?

La actitud de la industria ha cambiado por completo a favor de Unreal Engine. Se está convirtiendo rápidamente en un estándar de la industria en Pakistán, con múltiples estudios principales cambiando completamente a canalizaciones basadas en Unreal Engine para todo tipo de contenido CG, desde películas animadas, series y comerciales hasta visualización arquitectónica. Vemos que te apasiona mostrarle al mundo que los artistas paquistaníes pueden producir un gran contenido. ¿Cómo te ayuda Unreal Engine a lograr este objetivo?

Unreal Engine es una herramienta muy robusta y versátil que puede ayudar a artistas e ingenieros a lograr objetivos más rápido y con facilidad. Por ejemplo, hemos desarrollado una solución estereoscópica completa dentro de Unreal Engine y estamos orgullosos del hecho de que Allahyar and the 100 Flowers of God será la primera película estereoscópica en 3D de Pakistán, todo gracias a Unreal Engine.

Pero un aspecto extremadamente importante de trabajar en Unreal Engine es el tipo de ayuda y educación que se ha puesto a disposición de los usuarios de los equipos de Unreal Engine en Epic Games. Esto ha sido extremadamente útil para nosotros en la capacitación y la transición de artistas a un flujo de Unreal Engine. A pesar de ser un estudio muy pequeño, hemos sido muy afortunados y nos sentimos agradecidos por todo el espectro de ayuda y apoyo.

¿Qué es lo mejor de usar un flujo de trabajo en tiempo real, en comparación con una canalización tradicional? Por el contrario, ¿cuáles son algunos de los mayores desafíos?

Nos reímos cuando los artistas más jóvenes se quejan de los tiempos de renderizado utilizando el flujo de trabajo en tiempo real. Para las personas que provienen de proyectos convencionales, que tuvieron que esperar días para ver el resultado de su arduo trabajo, Unreal Engine es un hermoso sueño hecho realidad. Los desafíos, si los hay, están siendo abordados de manera efectiva por el trabajo de desarrollo ultrarrápido que se está realizando en el motor. Supongo que el desafío podría ser mantenerse al día con la tecnología casi revolucionaria y en constante evolución de Unreal Engine.

Desafíos al trabajar en tiempo real
Desafíos al trabajar en tiempo real – Guía de la animación en tiempo real

Entrevista a Evil Eye Fotos

Dan ha contribuido a películas premiadas y proyectos especiales durante más de 25 años. Trabajando como compositor en películas ganadoras de premios de la Academia como The Matrix y What Dreams May Come, Dan pasó a supervisar las secuelas de The Matrix y otros proyectos de Warner Brothers. Después de fundar Evil Eye Pictures en 2004, Dan lideró los efectos visuales clave en más de 30 películas y contribuyó con estándares en los flujos de trabajo de VFX al Manual de la Sociedad de Efectos Visuales.

Yovel ha estado trabajando en producción durante 25 años en largometrajes, programas de televisión y comerciales galardonados, y tiene una habilidad especial para aplicar nuevas tecnologías al espacio cinematográfico y de medios en tiempo real. Como productor, entre sus clientes se encuentran Google, Apple, YouTube, Bot & Dolly, Audi, Virgin Records, Psyonix y Epic Games.

Evil Eye es responsable de algunas de las primeras piezas animadas en tiempo real, como cinemáticas para Fortnite y Rocket League, una pieza con trazado de rayos encargada por Epic Games para SIGGRAPH 2019, el famoso proyecto de realidad virtual Pearl de Google y el reciente proyecto The Matrix Awakens que ayudó a lanzar Unreal Engine 5.

¿Cómo empezaste a usar una canalización en tiempo real para la animación?

Dan: Mi primera experiencia con la tecnología en tiempo real fue mientras trabajábamos para Google Spotlight Stories, haciendo cortometrajes animados en realidad virtual. Habían desarrollado un motor personalizado y nos trajeron para producir algunos de sus proyectos.

Recibimos a las personas en nuestro estudio y mostramos la salida 2D en nuestra sala de proyección, y luego les pedíamos que se pusieran los auriculares y experimentaran la misma película en 360° VR. Siempre fue fascinante discutir cómo la narración de historias podría usar los diferentes medios.

Continuamos experimentando con otras demostraciones en tiempo real para generar nuevos negocios enfocados en el uso de Unreal Engine. Tomamos una decisión consciente de pasar de ser un proveedor tradicional de efectos visuales a un estudio de experimentación de alto nivel centrado en el arte y la tecnología en tiempo real.

La apuesta por usar Unreal Engine y pasar a la tecnología en tiempo real definitivamente funcionó para nosotros. En 2021, desarrollamos FUTURE.STAGE, un sistema remoto en vivo que captura las actuaciones de los actores desde cualquier parte del mundo y las transmite de forma sincronizada en Unreal Engine. Actualmente estamos hablando con algunos socios interesantes que quieren usarlo para animación en vivo en tiempo real, así como un sistema de reproducción para pasar sin problemas a la posproducción.

¿Cuántos artistas hay en Evil Eye?

Dan: Siempre hemos sido un estudio relativamente pequeño, escalando para proyectos. Fluctuamos alrededor de 20-40 personas. Siempre hemos mantenido una intensa atención al detalle y cierta cultura de estudio que cambiaría si se hiciera mucho más grande. En los últimos años, hemos tenido mucho éxito en aprovechar a los veteranos de los efectos visuales y la animación de largometrajes, y capacitarlos e inspirarlos para que usen esta nueva tecnología.

Yovel: Así contratamos ahora, porque es el camino que seguimos. Obtenemos personas más inteligentes y sorprendentes de nuestros orígenes, y se acercan al motor de una manera única.

Muchos de los artistas de su personal provienen de un entorno tradicional de VFX. ¿Cómo ha impactado esto en su adopción de Unreal Engine para su canalización?

Dan: Muchos de nosotros nos sentimos revitalizados al experimentar nuevamente con gráficos por computadora. Me recuerda a los primeros días de los efectos visuales en la década de 1990. Siempre me ha gustado tratar de descifrar el código para llegar a lo visual que pide el director mientras mantengo una canalización técnica y sensata.

A veces eso significa que tenemos que adaptar Unreal Engine a nuestra voluntad, ya que el motor se creó originalmente para hacer juegos y no necesariamente contenido lineal. Todo eso ha cambiado ahora desde que Unreal ha dado saltos supersónicos en muchas de sus herramientas. Está sucediendo de nuevo; estamos usando la mayoría de nuestros viejos trucos de largometrajes, pero ahora los estamos desarrollando para usar Unreal Engine.

Yovel: Los artistas que traemos a menudo tienen un fondo VFX más tradicional. Cuando se sumergen en la herramienta y comienzan a descubrir cómo usarla, ya sea cómo configurar un Blueprint o un material de posprocesamiento, se acercan al proceso de aprendizaje tratando de lograr una apariencia a la que solían llegar. de una manera diferente.

Tener ese enfoque, desde ese trasfondo tradicional, acaba empujándonos hacia zonas menos habituales del motor; nos hace pedir cosas que otros tipos de usuarios aún no preguntan, porque la gente históricamente no ha estado usando el motor de esa manera. Lo que termina sucediendo es que podemos exponer una falta de funcionalidad o, a veces, solo una funcionalidad diferente durante el proceso de creación de la imagen.

Como dijo Dan, estamos tratando de doblegarlo a nuestra voluntad. Esa mentalidad está constantemente creando nuevas vías para el desarrollo. Estamos desarrollando muchas de nuestras propias herramientas, pero Epic itera constantemente y, a menudo, vemos que las cosas que estamos desarrollando aparecen como nuevas funciones en el motor. Debido a ese espacio colaborativo y al hecho de que el código está abierto y disponible para todos, deja espacio para ese tipo de flujo de trabajo y filosofía.

¿Cuáles son algunos de los desafíos de usar un motor en tiempo real para contenido de animación lineal?

Yovel: A medida que profundizamos en el uso de Unreal, comenzamos a hacerle preguntas a Epic sobre ciertas cosas. Muchas veces, la respuesta que obtendríamos es: «Nadie ha intentado usarlo así». Todo eso está cambiando ahora, ya que más y más estudios están comenzando a adoptar el motor, pero al principio, se sintió como pionero.

Dan: El mayor desafío es preparar activos para Unreal Engine, o cualquier motor de juego, en comparación con otros paquetes 3D. El modelado, el rigging, el skinning y el ponderado deben construirse para que funcionen específicamente para la reproducción en tiempo real. La ventaja es que el motor puede tener «activos inteligentes» que pueden programarse para tener física y moverse de ciertas maneras según el procedimiento. Esa es una gran recompensa.

En los primeros días, traté de usar Unreal Engine como un renderizador fuera de línea, un renderizador sin cabeza. Tradicionalmente, estamos acostumbrados a mirar un cuadro y hablar sobre el desenfoque de movimiento o los efectos de esa salida e imagen. A veces tienes que repensar cómo estás imaginando el efecto. También utilizamos la composición durante muchos años para abordar algunos de estos problemas, pero hoy en día nos esforzamos para que todo salga del motor.

Se convierte en un reto, pero que nos hace más creativos

Yovel: Todos los increíbles avances superan la confusión que surge al repensar cómo tienes que abordar algo. Cualquiera que quiera repensar su tubería de esta manera, para animación o de otra manera, debe superar el miedo a que sea diferente.

Si desea hacer uso de una de las herramientas más poderosas que están disponibles para usted ahora, solo necesita integrarla y ver cómo puede trabajar con ella o alrededor de ella. Hemos adoptado un enfoque muy específico para ese proceso. Se basa en cómo nos gusta trabajar, en nuestro historial de efectos visuales y en todo lo que tenemos en nuestra historia.

Cuando empezamos, básicamente hacíamos todo fuera del motor, en una aplicación DCC, y luego lo llevábamos a Unreal y lo renderizábamos. Pero cuanto más aprendes, cuanto más te integras y permaneces en el motor, simplemente no quieres volver atrás. Empiezas a descubrir cómo funciona: ¿puedes tomar esta parte de tu tubería y meterla dentro del motor? La respuesta, en su mayor parte, es sí.

Los retos nos hacen creativos
Los retos nos hacen creativos – Guía de la animación en tiempo real

¿Cuál es el enfoque para lograr un aspecto en Unreal Engine?

Yovel: Teníamos un cliente que quería hacer una serie animada de realidad virtual genial. Nos preguntaron si podíamos darle el aspecto de estas pinturas de fondo de estilo antiguo, estas pinturas de Gouache.

Rápidamente armamos una escena con una calle que ya teníamos y algunos árboles que pintamos con Quill. Y luego construimos un sombreador Unreal que le dio este aspecto Gouache con esos contornos característicos y un poco de ondulación dibujada a mano. Tomó alrededor de una semana de perder el tiempo. Puedes simplemente iterar y experimentar increíblemente rápido. Dan: Cuando le mostramos a Google cómo podíamos usar Unreal Engine para Spotlight Stories, tomamos uno de nuestros proyectos existentes, Age of Sail, y recreamos una de sus secuencias en Unreal Engine.

Age of Sail está construido en 3D, pero tiene un aspecto de animación 2D dibujado a mano, logrado a través de sombreadores e iluminación. Se ha hecho mucho renderizado fotorrealista con Unreal Engine, pero fue un logro trabajar con nuestros TD para recrear el estilo dibujado a mano de Age of Sail en Unreal.

Hay una verdadera emoción trabajando en el motor. Estás volando y creando, sintiéndote un poco como si estuvieras jugando un juego mientras ves tu escena. Debido a mis años de composición, estoy acostumbrado a obtener imágenes horneadas y procesadas para trabajar con ellas quizás una vez al día, pero ahora puedo trabajar de forma interactiva en el motor para realizar cambios en tiempo real en lugar de esperar.

Distintas disciplinas se están pisando unas a otras, pero de una manera que promueve más la colaboración. Tienes la oportunidad de ver la animación, FX, iluminación, todo a la vez para juzgar realmente cómo las tomas se unen más rápido que nunca.

Enfoque para lograr un aspecto en Unreal Engine
Enfoque para lograr un aspecto en Unreal Engine – Guía de la animación en tiempo real

¿Qué consejo le daría a alguien sobre cómo comenzar con un flujo de trabajo en tiempo real?

Dan: Depende de cuáles sean tus objetivos finales. Hay una gran cantidad de materiales y tutoriales que están disponibles directamente desde el iniciador de Epic u otras fuentes en línea. Teniendo en cuenta que estamos muy centrados en el cine, creo que aprender Sequencer es un buen comienzo. Es una forma de visualizar una escena cinematográficamente y establecer parámetros en los objetos y profundizar en lo que constituye los elementos del motor.

Yovel: Como dijo Dan, es increíblemente abrumador decir: «Tengo que ir a aprender este nuevo software». Es demasiado abierto. Yo diría en cambio que decida hacer algo con él. Si quieres empezar, entonces empieza. Haz algo pequeño. Hazlo interno. Conviértalo en un proyecto que tiene por venir para otra persona. Una vez que haya decidido qué hacer, su enfoque para aprender realmente cómo hacerlo será algo natural.

Hacerlo en Sequencer te enseñará mucho sobre el flujo de creación de una pieza lineal de contenido en Unreal Engine. Sequencer es un gran lugar porque es muy central. Tiene tantos aspectos del motor que pueden canalizarse hacia él, y puede elegir poner tanto o tan poco como necesite para el proyecto.

Dan: Haz una toma o algo que hayas hecho en otro lugar, fuera de Unreal, e intenta seguir los pasos y rehacerlo en el motor. Y o realmente quieres que el objetivo se vea igual al final, o creas algo súper genial que es diferente.

Pero si eso no es lo que eres, puedes ir al Mercado y comprar algo. Hay tantos activos increíbles de los que puedes aprender.

Los materiales y los planos son dos ejemplos de cosas que podrían intimidarlo, pero están basados ​​en nodos, por lo que puede seguir la lógica ya que son visuales. Digamos que agarras algo que tiene un Blueprint, como un maniquí manipulado por tu controlador de juego. Puede abrir ese Blueprint y separarlo nodo por nodo.

Si eres bueno excavando, aprenderás mucho. Puede que te lleve algunas horas por tu cuenta, pero eso es parte de la diversión. Así es como muchos de nosotros pasamos nuestro tiempo en estos días.

Entrevista a Cory Strassburger de Xanadu

Cory comenzó como artista de VFX, trabajando en proyectos como la serie The X-Files y la película Minority Report. Eventualmente se pasó a la realidad virtual, creando proyectos de realidad virtual para clientes como GE, Universal Studios y Lionsgate. Su viaje finalmente lo llevó a explorar la captura de rendimiento en tiempo real con Unreal Engine. Como parte del equipo Kite & Lightning, Cory ganó el SIGGRAPH 2018 Real-Time Live! competencia con una demostración de los personajes bebés del juego de realidad virtual Bebylon.

Xanadu es un programa unipersonal de YouTube protagonizado por el alter ego alienígena de Cory Strassburger, Blu, que está construyendo un «imperio virtual» desde su rincón del metaverso. Xanadu es una fusión única de personaje virtual, vlog y parodia de comedia, con algunos consejos y trucos de Unreal Engine incluidos en buena medida.

Además de Bebylon, ¿cuáles fueron algunos de tus primeros proyectos en Unreal Engine?

Mi primer proyecto de gráficos en movimiento con Unreal fue en 2017, cuando produje algunas animaciones para la promoción de Hulu de la serie de televisión The Handmaid’s Tale.

Hulu tuvo una campaña en la que el icónico vestido rojo estaba ardiendo y ardiendo, y esa era la tarea de los efectos visuales. Normalmente solo haría la simulación del modelo y la tela en Autodesk Maya y la renderizaría, pero en cambio, hice una simulación de la tela con Marvelous Designer y la exporté en formato Alambique. Luego lo importé a Unreal Engine, donde hice todo el texturizado, la iluminación y el renderizado, luego exporté la animación a After Effects para agregar el efecto de grabación.

El gran beneficio, obviamente, fue un renderizado más rápido. Si lo hubiera hecho de otra manera, Hulu habría obtenido una toma de 2K, porque eso es todo lo que estaba dentro del presupuesto. Pero con Unreal Engine, pude darles muchas variaciones, y pude darles renderizados 4K, e incluso renderizados 6K y cerca de 8K para que pudieran recortar para tomas adicionales.

Las animaciones terminaron en videos promocionales del programa y algunas de las imágenes terminaron en vallas publicitarias. La diversión realmente comenzó a llegar con algunos de los últimos que hice para Hulu. Hicieron una gran campaña de Juego de Tronos con el mapa y pancartas para todas las casas. Estaban buscando imágenes fijas o animaciones mínimas.

Debido a que lo hice todo en Unreal, pude obtener activos de Marketplace para nieve y hielo, e hice un vuelo completo de todas las pancartas con simulaciones de tela. Lo hice súper rápido y pude darles estas animaciones masivas, todo tipo de sobrevuelos con VFX y profundidad de campo completa.

Una de las últimas cosas que hice para Hulu fueron algunos cinemagraphs para The Handmaid’s Tale, donde el personaje principal tiene estas enormes alas de tela, y la animación final se mostró en vallas publicitarias en Times Square. Modelé las alas en Autodesk Maya y luego las traje a Unreal Engine e hice una simulación de tela allí.

Me sorprendió lo rápido que funcionó la simulación, porque esas alas eran bastante densas. Unreal lo manejó increíblemente bien.

Cuáles fueron algunos de tus primeros proyectos en Unreal Engine
Cuáles fueron algunos de tus primeros proyectos en Unreal Engine -Guía de la animación en tiempo real

Y luego vinieron Bebylon y Xanadu

De hecho, ya estaba trabajando en Bebylon cuando hice el trabajo de gráficos en movimiento para Hulu. Los gráficos en movimiento fueron algo divertido de hacer, pero mi enfoque real en ese momento era la realidad virtual. Mis habilidades con Unreal evolucionaron a través de esos primeros proyectos de realidad virtual, y luego Bebylon en sí fue una gran experiencia de aprendizaje para trabajar con personajes y capturar el rendimiento en Unreal Engine. Y todo esto condujo directamente a Xanadu.

Esperaríamos ver una serie como Xanadu saliendo de un estudio o un pequeño equipo, no de un solo individuo. Eso solo es bastante sorprendente.

No creo que Xanadu sea posible sin Unreal Engine, no al nivel de calidad que busco y haciéndolo todo yo mismo.

El ecosistema alrededor de Unreal es un gran componente de lo que hace posible Xanadu, porque no puedo modelar todo en los plazos que me he fijado. El Unreal Marketplace es un gran activo para esa parte del proceso. ¿Necesitas una nueva escena en el desierto? Boom, descarga una escena del desierto, ya iluminada, lista para funcionar. Introduces a tu personaje y tienes tu escena.

Hay una escena tropical en un episodio de Xanadu, donde Blu visita a los dinosaurios. Si abriera ese enorme entorno en una aplicación DCC… ni siquiera estoy seguro de poder abrirlo allí. ¿Y luego si tuviera que encenderlo y luego renderizarlo? De ninguna manera. Entonces, más allá del renderizado en tiempo real, es increíble que con Unreal Engine, tengas acceso a estos escenarios y mundos en los que puedes colocar a tu personaje.

Y esa es otra gran ventaja del tiempo real: con lo rápido que son las cosas, todo lo que tengo que hacer es cambiarlo y luego cambia en todo, y luego presiono Reproducir, y ahora está allí.

Y luego vinieron Bebylon y Xanadu
Y luego vinieron Bebylon y Xanadu – Guía de la animación en tiempo real

¿Cuánto tiempo tarda Xanadu en renderizar por cuadro cuando finalmente vas a la final?

Cuatro o cinco fotogramas por segundo. Es bastante rápido. Definitivamente podría subir mucho más. Todavía estoy usando el antialiasing de la vieja escuela, que me impide obtener la máxima calidad de los renderizados. Pero me gusta lo rápido que se renderiza, y estoy bien con la calidad. Obviamente quiero más, pero tengo que elegir mis batallas.

¿Cómo es tu hardware?

Mi PC es una Falcon Northwest Talon, con una NVIDIA 3090 RTX para la tarjeta gráfica. Esa tarjeta es absolutamente esencial para lo que estoy haciendo, debido a la memoria de la tarjeta, 24 GB de RAM. Con los mundos que estoy construyendo, todos los mapas de textura, todos tienen que caber en la memoria de la GPU, por lo que los 24 GB son esenciales. Si está haciendo cosas serias en Unreal con grandes entornos fotorrealistas, definitivamente necesita esa tarjeta como mínimo.

Tengo un traje Xsens para capturar el movimiento del cuerpo, y para la captura facial solo uso un iPhone y transmito la captura a Unreal con la aplicación Live Link Face. Empecé con el iPhone conectado a un casco de paintball que era extremadamente incómodo, pero luego opté por un casco mejor. Era caro, pero valió la pena por la cantidad de tiempo que pasé usándolo.

¿Qué le dirías a alguien que quiere crear algo como Xanadu?

Hay muchas cosas que puede hacer para comenzar de forma gratuita, o muy barata, así que siga esa ruta. No tienes que comprar un traje Xsens para hacer cosas. Puedes tomar un personaje gratis del Marketplace o crear un MetaHuman. Luego toma una animación de Mixamo para el cuerpo de tu personaje. Si tiene un iPhone, puede hacer una captura facial con solo colocarlo en su escritorio. Ahora tiene animación de cara y cuerpo, y puede armar algunos pequeños sketches o historias.

Una vez que esté listo para invertir en un traje mocap, tiene algunas opciones. Obviamente, hay trajes Rokoko y trajes Perception Neuron e incluso ahora hay sitios web donde puedes simplemente grabar un video de cámara web, subirlo y te enviará un archivo FBX del mocap. La calidad probablemente no será tan buena, pero es suficiente para ponerte en marcha, para que empieces.

Qué le dirías a alguien que quiere crear algo como Xanadu
Qué le dirías a alguien que quiere crear algo como Xanadu – Guía de la animación en tiempo real

Marco de canalización de Unreal Engine

Con un flujo de trabajo en tiempo real, el proceso de producción de animación se parece más a un rodaje cinematográfico con actores en vivo. En una filmación en vivo, el director ve el metraje mientras sucede y puede ordenar nuevas tomas en el lugar hasta que quede bien. El proceso con Unreal Engine es similar, pero con el beneficio adicional de ensayar a los actores en el plató mientras el Departamento de Arte sigue jugando con los colores y el DP se desplaza por el plató para probar nuevos ángulos.

En animación, los “actores” son incansables y siempre disponibles. Tus personajes harán toma tras toma todo el día, todos los días, sin descanso. Puedes “fotografiarlas” con o sin entorno, con variaciones de iluminación y ángulos de cámara, con infinitas combinaciones de vestuario y utilería. Y mientras dispara, puede revisarlo y ver si funciona en tiempo real. Y a diferencia de una filmación con actores en vivo, puede volver a una toma varios días después para encontrar su set tal como lo dejó y sus actores aún listos para actuar, y puede probar algo nuevo.

Con un flujo de trabajo en tiempo real, en lugar de que un departamento trabaje en un paso y se lo entregue al siguiente equipo, los equipos pueden trabajar en paralelo, creando un nuevo paradigma para llevar un proyecto al final. En lugar de que cada departamento finalice su contribución y la transmita, y tal vez nunca la vuelva a ver, el proyecto completo se crea primero como un borrador y luego se pule una y otra vez por todos los departamentos hasta que esté terminado. Trabajar de esta manera le da a cada departamento una visión completa del proyecto mientras está en desarrollo para que puedan contribuir de manera más efectiva al conjunto.

En un flujo de trabajo tradicional, la colaboración en tiempo real entre departamentos es la excepción y no la regla. Supongamos que en una tubería tradicional, el encendedor, por ejemplo, recibe una toma animada y la iluminación no funciona del todo con la acción. Podría enviar la toma al animador con notas, lo que provocaría un retraso en el trabajo en curso. O puede tratar de hacer que la iluminación funcione de alguna manera, lo que probablemente dará un resultado menos que el mejor. Ninguno de estos escenarios es ideal.

En una tubería en tiempo real donde la iluminación comienza por adelantado, un animador finalmente puede crear su toma en contexto para garantizar un mejor rendimiento. Por ejemplo, si la acción está impulsada por una iluminación sombría y malhumorada, o si necesitan ajustar una pose porque una sombra oscurece una expresión crítica, tanto el animador como el iluminador pueden estar juntos en la toma, haciendo ajustes hasta que la toma funcione. Y dado que las videoconferencias ahora son un lugar común entre la fuerza laboral distribuida actual, la colaboración y la comunicación pueden tener lugar independientemente de dónde se encuentren físicamente los artistas.

En resumen, la mayoría de los trabajos y departamentos necesarios en una canalización de animación tradicional todavía se necesitan para un flujo de trabajo en tiempo real, y también algunos nuevos. Pero el cambio más significativo es el momento de sus actividades, con una gran superposición entre los pasos que solían ser secuenciales.

Pasos de canalización en tiempo real versus tradicionales

El uso de una canalización en tiempo real no solo significa agregar representación en tiempo real a su canalización lineal existente, significa un cambio en la forma de pensar sobre la canalización como un todo. Todos los pasos de una tubería tradicional están ahí, pero ahora se realizan como tareas apiladas o circulares, donde cada departamento itera durante la producción, de principio a fin.

Consideremos algunos pasos de canalización familiares y veamos cómo estos pasos se traducen en un flujo de trabajo en tiempo real.

Representación en el render

Una diferencia importante entre las canalizaciones en tiempo real y las tradicionales son los tiempos de renderizado. Debido a que la renderización puede ocurrir en tan solo una fracción de segundo en una canalización en tiempo real, se elimina la larga espera entre presionar el botón Renderizar y ver los resultados. Ahora puede beneficiarse de ver los renders finales desde la fase de desarrollo de la historia de su producción, no solo al final.

Si bien el renderizado en tiempo real es la base de una canalización en tiempo real, no es el único aspecto de la producción afectado por dicho flujo de trabajo. Al reducir el costo de renderizado, interrumpe de manera efectiva toda la canalización lineal y permite una iteración significativa en el diseño, el bloqueo, la iluminación, la animación, la composición, la ubicación de la cámara y otros aspectos de la producción.

Desarrollo y programación de canalizaciones

Al igual que con un flujo de trabajo tradicional, debe invertir en su canalización para garantizar una navegación fluida a través del proyecto o, al menos, un viaje no demasiado agitado. La arquitectura de código abierto de Unreal Engine se diseñó para brindarle la flexibilidad de construir su canalización sobre su canalización en tiempo real e integrarla en ella.

Al igual que con todas las canalizaciones, seguirá creciendo y cambiando a medida que cada departamento comprenda la canalización y lo que puede obtener de ella.

El equipo de Pipeline ayudará a determinar cómo fluirán las tomas entre los departamentos y trabajará con los productores para definir cómo se rastrearán y revisarán los activos y las tomas. Para ayudar con la gestión de producción, puede encontrar complementos integrados para herramientas estándar de la industria como ShotGrid, que lo ayuda a programar, rastrear y revisar proyectos.

Los flujos de trabajo paralelos que resultan de una tubería en tiempo real conducen naturalmente a un proceso de programación que es muy diferente del enfoque tradicional. Los equipos que utilizan una canalización en tiempo real están repensando todo el proceso de programación y revisión, y se están volviendo más flexibles y ágiles. Pero en el proceso de acomodar tareas superpuestas de diferentes departamentos, el cronograma aún debe tener en cuenta los hitos familiares tanto para los clientes como para los artistas.

Desarrollo y programación de canalizaciones
Desarrollo y programación de canalizaciones – Guía de la animación en tiempo real

Por ejemplo, DNEG Animation, el equipo detrás del cortometraje de Willam Joyce Mr. Spam Gets a New Hat, se encontró con un problema imprevisto con su tubería en tiempo real: sus animadores, que no estaban acostumbrados al proceso de revisión en tiempo real, estaban confundidos e incluso molestos. por la falta de aprobación definitiva de su trabajo. En respuesta, DNEG reinventó su proceso de aprobación y retroalimentación y programa solo para el equipo de animación, lo que ayudó a los animadores a familiarizarse con esta nueva forma de trabajar: pudieron disfrutar de los beneficios de la iteración y la retroalimentación rápidas, pero sin el estrés de preguntarse si se les iba a pedir continuamente cambios.

El miembro del equipo a cargo de la programación suele ser el primero en comprender realmente cómo un flujo de trabajo en tiempo real afecta a casi todos los aspectos de la canalización, y deberá trabajar en estrecha colaboración con cada departamento para asegurarse de que estén a bordo con este nuevo tipo de calendario.

Debido a que todos colaboran en su proyecto simultáneamente, es fundamental asegurarse de que todos los archivos y versiones se administren correctamente. El control de fuente siempre ha sido esencial para el desarrollo de juegos, pero a menudo no es familiar para los estudios de animación. Recomendamos encarecidamente que los estudios adopten uno de los muchos productos de control de versiones y fuentes que se integran con Unreal Engine, como Perforce y Subversion (SVN), en su canalización.

Guiones gráficos y arte conceptual

En una canalización tradicional, el guión gráfico y el arte conceptual son procesos 2D que utilizan herramientas que van desde notas adhesivas y pinturas físicas hasta software como Toon Boom y Adobe Photoshop. Si bien estas herramientas y procesos tradicionales pueden ser poderosos y expresivos, existe una brecha inevitable entre la representación 2D inicial y cómo se traducirá cuando se recree en 3D.

Con una tubería en tiempo real, los estudios están aumentando estos flujos de trabajo tradicionales mediante la fusión de herramientas 2D con Unreal Engine, lo que está creando una visualización más impactante y oportunidades para la creatividad y la iteración en las primeras etapas del desarrollo de la historia.

Un enfoque, por ejemplo, es fusionar personajes dibujados con un pase de diseño 3D aproximado para entornos, todo en Unreal Engine. Con este enfoque, los fondos se pueden modificar rápidamente con Quixel Megascans y recursos de Unreal Engine Marketplace. Con esta versión básica del mundo 3D ensamblada, el director obtiene una idea real de los espacios y entornos con los que tiene que trabajar, y tiene la libertad de experimentar con los ángulos de la cámara, agregar nuevos elementos ambientales y considerar la composición.

Luego, los artistas de Story pueden usar el complemento EPOS de Praxinos para combinar paneles de historias dibujados a mano de poses de personajes y acción directamente en el motor.

Diseño, desarrollo de apariencia y visualización En una canalización tradicional, el diseño, el desarrollo de apariencia y la visualización ocurren por separado. Los equipos pueden compartir activos, pero cada uno sigue su propio camino hacia la finalización. Además, los activos y la animación, desarrollados con una gran cantidad de tiempo y esfuerzo, se utilizan solo como referencia visual y, de lo contrario, se descartan.

Con un flujo de trabajo en tiempo real, los tres pasos pueden ocurrir en paralelo en el motor, sin desperdicio. El diseño puede comenzar con activos en bruto para darle al director un mundo para explorar y al resto del equipo un espacio para trabajar. Mientras que el diseño de escenarios, la iluminación y la animación agregan y refinan sus propios elementos, el diseño reemplaza los activos a medida que se desarrollan, lo que finalmente da como resultado un mundo completamente realizado. En esencia, el diseño comienza cuando el proyecto comienza y finaliza cuando el proyecto está casi completo y facilita un flujo de trabajo paralelo para casi todos los departamentos.

Al desarrollar el aspecto del contenido animado, es importante poder probar diferentes materiales, iluminación y filtros hasta que los detalles se vean bien. Jugar con colores y texturas, probar complementos, probar configuraciones de cabello/pelaje, generación de follaje y sistemas de partículas: todo es parte del proceso.

Cuando miras el desarrollo con el Editor de materiales, las luces y otras herramientas integrales de Unreal Engine, todos los pasos que usaste para obtener la apariencia pueden fluir sin problemas a la versión preliminar y producción, donde la apariencia se puede aplicar automáticamente a todas las secuencias aplicables.

En lugar de un proceso previo típico en el que todo el trabajo duro se descartó a medida que avanzaba hacia la producción, este nuevo flujo de trabajo de visualización en Unreal Engine significa que las producciones pueden continuar construyendo, actualizando e iterando. Las escenas pueden pasar sin problemas a etapas posteriores como el diseño, la animación y la iluminación, y los activos y las actuaciones se actualizan a medida que se completan.

Trabajar de esta manera también brinda a los equipos de iluminación, superficies y VFX la oportunidad de brindar comentarios sobre qué tan bien están funcionando los activos, que el equipo de activos puede incorporar luego en la siguiente ronda de refinamiento de los activos. El resultado final son activos finales que están en perfecta armonía con estos otros aspectos de la producción.

Guiones gráficos y arte conceptual
Guiones gráficos y arte conceptual – Guía de la animación en tiempo real

Entrevista en DNEG

Taylor Moll tiene más de una década de experiencia en animación, trabajando en proyectos como Ron’s Gone Wrong, Happy Feet y Kung Fu Panda 2. Shelley Smith ha trabajado en varios proyectos como Tales from the Radiator Springs, una miniserie que presenta los famosos Cars de Pixar. personajes, hasta la primera incursión de DNEG en la animación en tiempo real. Mr. Spam Gets a New Hat es un cortometraje escrito y dirigido por William Joyce, el mismo artista que nos trajo el corto ganador del Premio de la Academia The Fantastic Flying Books of Mr. Morris Lessmore. DNEG colaboró ​​con Joyce para producir Mr. Spam como su primer proyecto de Unreal Engine.

¿Cuáles son algunos de los mayores desafíos de usar una canalización en tiempo real?

Taylor: Averiguar cómo administrar departamentos recientemente superpuestos y cómo funciona eso con un cronograma. Una vez que lo hicimos, todos estaban juntos en escena tomando decisiones; en realidad nos volvimos bastante inteligentes al final. También estábamos mucho más informados. Sabíamos qué preguntas hacerle al director mucho antes en el proceso.

Shelley: El tiempo real realmente cambia toda la dinámica. Editorial tuvo que trabajar mucho más de cerca con Layout y Animation a diario. Por lo general, Editorial recibe todo al final, pero tenían que estar allí para saber qué iban a recibir porque las cosas a veces podían cambiar cada hora en cada revisión. El impacto de todo es tan inmediato que todo el mundo tiene que estar siempre informado; ya no es una tubería de no intervención, todos estamos juntos en el mismo equipo ahora. Pero esa inmediatez, especialmente en torno a los cambios, fue excelente porque pudimos hacer que las cosas avanzaran mucho más rápido y los aspectos de colaboración fueron realmente emocionantes.

¿Cómo ayudaste a Editorial a adaptarse al nuevo flujo de trabajo?

Taylor: Una de las cosas en las que estamos trabajando es una interfaz EDL [lista de decisiones de edición] y un flujo de trabajo dentro y fuera de Unreal Engine. Eso será enorme en el futuro porque queremos que Editorial pueda trabajar sin problemas junto con Layout. Cambiar el orden de las tomas, cortar tomas, agregar tomas a mitad de camino, estas son típicamente decisiones editoriales. Debido a la naturaleza del trabajo en el paquete, muchas actualizaciones de tomas ocurren dentro de Layout ahora, por lo que cuando Layout hace un ajuste o una alternativa, esto debe enviarse a su editor para controlar el corte final. Edit y Layout tienen que estar en las mismas discusiones. Y cuando el proceso ya no es lineal, necesita herramientas para acomodar toda la colaboración y la retroalimentación. Así que estamos escribiendo algunas de esas herramientas ahora.

Entrevista en DNEG
Entrevista en DNEG – Guía de la animación en tiempo real

¿Cómo cambió el nuevo flujo de trabajo su proceso de aprobación con el director?

Taylor: «¿Qué mostramos y cuándo?» fue un tema constante para Shelley y para mí, porque si bien todos pueden estar en la revisión, no todos los equipos siempre están en el mismo lugar en su diseño. Por lo tanto, es posible que tenga una iluminación inconsistente en algunos lugares, porque no está hecho, y, sin embargo, su animación y cámara final están ahí.

Así que ese es el enigma. ¿Se va a confundir el director de que cada toma esté iluminada de manera diferente? A veces, teníamos que hacer una advertencia sobre una toma que podría distraer demasiado y, a veces, mostrábamos las mismas tomas con dos contextos diferentes y le pedíamos al director que hablara solo sobre la cámara o la relación emergente entre un personaje y el entorno.

Shelley: Esto probablemente depende del director, su familiaridad con la tecnología y su capacidad para brindar contexto a lo que van a ver, pero la animación fue el lugar donde notamos la mayor cantidad de distracciones. No estaba seguro de en qué debería centrarse. Lo solucionamos sacando esa parte de Autodesk Maya para su revisión y volviéndola a poner en Unreal cuando llegamos a las revisiones de iluminación.

¿Cómo se adaptaron los artistas al proceso de revisión?

Shelley: La capacidad de estar siempre cambiando cosas, o hacerlo juntos, puede ser un poco confuso para algunos, por lo que aún teníamos que marcar hitos sobre cuándo se hacen las cosas y cuándo se aprueban.

Taylor: Lo único que se hizo evidente para nosotros es la importancia de eso para un artista. Ese artista necesita saber cuándo ha terminado una tarea.

Shelley: El equipo de animación vino a nosotros en un momento y dijo: No sabemos dónde están nuestras tomas con el director. Eso fue un gran control de la realidad para nosotros. Podríamos estar diciendo que está listo para la iluminación, pero para los animadores, eso no significa que esté listo. Y eso los hace inseguros acerca de si todo va a regresar para rehacerlo. Necesitan esos hitos para que no sientan que se avecina un pánico masivo.

Taylor: Ese fue nuestro error, no reconocer eso en los equipos, por lo que Shelley y Dave Lowry, nuestro director de animación, simplemente se abalanzaron y dijeron: Ok, haremos que Bill compre la ubicación y la puesta en escena. Cualquier cosa que regrese en este punto debería ser una expresión. Si eso sucede, lo clasificaríamos como una rehacer.

Esto realmente habló con los animadores y marcó una gran diferencia en la moral. Necesitas esas pequeñas victorias, esas cosas que puedes marcar. No puedes simplemente esperar a que el proyecto esté terminado.

Cómo se adaptaron los artistas al proceso de revisión
Cómo se adaptaron los artistas al proceso de revisión – Guía de la animación en tiempo real

¿Qué aporta el renderizado en tiempo real al proceso de narración?

Shelley: Muchas cosas, pero una que se destaca es que puedes comenzar a buscar ubicaciones desde el principio con la cámara y el diseño, lo que te permite comenzar a informar la historia mucho antes. Por lo general, estás esposado en un momento determinado, pero con el tiempo real, Bill podría decir: ¿Sabes qué? Quiero este tipo de plano, y se lo enviábamos a Story y ellos dibujaban los tableros.

Taylor: Recibimos comentarios muy interesantes de los artistas de la historia. Algunos de ellos pensaron que este enfoque del guión gráfico era brillante y sorprendente; otros se sintieron encadenados y como si tuvieran que diseñar tableros para que coincidieran con una cámara. Querían la libertad de presentar sus ideas para la historia con la misma libertad que sentimos al explorar el área. Lo cual es justo y parte de lo que aprendes cuando trabajas en un nuevo proceso.

Shelley: Sin embargo, a un artista le encantó. Dijeron que sentían que tenían sus perímetros y que podían concentrarse en hacer que la actuación funcionara con las tablas. En última instancia, Unreal Engine es una herramienta muy útil si desea usarla. Entonces, si bien es posible que no todos necesiten usarlo, ciertamente abre procesos que nunca antes estaban disponibles.

Entonces, si puedes seguir y seguir con tus ediciones, ¿cómo decides cuándo parar?

Taylor: Unreal es una zona libre de fronteras. Puedes hacer casi cualquier cosa en él si quisieras. Pero en algún momento, tienes que trazar la línea. Entonces eso se convirtió en un desafío de, ¿cómo definimos eso en una aplicación que desafía eso? En una canalización tradicional, diría: Ese activo se ve genial. Pongámoslo frente al director. O puede hacerlo con la iluminación de una secuencia en particular. Pero con todo en Unreal, le estamos mostrando al director varias cosas simultáneamente.

Fue un cambio de paradigma. No estamos mostrando un activo o la secuencia de iluminación, estamos mostrando la secuencia. No estamos mostrando tomas clave, estamos mostrando la animación con la iluminación y la nueva cámara.

Nuestro director dijo que es asombroso lo rápido que te acostumbras a las cosas nuevas y quieres más. Llegamos a un punto en el que quería ver todas las tomas alrededor de la toma y tuvimos que decirle: No tenemos eso en este momento; sólo queríamos que firmaras esta única cosa. Pero ahora quiere ver la secuencia completa para ver cómo se desarrolla.

Te acostumbras a este arte oscuro, esta magia negra, solo funciona. En última instancia, tuvimos que cambiar las expectativas de cuál sería el próximo conjunto de revisiones. El proceso orgánico ni siquiera comienza a describir lo que Unreal Engine le hace a su cerebro.

Entonces, ¿cómo pueden saber los estudios si Unreal Engine es adecuado para ellos?

Taylor: Cuando comenzó este proyecto, llegué a los motores de juegos como un escéptico. Hace mucho tiempo que trabajé en una compañía de videojuegos y pensé: «Esto no me gusta, nunca lo volveré a hacer». Mi supervisor de CG, por otro lado, pensó que sería genial. Y al final, lo fue. En este punto, soy muy profesional en tiempo real, siempre y cuando lo estés usando para una necesidad real. No lo hagas porque es lo nuevo y genial. Tienes que invertir en esto y subirte a bordo. Se necesita tiempo, personal y capacitación para entenderlo. Es un cambio de paradigma, pero si puedes hacer eso, vale la pena.

Entrevista a Chromosphere Studio

Theresa Latzko es una experta técnica que ayuda a Chromosphere a crear looks estilizados en tiempo real y resolver problemas difíciles para los proyectos técnicamente más desafiantes del estudio. Esto ha incluido tiempo en el programa de Netflix City of Ghosts, Sonaria en VR de Google Spotlight y June de Lyft. Andrew Wilson es un generalista en 3D que se destaca en la creación de activos, texturizado, iluminación y composición para producciones comerciales y de televisión.

Chromosphere ha utilizado tradicionalmente una gran cantidad de procesamiento posterior para lograr una apariencia estilizada.

¿Cómo convertir esos procesos a Unreal Engine?

Theresa: Empezamos con un poco de investigación. Obtuvimos un desglose bastante detallado de nuestro artista de composición que cubre sus pensamientos al entrar en una escena y cómo los diferentes efectos generalmente se aplican a diferentes partes de la imagen. Los desgloses algorítmicos siempre son lo más fácil de emular cuando trabajas con computadoras, así que intenté emular sus pasos en las herramientas que estaba creando.

Por ejemplo, el proceso de composición utiliza muchos de estos tipos de patrones retro, como rayas en la pantalla, que se aplican de manera diferente según la información de iluminación. Algo que está iluminado requiere un patrón diferente al de las sombras. Entonces, lo que terminé haciendo fue reconstruir parte de nuestro proceso de composición dentro de los materiales de posprocesamiento en Unreal Engine. También nos lo pasamos muy bien moviendo efectos al por mayor. Salpicaduras, partículas, simplemente funcionaron en Unreal, que no fue nuestra experiencia con otros motores en tiempo real. Terminamos haciendo todo en Niagara para estos proyectos. Ha sido muy flexible y muy divertido de aprender.

¿En qué se diferenció el desarrollo de la canalización Yuki 7?

Theresa: Realmente teníamos que descubrir qué funcionaba mejor en el motor y qué debería permanecer fuera de él. Parte de esto también es averiguar cómo van a funcionar las cosas. Por ejemplo, terminamos haciendo el diseño en Unreal Engine. Estábamos planeando esta gran persecución en bote, y desde el principio sentimos que sería bueno aprovechar una configuración conectada en la que pudiéramos disponerlo todo en Sequencer, algo así como un paseo en un parque temático que es todo en una sola pieza. .

Andrew: Es bastante diferente de una canalización tradicional, porque la iluminación y la composición se realizan en tiempo real; definitivamente es mucho más atractivo. No tiene que esperar a que se procesen los fotogramas, y tener comentarios instantáneos hace que sea más divertido trabajar con ellos. El único problema es que para que la composición funcione correctamente, debe crear las herramientas usted mismo. Pero el hecho de que pueda componerlo allí mismo en Unreal Engine encima de su iluminación lo ayuda a iterar rápidamente, definitivamente es útil.

Theresa: También ayuda con los comentarios, porque podríamos tener sesiones de revisión en las que el director de arte da instrucciones en tiempo real. «¿Puedes hacer esto un poco más brillante?» Y usted puede, y ellos pueden verlo y hacerle saber si funciona. A diferencia de «Me pondré en contacto contigo en una semana y veremos si te gusta».

Andrew: En otras canalizaciones, solo esperar los renderizados destruiría mi enfoque, porque tengo que hacer otra cosa mientras espero. Luego regresas y, a veces, no puedes recordar lo que estabas tratando de hacer en primer lugar. Theresa: Upside, no más interrupciones de renderizado. Desventaja, no más interrupciones de renderizado.

Andrew: Y en este punto, el proyecto se ha movido totalmente a 3D. En los dos primeros episodios, muchos de los fondos seguían siendo 2D, lo que significa que no puedes cambiar la cámara. Pero trabajar en Unreal Engine nos dio más libertad de composición para hacer cambios, incluso al final del proceso. Ya no es como un videojuego, donde si sales de los límites del mapa, las cosas comienzan a desmoronarse.

Theresa: Ahora podemos empujar las cosas bastante fácilmente. Solía ​​​​ser que si estaba renderizando una toma y el compositor la compensó, cambiar el ángulo de la cámara solo 10 grados sería imposible. Pero ahora, hemos terminado la iluminación, terminado los efectos, terminado todo. Y si quieres ajustar un poco la cámara, está bien.

Diferentes tipos de canalizaciones
Diferentes tipos de canalizaciones – Guía de la animación en tiempo real

Parte de este proyecto se ha centrado en la creación de herramientas

Theresa: Aquí hay un ejemplo: el trabajo del agua. Las superficies de agua que ves, especialmente en el tercer episodio, se basan en un solo sombreador. Decidimos desde el principio que no íbamos a intentar un movimiento complejo para la geometría del agua porque es un estilo de animación bastante simple. Sin embargo, el shader en sí terminó siendo bastante robusto y nos ayudó a tomar varios elementos que encontramos en la biblioteca de materiales y asignarlos a diferentes capas de profundidad del agua. Casi creó un efecto de partículas, y está sucediendo en un solo sombreador. Esa retroalimentación instantánea también fue muy útil. Por lo general, no entiendes eso, y fue muy satisfactorio ver todo desarrollarse frente a mí mientras cambiaba y ajustaba los parámetros. Se sentía como si estuviera creando arte en tiempo real.

En el lado de la instalación, tuvimos que encontrar una solución porque nuestras plataformas no estaban configuradas para tiempo real. Lo solucionamos convirtiendo diferentes deformadores en soluciones basadas en juntas. Algunos de ellos eran eficientes y otros no. Tuvimos un problema porque los ojos de nuestro personaje son como discos 2D, y en nuestro proceso anterior había un deformador especial que se aseguraba de que se ajustara a la forma del ojo. No había otra forma de recrear eso realmente sin simplemente manipularlo de manera completamente diferente. Simplemente tomamos la deformación, hicimos una unión para cada vértice y luego horneamos eso.

Andrew: Algún día, nos encantaría manipular por completo a nuestros personajes en Unreal, y es posible que una vez que Epic admita la adición de juntas y peso de pintura. Eso marcaría una gran diferencia porque esa es la mayor parte de nuestro aparejo.

Theresa: En términos del futuro, algo que personalmente me interesa es el tipo de forma modular de creación de activos. Realmente no tuvimos la oportunidad de hacer mucha investigación y desarrollo en esto, pero en este momento estamos construyendo este gran centro comercial y hay muchas oportunidades de ayudar con objetos como escaparates y quioscos, todos los cuales son similares pero ligeramente diferentes. Con Blueprints, tienes herramientas muy simples para automatizar este tipo de variaciones entre objetos, y creo que eso es bastante interesante. Podríamos explorar eso para futuros proyectos.

Cuando piensas en lo que es diferente ahora, ¿qué es lo que realmente te llama la atención?

Theresa: Ahora construimos lugares en lugar de tomas. Haces eso y te aseguras de que todo encaja, que todas las escalas tienen sentido. Luego encontramos los disparos dentro de eso. Ese es un enfoque bastante diferente de lo que estamos acostumbrados.

Es casi como si estuvieras creando esta unidad coherente que, en nuestro caso, tiene la forma de un centro comercial. Puedes ir y mirar las distintas partes de la misma, y ​​se ven como esperarías que se viera esa parte del centro comercial. En el pasado, diseñábamos el área del centro comercial sobre la que tratábamos de hacer la película, y luego teníamos un segundo escenario para un montón de historias de fondo destinadas a otra toma. Todo se presenta de una manera que se asemeja a la acción en vivo, como si estuvieras en el lugar.

Entrevista a Engine House con Natasha Price y Mike Richter

Engine House es un estudio de animación galardonado con sede en el Reino Unido: un equipo de directores y productores de animación con una visión compartida de contar historias significativas con estilo artístico. Habiendo trasladado su canal de producción a tiempo real, el equipo recibió una Epic MegaGrant en 2020 por su lista de proyectos de cine y televisión desarrollados en Unreal Engine.

Presentamos Engine House en nuestro blog por el trabajo del equipo en Wylder, un corto animado basado en el libro infantil del mismo nombre. Natasha «Tash» Price, la productora del equipo, llevó un diario de producción del trabajo de Engine House en Wylder para ofrecer información sobre su flujo de trabajo. Aquí hablamos con Tash y Mike Richter sobre Wylder y otros proyectos en tiempo real que Engine House ha asumido.

¿Ha realizado más proyectos en tiempo real desde Wylder?

Tash: Hemos trasladado casi todo nuestro trabajo a Unreal en el último año más o menos. Lo que hicimos con Wylder fue hacer que se viera diferente de muchas cosas que esperarías que salieran de un motor de juego. Fuimos por algo que tiene un aspecto bastante ilustrado.

También comenzamos un proyecto llamado Petropolis, un proyecto de metaverso con mascotas. Estamos haciendo el adelanto de 60 segundos para eso, mostrándote el mundo en el que puedes vivir y todas las cosas diferentes que puedes hacer.

Wylder condujo a parte de este trabajo, en cierto modo. En general, el cabello que representan los artistas en Unreal Engine es más realista, pero con Wylder optamos por un aspecto más ilustrado. Así que ahora estamos arrojando montones de pelaje esponjoso a gatos y perros para Petrópolis. Los dos proyectos tienen estilos completamente diferentes, en el sentido de que Wylder se ve en 3D, pero Petrópolis está hecho intencionalmente para que parezca plano y dibujado a mano, con un enfoque en la interactividad.

Entonces, ¿ahora también estás creando contenido interactivo?

Mike: Trabajar en proyectos de cine y animación significa que nos enfocamos primero en el arte y luego en la interactividad. Es novedoso poder hacer esto en un motor de juego donde el enfoque suele ser al revés; a los clientes les encanta que podamos concentrarnos en hacer que las cosas se vean increíbles y luego desarrollar la interactividad en torno a eso. Una compañía de juegos puede hacer que la interactividad sea realmente buena, pero luego no se ve bien. Es por eso que nos contactaron para trabajar en contenido interactivo: primero querían comenzar con personas que pudieran hacer la obra de arte.

En sentido contrario, hay un cliente para el que trabajamos de vez en cuando, haciendo tráileres para juegos de ordenador. Han desarrollado un juego, tienen una gran cantidad de activos y quieren que extraigamos activos de la construcción y hagamos cinemáticas.

Tash: Conocemos el motor. Sabemos lo que podemos hacer en él. Sabemos lo que podemos superar en el tiempo dado. Les decimos que opten por un flujo de trabajo en tiempo real porque es una mejor decisión. Conocer Unreal Engine y saber lo que es posible nos ayuda con un tiempo de respuesta realmente rápido, como seis semanas en algunos casos.

Mike: Parte de esto es que la canalización es realmente fácil de mezclar y combinar por proyecto. Por el momento, estamos haciendo un personaje por día, que podría ser simplemente encontrar algo en línea que podamos comprar que sea al menos un buen punto de partida, modificarlo, agregarle cosas, hacer que se vea bien. Luego haz el arreglo, arréglalo y entrégaselo a los animadores. ¿Cómo afecta el cronograma y el presupuesto el uso de una canalización en tiempo real?

Tash: Es mucho más eficiente y rápido. Pero puede tomar la decisión de si quiere usar Unreal para ahorrar dinero o para mejorarlo, porque hace ambas cosas.

En Wylder hubo mucho desarrollo visual, y le envié a Mike muchos pensamientos e ideas nuevas a la vez, cada una bastante diferente. Ese proceso fue tan rápido. Conseguimos dar la vuelta al proyecto rápidamente y quedamos muy satisfechos con su aspecto.

Fue más rápido y, por lo tanto, más barato, pero también logramos hacer mucho más con él. Seguíamos diciendo: «¿Te imaginas si tuviéramos que renderizar esto?» Probablemente hubiera sido imposible.

¿Cómo se dividen los roles de producción en su equipo?

Mike: De alguna manera, todos somos responsables de todo el asunto, a diferencia de, «Tal y tal están haciendo el modelado, y luego se va al aparejo, y luego se va a la luz». Realmente no pasa por ese proceso. Todo está sucediendo a la vez. De esa manera, es muy parecido al desarrollo de juegos.

Con la tubería en Unreal, hay mucho más trabajo inicial por hacer: buenas prácticas como asegurarse de que todo tenga el nombre y la escala correcta y que los materiales estén ahí, porque no se queda en Autodesk Maya o 3ds Max donde puede nombrarlo más tarde.

Es más como, esto se está exportando al motor ahora, y debe ser bueno. Recibíamos mensajes de error al importar a Unreal porque el modelo no estaba a escala o había vértices divididos, cosas que no importan cuando te quedas en 3ds Max o Autodesk Maya. Y hay una limitación en la cantidad de huesos que puedes desollar. Te hace realmente ordenar todo.

¿Qué lo inspiró a probar una canalización en tiempo real?

Mike: Ese tráiler cinematográfico de Fortnite que salió hace unos años con muchos efectos de nubes y monstruos de humo de Ryan Brucks. Fue completamente loco. Nos preguntamos, ¿cómo es eso en tiempo real? Solo tenemos que hacer eso. De vez en cuando, estaremos mirando algo y decimos: «¿Cómo es esto en tiempo real?» Simplemente entras y lo haces, y ya está.

¿Has estado usando Unreal Engine para otros tipos de proyectos?

Mike: Había un trabajo que consistía en estos grandes robots con ocho personajes principales, y el cliente quería cada uno en ocho poses diferentes, 64 imágenes. Si hubiera renderizado esto en una aplicación DCC, tendría 64 archivos, cada uno con su propia iteración. Entonces, si dijeran: «¿Podemos cambiar la iluminación?» hubiera sido una pesadilla.

En cambio, lo hicimos en Unreal Engine como una secuencia de 64 cuadros de largo. Cuando llegó el momento de renderizar, medio segundo después, estaba hecho.

Roles de contenido interactivo
Roles de contenido interactivo – Guía de la animación en tiempo real

Entrevista a un Sony Pictures Imageworks con Jeremy Sikorski, supervisor de activos

Los créditos de Jeremy Sikorski como CG y supervisor de activos incluyen Spider-Man: Far From Home; Hombres de Negro: Internacional; 13 de la suerte; La película Angry Birds 2; cigüeñas; Hotel Transilvania; y, por supuesto, In Vaulted Halls Entombed para la serie de Netflix Love, Death & Robots. Jeremy se especializa en la producción de recursos generados por computadora fotorrealistas, y nunca es más feliz que cuando puede engañar a un supervisor para que piense que es real.

En Vaulted Halls Entombed, un episodio de la serie de Netflix Love, Death & Robots, se centra en un escuadrón de soldados que encuentran más de lo que esperaban mientras se aventuran bajo tierra tras el rastro de terroristas fugitivos. También fue el punto de partida para la primera incursión de Sony Pictures Imageworks en la animación en tiempo real, un movimiento que los llevó a rehacer su tubería tradicional desde cero.

¿Cómo es la canalización tradicional de Sony Pictures Imageworks?

Nuestro trabajo abarca toda la gama, desde éxitos de taquilla de efectos visuales como Spider-Man: Far From Home y Jumanji hasta proyectos más estilizados como Spider-Man: Into the Spider-Verse. Debido a esto, tuvimos que construir una canalización realmente sólida que pueda respaldar estos dos tipos de proyectos en el mismo espacio, lo cual es realmente único para nuestra industria.

Lo que hemos construido puede ejecutar de cinco a 10 proyectos simultáneamente, con plazos que van desde proyectos de animación CG de tres años hasta proyectos de 100 tomas de seis meses para una película de efectos visuales. Así que es una máquina bien engrasada.

¿Qué provocó el salto a la animación en tiempo real?

Nos pidieron que enviáramos un corto para la nueva temporada de Love, Death & Robots, y decidimos usarlo como campo de pruebas para el renderizado en tiempo real y Unreal Engine. También queríamos hacer todo lo posible en el motor para realmente ponerlo a prueba y aprender todo lo que pudiéramos.

¿Cómo elegiste a tu tripulación?

Nuestro equipo se reunió en función del interés de las personas. Enviamos una encuesta a 900 artistas de SPI y dijimos: «¿Quién quiere trabajar en un proyecto en tiempo real?»

Es interesante cuando construyes equipos basados ​​en cuán apasionadas son las personas sobre un tema. Cuando las personas están genuinamente interesadas en la tecnología y el proceso, y aportan una gran cantidad de experiencia en efectos visuales de animación, puede cambiar totalmente el guión sobre cómo las entidades externas o incluso otros estudios dicen que debe hacer las cosas. Fue un grupo muy emocionante con el que trabajar.

Por mi parte, fui supervisor de activos y director de arte en In Vaulted Halls Entombed, por lo que supervisé el modelado, texturizado, sombreado, rigging y arreglo, y también proporcioné arte conceptual. Hacia el final, incluso salté como un trago más ligero.

El hecho de que una persona pueda hacer todo eso es un testimonio real de Unreal Engine y su conjunto de herramientas. En nuestra canalización tradicional, estamos divididos en departamentos y tenemos un proceso de transferencia muy estricto entre departamentos. Está muy reglamentado y es la razón por la que podemos trabajar en 10 funciones animadas generadas por ordenador con 900 artistas en un momento dado.

Pero lo emocionante de Unreal es que promueve la creatividad sobre la marcha impulsada por el artista. Con Unreal, una historia de alta fidelidad puede desarrollarse en cuestión de días o semanas. Estamos acostumbrados a esperar meses o años para ver nuestra primera imagen, por lo que este es un gran cambio en la forma en que se producirán películas, animaciones, comerciales, básicamente todo, en el futuro. Es muy emocionante, y puedes ver cuánto disfrutan los artistas del proceso.

Cuando ven que su historia se desarrolla frente a ellos tan rápido y aún tienen la capacidad de cambiar una cámara, cambiar una luz, cambiar un personaje, hacer todos estos pequeños ajustes, que normalmente deben enviarse a otro artista a través de un sistema de notas… es estimulante.

¿Cómo empezaste a incorporar Unreal Engine en tu pipeline?

Cuando comenzamos un nuevo proyecto cinematográfico, una función animada o contratamos a un nuevo equipo, en Sony hacemos algo llamado «ejecutar la canalización», en el que seleccionamos una sola toma o una secuencia de tomas, generalmente trabajo desechable, y seguimos paso a paso. -paso a través de cómo sería tocado por diferentes departamentos y artistas clave. Estuve a cargo de esto para In Vaulted Halls Entombed.

Este fue un gran período de descubrimiento para mí. Antes de este proyecto, tenía una comprensión básica de las diferencias entre la creación de activos para el renderizado en tiempo real y fuera de línea, pero llevar algo a la calidad final que buscábamos, esa es una experiencia muy diferente. A través de eso, aprende todos los pequeños detalles finos a los que debe prestar atención, dónde funcionan las cosas y dónde no.

Hubo partes de la canalización que permanecieron prácticamente sin cambios, como el modelado. Todavía usamos ZBrush, Mudbox y Autodesk Maya para construir nuestros modelos. Nuestro proceso de texturizado, que se basa en Substance Painter y Substance Designer, también fue muy consistente. Simplemente se convirtió en un proceso de descubrir cómo los metemos en el motor. Los grandes desafíos estaban en el aparejo. En Unreal Engine 4.25, que es lo que usamos para el proyecto, estábamos bastante limitados en la forma en que podíamos mover los equipos de un lado a otro.

Muchos de nosotros estamos esperando pacientemente y tratando de descubrir la mejor manera de animar en tiempo real. Vale la pena seguirlo porque abre una gran cantidad de oportunidades, como animar con inteligencia artificial o usar deformadores complicados con IA o en la GPU. Hay tantas vías interesantes para explorar que nos están ayudando a pensar de manera diferente sobre cómo creamos actuaciones.

¿Cómo manejaste la captura de movimiento?

En su nivel más básico, estamos haciendo mocap en el motor, enviándolo a Autodesk Maya y luego trayendo el caché de Alembic de regreso a Unreal.

Sin embargo, llegar allí fue interesante. Cuando comenzamos este proyecto, era abril de 2020, en medio de la pandemia, durante el confinamiento. Veíamos sesiones de captura de movimiento a través de Zoom, tratando de dirigir y obtener información para el número limitado de personas que estaban permitidas en el escenario.

La mayoría de las veces, no teníamos nuestras tomas completamente definidas antes de iniciar una sesión, pero sabíamos la acción general que debía tener lugar. Esta fue una gran oportunidad para experimentar con la captura de movimiento en tiempo real: puede capturar una animación a nivel de secuencia y luego contar su historia a través de las cámaras y lentes después del hecho. Capturamos mucha información de la lente mientras capturábamos el mocap. Limpiaríamos los resultados en Autodesk Maya y agregaríamos o cambiaríamos lo que necesitáramos, luego devolveríamos los datos de la plataforma FBX al motor.

El único desafío importante fueron las caras. Nuestras caras fueron capturadas usando DI4D, y construimos todo el sistema de plataforma alrededor de eso fuera de Unreal, y luego metimos cachés de Alembic para nuestras caras. Hubo una complicación al asegurarnos de que nuestros cuerpos, cabezas y escotes se alinearan, combinaran y permanecieran juntos, y definitivamente nos encontramos con una buena cantidad de problemas con eso. Pero en ese momento, esa era nuestra única forma de avanzar si queríamos alcanzar los niveles de calidad que buscábamos.

También probamos MetaHumans con tres personajes de fondo. Estos fueron animados con el mocap yendo directamente a la plataforma MetaHuman.

Sesiones de captura de movimiento en tiempo real más fluidas

Definitivamente, y mucho se reduce a tener más cámaras disponibles en un momento dado. En nuestra tubería de animación tradicional, siempre estamos cambiando de cámara. Sin embargo, cuando hace esto tarde en la producción, esos cambios tienen un costo.

No ocurre lo mismo con el mocap en tiempo real. Cuando tienes una plétora de cámaras filmando la acción desde una variedad de ángulos a medida que se desarrolla la secuencia, obtienes esos felices accidentes. También tienes la libertad de ir al rodaje con un guión, una lista de tomas y una idea general de lo que quieres y ver qué sucede. A veces, lo que no tenía la intención de que sucediera funciona mucho mejor de lo que originalmente pretendía. Con tiempo real, puede tomar esas decisiones sobre la marcha de una manera que no se puede replicar con los conjuntos de herramientas tradicionales.

Lo más importante para nosotros es hacer avanzar ese proceso de toma de decisiones más rápido tanto como sea posible, para que podamos crear una mejor historia. Unreal Engine nos permite visualizar nuestras ideas de una forma más completa: es realmente difícil obtener una imagen general de su historia cuando está mirando renderizados grises arruinados, con cosas que aparecen y no se ven bien.

El poder de una renderización en tiempo real es que tiene la capacidad de crear, diseñar y ver esa historia de una manera nueva desde el principio, para que pueda iterar y tomar mejores decisiones y, en última instancia, crear mejores películas antes.

¿Cómo se aplicó Unreal Engine a esa parte del proceso?

Fui personalmente responsable de crear nuestros sombreadores primarios maestros y de definir toda la configuración para In Vaulted Halls Entombed, y creo que entre otro pintor de texturas y yo, teníamos todo cubierto, lo cual es una locura. Eso es inaudito. Y eso es solo un testimonio del tipo de velocidad con la que puede trabajar y obtener comentarios sobre todo.

Nuestro pintor de texturas, Jessie, estaba texturizando todos los atuendos y la ropa de nuestros personajes y algunos de los accesorios, y luego los tomaba y los llevaba directamente al motor. Ninguno de nosotros tenía mucha experiencia con Unreal Engine, así que este fue un gran proceso de aprendizaje para ambos.

Si sacrificábamos algunos fotogramas por segundo durante el proceso, no nos importaba porque estábamos procesando los píxeles finales al final del día. Desea asegurarse de que está trabajando lo más rápido posible, pero cuando activamos todos nuestros sombreados complejos, perfiles SSS y múltiples capas de sombreadores, siempre que estuviéramos satisfechos con lo que estábamos viendo visualmente, la reproducción la velocidad no importaba.

Definitivamente tuvimos tomas en las que no pudimos alcanzar los 24 cuadros por segundo. Así que también hubo un poco de trabajo hacia atrás: encontrar las áreas problemáticas, poner algunas de esas características más robustas de los sombreadores y renderizar detrás de algunos interruptores y palancas. Configurar eso tomó un poco de tiempo debido a la curva de aprendizaje. Sin embargo, los resultados valieron la pena.

Sesiones de captura de movimiento en tiempo real más fluidas
Sesiones de captura de movimiento en tiempo real más fluidas – Guía de la animación en tiempo real

¿Cuántas personas había en su equipo?

Nuestro equipo de modelado estaba formado por dos artistas de personajes, dos artistas ambientales, un pintor de texturas y yo como artista de sombreado. Teníamos de cuatro a cinco encendedores que también ayudaron a crear Blueprints de personajes. Se requirió mucho trabajo de configuración, y a nuestros artistas de iluminación realmente les gustó trabajar con ese tipo de cosas, por lo que realmente se sumergieron y se pusieron al grano en algunos de los Blueprints. Nuestro equipo de efectos era de cuatro. Probablemente tengamos seis animadores en un momento dado.

Tuvimos un gran impulso al principio, pero nuestro equipo definitivamente comenzó a adelgazar lentamente a medida que llegamos al aspecto final. Después de que terminamos la mayor parte del trabajo de activos y la limpieza de la animación, fue un grupo muy pequeño el que se hizo cargo de la línea de meta. Y estábamos haciendo todo: ajustes de cámara, ajustes de iluminación, ajustes de posición de personajes.

El único departamento que creamos para este proyecto fue el que llamamos Shot Finaling. Esos artistas fueron responsables de ingerir nuestros cachés y el estado FBX de nuestra animación, ajustando nuestros novios a nuestros humanoides, compilando todos los datos finalizados, simulaciones de animación, simulaciones de efectos y todos nuestros cachés. Básicamente, se aseguraron de que todo funcionara. Hacia el final del proyecto, contratamos a cuatro o cinco personas para que vinieran y hicieran eso.

¿Qué opinas sobre el futuro de las canalizaciones en tiempo real?

El uso de Unreal Engine para In Vaulted Halls Entombed nos ha hecho repensar nuestra canalización a nivel micro y macro, y estamos seguros de que será una gran parte de donde sea que vayamos. No hay vuelta atrás.

En el futuro, se trata de descubrir cómo abrochamos los flujos de trabajo para asegurarnos de que sean sólidos como una roca. Nuestro canal tradicional fuera de línea lleva 25 años en desarrollo; definitivamente es sólido como una roca, pero no está aprovechando lo que está disponible ahora.

La tecnología, el hardware y el software se han movido muy rápidamente en los últimos 5 a 10 años, y todos deberían estar atentos a lo que está disponible. Es solo cuestión de tiempo antes de que nuestras GPU y computadoras puedan ofrecer una calidad de imagen súper alta y una velocidad de cuadros súper alta operando simultáneamente.

Por ahora, hay cosas dentro del espacio en tiempo real que podemos comenzar a adoptar: la interfaz, la creación y el diseño de las tomas, y la visualización preliminar de esas tomas: iluminación básica, materiales básicos. Ya es más de lo que podemos hacer en este momento en nuestra tubería tradicional normal, lo que significa que vale la pena aprovecharlo.

Al usar Unreal Engine como el eje central para todos los activos, animación, iluminación, cámaras y VFX, todos los miembros de su equipo, desde directores hasta supervisores y artistas, pueden ver cómo se une el proyecto a medida que se agrega o edita cada pieza. Tal flujo de trabajo mejora naturalmente la creatividad y la narración de su equipo, ya que los artistas pueden contribuir directamente al proceso en tiempo real.

Y debido a que cada escenario virtual se usa para todas las secuencias en ese entorno, cualquier cambio en el escenario o el personaje se propaga automáticamente a través de todas las tomas y aparece en la salida renderizada. Por el contrario, en un flujo de trabajo basado en tomas, se requiere una gran cantidad de esfuerzo para garantizar que todas las tomas de una secuencia se actualicen con los recursos y el posicionamiento más relevantes en una toma.

Efectos visuales

En una canalización tradicional, los efectos visuales 2D se agregan durante la compilación y los 3D después de la animación final, con cosas como destellos de lentes, salpicaduras de agua, polvo, fuego, humo, chispas, halos y otros efectos en capas en el proceso. Debido a que los efectos ocurren muy tarde, y el departamento de VFX a menudo está aislado de los pasos anteriores en la tubería, como director, a menudo tiene que esperar que su visión se ejecute y el estilo sea el correcto, pero es difícil saberlo con certeza hasta que llegue allí.

Y si un efecto no funciona debido a la forma en que se configuró un elemento en un paso anterior, solucionar el problema significa un costoso viaje de regreso a una parte anterior de la canalización. Con un flujo de trabajo en tiempo real, los efectos visuales se pueden crear directamente en el motor junto con las secuencias y las tomas, y los artistas de VFX pueden comenzar a probar los efectos desde el diseño.

Una vez que el DP establece los ángulos de la cámara para una secuencia, el equipo de VFX puede verificar, en tiempo real, si un efecto está funcionando y cómo se verá, y puede comunicarse con otros departamentos para modificar la escena para obtener la mejor representación.

Composición

En una tubería tradicional, un flujo de trabajo común es generar pases de renderizado, una serie de imágenes para cada fotograma que contiene valores de canal para ese fotograma.

Los pases de renderizado se usan comúnmente para controlar un aspecto visual particular de la escena, como la oscuridad de las sombras o el brillo de un reflejo, o para ayudar en la producción de efectos visuales al proporcionar señales de profundidad o información de transparencia. Una vez que se han realizado todos los cambios deseados, los pases se componen (capas) para crear la imagen final.

Una tubería en tiempo real realmente no tiene un equivalente para la composición, porque los problemas para los que se diseñó la composición ya están resueltos por la naturaleza del flujo de trabajo. Debido a que los efectos visuales se pueden integrar a la perfección en el motor junto con todos los demás elementos de la escena (recursos, iluminación, cámaras, etc.), hay poca o ninguna necesidad de crear pases de renderizado para el equipo de VFX para un proceso de ensamblaje tradicional.

En cuanto a los ajustes a la iluminación, los reflejos y otros aspectos de las imágenes que pueden necesitar atención, puede ver y modificar estos valores directamente dentro de Unreal Engine y usar las herramientas nativas de posprocesamiento y materiales para asegurarse de que estén bien antes de salir. a final

Todavía puede haber circunstancias en las que se desee la composición tradicional, si está entrando en una canalización en tiempo real y no desea reemplazar todos sus pasos tradicionales todavía, por ejemplo, o si tiene requisitos visuales especializados. Para estas situaciones, Movie Render Queue en Unreal Engine puede aislar pases de renderización y mates específicos para su etapa de composición.

Editorial

En una canalización tradicional, el departamento editorial edita las tomas terminadas en una historia. Pero debido a que la creación de tomas requiere tanto tiempo, el equipo de producción entrega solo lo que pide el guión gráfico y nada más, lo que significa que Editorial solo tiene una «toma» para elegir para cada toma.

En una tubería en tiempo real, es rápido y fácil para el equipo de producción entregar múltiples ángulos de cámara y tipos de tomas para Editorial, brindando al director y al editor una variedad de opciones para contar la historia. Además, mediante el uso de Sequencer, los artistas pueden trabajar en contexto y tener siempre una representación más cercana de la edición final en Engine al alcance de la mano.

Editorial
Editorial – Guía de la animación en tiempo real

Entrevista a Reel FX Animation con Rey Jarrell, Técnico de Producción Virtual

¡Rey Jarrell actúa como el operador de Unreal Engine para las necesidades de captura de movimiento y cámara virtual de Super Giant Robot Brothers! La experiencia de Rey en el teatro AR interactivo ahora los está ayudando a unir la visión por computadora, el movimiento y la codificación creativa en un flujo de trabajo continuo en tiempo real para producciones de animación.

¡Hermanos robot supergigantes! es una serie de comedia de acción en 3D en Netflix que sigue a dos hermanos robots que no solo luchan contra las hordas invasoras de Kaiju, sino que luchan contra su propia rivalidad entre hermanos en todo el camino. Es la primera serie de este tipo que se renderiza completamente en un motor de juego.

¿Cómo cree que cambia la dinámica del flujo de trabajo?

Lo hermoso es que atrae a más personas a una discusión compartida; todos colaboran y trabajan juntos en tiempo real, en lugar de esperar a que el proyecto llegue a su parte del proceso. Pero esto también es perjudicial para la forma tradicional de hacer las cosas, que es una canalización muy lineal. Ahora, es más como, si yo hago esto, tú puedes hacer eso, y luego tú puedes hacer esto. Tienes que trabajar y jugar juntos un poco más.

Por eso es importante tener una herramienta que funcione lo más rápido posible. Nuestro equipo itera rápidamente y es muy divertido, por lo que cuando tienes algo como Unreal Engine, rápidamente se convierte en otro miembro del equipo. Realmente nos ayuda a correr, lo cual es muy energizante.

Unreal también te recuerda que todos van a llegar a esto desde una dirección diferente. Nadie lo aprende en un salón de clases. Alguien podría haber querido siempre hacer una película. Otro podría haber estado realmente interesado en los juegos. Y cuando todos se reúnen, terminan mirando a través de la fogata y viendo que todos saben algo que usted no sabe, o están trabajando desde una perspectiva diferente, y eso suma.

También ayuda cuando enfrenta los desafíos, porque más perspectivas significan más ideas sobre cómo tomar lo que el motor hace bien y aplicarlo a sus problemas. A veces, verá personas que son realmente inteligentes con los shaders que están escribiendo, o que se salen de la composición con un material de posprocesamiento. Es divertido ver a la gente ser brillante y saber que eres parte de ese equipo. Es inspirador.

Hablaste de alegría. ¿Ve eso como una parte esencial del proceso?

¡Sí! Gran parte de lo divertido de este proceso es que pueden ser tan juguetones e inspirarse mutuamente con ¡Oh, pensé en esto! ¡Pensé en eso! Pero más allá de ser divertido, ayuda en muchos niveles. Un ejemplo es en términos de comunicación entre departamentos durante el proceso de exploración ambiental.

Muchas veces establecíamos un entorno en un volumen que acababa de modelarse, y Mark [Andrews, ¡director de Super Giant Robot Brothers!] caminaba con la cámara y averiguaba dónde debían ir las cosas. Mark solo diría, quiero este hongo de allí. Quiero que esto sea un poco más grande. Debido a cómo funciona Unreal Engine, puedo hacerlo de inmediato.

Tenemos este dicho de que tienes que ser un pulpo, porque todo está pasando por Unreal y todos los que necesitan algo cambiado en términos del set, que es como todo el rodaje, lo necesitan de esa caja. Y todo el mundo lo necesita ahora mismo. Los personajes tienen que estar en posición, la cámara tiene que estar en el punto correcto y el tamaño correcto… y ten en cuenta que algunos de estos personajes tienen más de 40 veces el tamaño de un ser humano de seis pies.

Así que tienes que resolverlo todo y hacer que todo fluya, lo cual es divertido para mí, porque tengo 25 hilos funcionando al mismo tiempo en mi cerebro. Y de esta manera todos llegan a ser productivos, lo cual es fantástico.

Teníamos escenas en las que los actores estaban improvisando en el escenario, y eso le daría a Mark una idea completamente diferente, y diría: Cambiemos esta ruta de vuelo. Y movería algo para que él pudiera obtenerlo de una manera diferente.

Ha habido mucha experimentación y tipo de invención allí mismo. Eso es mucho más difícil de hacer de manera tradicional, porque tienes que hacer una cosa a la vez y verificarla. Aquí, podemos jugar. Y tan pronto como lo hicimos funcionar, simplemente dijimos: Esto será todo ahora. Eso es enorme.

Puedes resolver las cosas allí, en lugar de tratar de resolverlas con anticipación y luego hacer que salga completamente mal una vez que llegues allí ese día. Cada episodio, agregamos más y más a nuestra caja de trucos. Para el décimo episodio, sentimos que podíamos hacer lo que quisiéramos.

¿Cuál es su configuración de mocap?

Usamos OptiTrack en el escenario porque necesitábamos personajes y accesorios de cuerpo completo, así como una cámara, todos juntos. Una vez que se terminó el mocap y solo estábamos filmando VCam, y todo lo que necesitábamos rastrear era la cámara, pasamos a una configuración más simple, un volumen VIVE con solo un disco.

¿Cómo entra en juego el scripting?

A medida que nuestro proceso comenzó a evolucionar, tomamos nota de todas las cosas que hacemos una y otra vez y decidimos crear una herramienta personalizada para que lo hiciera por nosotros. Por ejemplo, cada vez que quiero poner un personaje en una marioneta, necesito que sus caderas se muevan en un lugar específico muy rápido. Necesitamos una herramienta para eso, así que lo escribimos.

Las funciones de Unreal Engine, como los widgets de utilidad del editor y las secuencias de comandos personalizadas del editor, fueron muy útiles, incluso necesarias, para ayudarnos a desarrollar nuestros procesos con estas herramientas personalizadas. Uno que se usó mucho en el escenario fue la herramienta Magic Scaler, un widget que creé para conectar un actor a otro y hacer que el actor principal fuera más grande mientras se mantenía al actor secundario en la misma posición mundial. Eso fue genial para cuando tienes todo alineado y unido al títere en el lugar correcto, pero luego descubres que el títere necesita ser más grande.

También hice un Blueprint de escenario personalizado que tenía un modelo aproximado del piso del escenario mocap adjunto, que creció y se encogió con su padre. Eso fue realmente útil para alinear las cosas y determinar la escala correcta para cubrir el área que necesitábamos. También hemos desarrollado herramientas para automatizar la edición de secuencias, establecer un valor de Pista de dilatación del tiempo de nuevo en 1,0, etc.

Fue un desafío muy divertido desde la perspectiva de la programación pensar: Bien, ¿cómo hago esto de una manera lo suficientemente rápida como para poder hacerlo en el escenario, y ser inteligente y elegante al respecto desde la perspectiva de Blueprint? Pero también desde el punto de vista del flujo de trabajo, fue muy divertido ver al equipo evolucionar y comenzar a hablar el mismo idioma y trabajar con las mismas técnicas.

Como empezar a trabajar con scripting
Cómo empezar a trabajar con scripting – Guía de la animación en tiempo real

Entrevista a WildBrain Studios con Morgana Duque, VP de Producción

Morgana Duque es una productora con más de una década de experiencia en la industria del cine y la televisión, incluido el tiempo en proyectos como Slugterra; Especie en peligro; Mega Man: completamente cargado; y más recientemente como Productor en Go, Dog. Go!, que se convirtió en una de las 10 mejores series de Netflix en más de 45 países.

Los últimos proyectos de WildBrain incluyen la serie de televisión LEGO Friends e In the Night Garden. LEGO Friends sigue las aventuras cotidianas de cinco niñas en Heartlake City, mientras que In the Night Garden es una interpretación mágica de un libro ilustrado de canciones infantiles.

¿Cuál fue su primera incursión en una canalización de animación en tiempo real?

Era LEGO Friends, el segundo proyecto de WildBrain en un motor en tiempo real. Había algo de conocimiento de Unreal Engine en el estudio, pero en realidad ni siquiera habíamos entregado el primer episodio de ese primer proyecto todavía y comenzamos este segundo proyecto.

Era un buen tipo de espacio de transición donde sabíamos algunas cosas, pero no sabíamos todo. El proceso estaba cambiando de, ¿Cómo hacemos que esto funcione ahora mismo para la entrega? a pensar, ¿Cómo hacemos que esto funcione mejor, para un mejor proceso y un mejor resultado?

Háblame de tu día a día en este pipeline

Los primeros dos meses, mucho de eso es solo pensar en lo que puedes y no puedes hacer. ¡Hay momentos de mente volada! Vaya, ¿podemos hacer esto? o Oh, no podemos hacer esto? o No funciona de la misma manera que… En términos de tocar la tubería como productor, la mayor parte está en el espacio de revisión, cuando tenemos revisiones de modelado, revisiones de superficies, revisiones de iluminación y todo eso.

Es tener esa revisión en tiempo real y no tener todas las notas en ShotGrid porque algunas de las notas se abordaron mientras hablábamos de ellas. También está la educación orientada al cliente sobre lo que significa este oleoducto para ellos.

Como productor, me tocó a mí explicar que iban a recibir su pase de iluminación mucho antes de lo que están acostumbrados. ¿Y cómo se verá eso? ¿Y por qué es eso mejor?

¿Acogieron los clientes el nuevo tipo de proceso de revisión?

El cliente siempre quiere revisar la animación y asegurarse de que sea perfecta. Podemos iluminar mientras los animadores están animando, por lo que podemos hacer que revisen la animación junto con la iluminación, y todavía tenemos seis semanas para arreglarlo en lugar de solo una.

Al principio no entienden qué hay de nuevo. Así que digo, hablemos de eso otra vez. Es un cambio en tu cerebro. La educación es clave aquí: ver el viaje del cliente desde, no entiendo esto, hasta ¡Esto es increíble! No puedo esperar a verlo en el próximo proyecto. Es desaprender ciertos patrones y luego aceptar lo que los nuevos pueden hacer por ti.

LEGO estaba realmente entusiasmado con eso, por lo que fue una victoria de inmediato. Puedo ver que habrá otro año o año y medio de educar a la gente al respecto. Y solo vamos a mejorar.

Es emocionante porque se siente como si estuviera comenzando. Se siente como si todos estuvieran juntos en esto. Entonces, tener un cliente entusiasmado lo hace mucho más fácil.

Cuéntenos sobre su proceso de revisión interna con esta nueva canalización

Revisamos algunas formas diferentes de hacer las revisiones. Empezó como un juego de todos contra todos, pero luego empiezas a pensar en dólares. Supongamos que quisiéramos un cambio en un modelo. El modelador puede hacer el cambio en ese mismo momento durante la sesión de revisión, y todos quieren verlo.

Así que hay toda esta gente costosa, un director, un supervisor de CG, un supervisor de modelado, dos coordinadores, todos observando cómo se hace, en lugar de hacer una nota rápida para el modelador y seguir adelante. Se trata de priorizar qué arreglos hacer en vivo y cuáles no; algunos valen la pena, otros se pueden hacer más tarde.

Esa es una manera diferente de hacer las cosas. Ahora que podemos hacerlo todo al instante, todo el mundo tiene una idea. Pero eso es lo que es asombroso, también. Tienes personas que normalmente estarían calladas en las reuniones, y ahora están interviniendo y preguntando: ¿Qué pasaría si hiciéramos tal y tal cosa?

Me tomó un tiempo encontrar el ritmo adecuado. Tienes que caminar esa línea de querer que sea un esfuerzo de grupo, pero hay tiempo limitado. Y hay una jerarquía por una razón. Eventualmente, establecemos una regla de que solo permitiremos una cierta cantidad de tiempo para que cada cosa sea revisada. Y en algún momento, tienes que dar tus notas y tiene que ir a un artista, y lo verás mañana.

¿Cuáles son los tipos de problemas que ha podido manejar en las sesiones de revisión?

Lo primero que me viene a la mente son los cielos. Solíamos pasar meses, a veces más de seis meses, en cosas como cómo debería verse el cielo, cuántas nubes, dónde debería estar el sol. Le darías notas a Diseño, regresarían con algo, no sería del todo correcto, y lo enviaríamos de vuelta con más notas.

Cuando instalamos un cielo en Unreal, jugamos con él durante una hora, y ahí estaba. El sol se mueve y las nubes se mueven, y acabamos de ahorrar seis meses de idas y venidas con Design. Para la serie In the Night Garden de WildBrain, la vimos con aprobaciones en pequeñas cosas como la hierba y la corteza de los árboles. A veces, esas aprobaciones pueden llevar mucho tiempo, pero cuando puede modificarlas en ese mismo momento, las aprobaciones se hacen realmente rápido.

¿Cómo ha impactado la canalización en tiempo real la forma en que se comunica internamente?

Ahora la iluminación y la animación ocurren al mismo tiempo, por lo que nos vemos obligados a comunicarnos con mucha más frecuencia, lo cual es genial. Y los productores ayudan a impulsar esa comunicación. Entonces sí, hay más reuniones, más registros. Es algo en lo que todavía trabajamos. Mucho de esto sucedió durante COVID, trabajando de forma remota. Me encantaría ver un universo paralelo donde podríamos haber comenzado todos estos proyectos con personas sentadas una al lado de la otra y pudiendo caminar y simplemente hablar.

¿Cómo afecta esto a los artistas que trabajan en sus propios departamentos?

En una tubería tradicional, donde una cosa viene después de la siguiente, cada coordinador de producción y el supervisor pensarían que su departamento es el más importante. Eso es normal, y lo convierte en una producción de buena calidad. Porque es uno tras otro, tras otro: cada departamento tiene un momento para brillar y un momento para ser especialmente apreciado.

Pero ahora, con todos los departamentos apilados y todo sucediendo al mismo tiempo, escuchamos cosas como, Animación está haciendo esto, y Modelado está haciendo esto otro, y yo estoy sentado aquí en Rigging sin nada que hacer. ¡Por favor, preste atención a mí!

Y luego, entre el productor y el supervisor de CG, necesitamos manejar esto. Sólo necesitamos tener más conversaciones.

Tomará un tiempo, pero necesitamos deshacer nuestro proceso de pensamiento de una cosa a la vez.

¿Cómo ha afectado la programación la nueva tubería?

Una cosa obvia es que, en el pasado, siempre programábamos terminar la superficie antes de la producción de tomas. Ese siempre ha sido nuestro horario. Terminamos la superficie y luego comenzamos el diseño.

Entonces, llevar la iluminación hasta el diseño no debería ser un problema, ¿verdad? Pero luego, cuando vi eso, como productor, me acerqué a Robin [Robin Shea, vicepresidente de tecnología de producción en WildBrain] y le dije: ¿Cómo podemos terminar la superficie a tiempo para la iluminación? Respondió señalando nuestros viejos horarios con el acabado de la superficie antes del diseño. Resulta que solíamos impulsar la creación de superficies hasta después de la animación y justo antes de la iluminación para gestionar algunos retrasos en la producción de recursos.

Me di cuenta de que era una muleta que ya no necesitábamos. Ir a una canalización en tiempo real ha expuesto muchas ineficiencias. La nueva forma de trabajar está, de una forma muy refrescante, empujándonos a hacerlo mejor y no a conformarnos.

Para mí, esa es la gran nuez que hay que roer en este momento: cómo asegurarse de que los activos estén en buenas condiciones para la producción de perdigones, porque la producción de perdigones ahora ya no es una cosa tras otra.

¿Cuál es su opinión personal sobre trabajar con una canalización en tiempo real?

Me encanta resolver problemas y me encantan los desafíos, así que es emocionante. Debo admitir que hubo momentos en los que quise tirar todo por la borda y simplemente volver a la forma tradicional de hacer las cosas, pero luego hubo otro momento en el que todo valió la pena.

Una cosa que realmente nos gustaría mejorar es nuestra biblioteca de recursos. Muchos de los beneficios que veo en modelar y armar cosas en Unreal son tener una biblioteca y organizar las cosas. Pero hasta ahora, tener el tiempo para construir primero una biblioteca y luego construir el entorno, todavía no hemos llegado allí. Tengo muchas ganas de tener una biblioteca de activos completa y utilizarla en todo su potencial.

Y en cuanto a nuestra dirección, a veces ver todo junto te hace cambiar lo que quieres hacer. Es emocionante. Tengo muchas ganas de ver a dónde va a ir.

Trabajar sobre canalizaciones en tiempo real
Trabajar sobre canalizaciones en tiempo real – Guía de la animación en tiempo real

Entrevista a Sony Pictures Imageworks con Craig McPherson, supervisor de animación

Los créditos de Craig McPherson incluyen Thor: Love and Thunder; Jumanji: el siguiente nivel; Hombres de Negro: Internacional; Megalodón; y Al filo del mañana. Antes de unirse a SPI, también fue animador en District 9 y Happy Feet. Has trabajado en proyectos de juegos en el pasado, por lo que ya tenías algo de experiencia en tiempo real. ¿Hubo alguna sorpresa cuando comenzaste a aplicarlo a un contexto de animación?

Creo que realmente no entendí cuál iba a ser el flujo de trabajo cuando empezamos. Cuando trabajaba en juegos que incluían cinemáticas, todo el trabajo se hacía sin conexión, luego se compilaba en el motor del juego y se reproducía en tiempo real. Lo que no entendí aquí fue cuánto de la producción real se haría en tiempo real.

Me senté en las revisiones de diseño y observé cómo se crearon las escenas con nuestro director Jerome Chen, y me sorprendió la cantidad de trabajo que se podía hacer en el motor. Eso hizo que el proceso fuera mucho más colaborativo, ya que Jerome no tuvo que esperar a que nos fuéramos, hacer cambios, volver a renderizar y luego mostrarle lo que hicimos. Tantas cosas simplemente sucedieron allí mismo. Por ejemplo, mientras realizábamos las revisiones de diseño, la iluminación y los entornos se actualizaban, y esos cambios siempre estaban a un momento de distancia.

Honestamente, me sorprendió descubrir cuán iterativo y colaborativo podría ser el proceso. Mover las cosas de un lado a otro es una de las cosas más lentas que hacemos en nuestra canalización fuera de línea, por lo que tendemos a diseñar en exceso las cosas en un departamento para reducir los problemas en el futuro.

Pero cuando todos los departamentos están trabajando en una caja de arena unificada, puedes poner cosas en Unreal Engine y echar un vistazo sin preocuparte demasiado por eso. Eso nos ayuda a ser más creativos. Puedo probar algo radical y ver cómo podría afectar la toma. En nuestra canalización fuera de línea, es posible que necesite varias personas en diferentes departamentos para incorporar mi cambio antes de que veamos cuál podría ser el resultado. De esta manera tiene más sentido.

¿Puedes guiarnos a través de la nueva tubería? ¿Cuánto del legado quedó?

Nuestra animación aún se creaba principalmente sin conexión y se compilaba en Unreal Engine. Dicho esto, hicimos toda nuestra animación de cámara dentro de Unreal, que fue un gran paso adelante. Ahora podemos diseñar nuestros movimientos de cámara teniendo en cuenta los destellos de lente, las sombras, los reflejos, la profundidad de campo y el desenfoque de movimiento.

Sin embargo, en general, utilizamos Unreal como nuestro medio de presentación, así como nuestro renderizador final, lo que significa que todas nuestras revisiones de animación se realizaron en el motor.

Esto nos dio dos grandes victorias. Una era que podíamos ver nuestra animación con un aspecto casi final, incluida la iluminación, los efectos especiales, el desenfoque de movimiento, la profundidad de campo, etc. Esto fue genial porque normalmente esto viene mucho más tarde en el proceso para nosotros, y no tenemos tantas posibilidades de iterar después de haber visto el aspecto final.

La otra gran victoria es que podía ver una toma renderizada desde cualquier ángulo que quisiera. Puedo orbitar la cámara, mirar desde el ángulo de un testigo, desplazarme lentamente; incluso puedo ver las tomas circundantes y cambiar nuestra edición sobre la marcha para ver si podemos encontrar mejores formas de presentar la actuación. Esto me ayudó a comprender completamente el rendimiento de una manera holística y dar notas mucho mejores.

¿Cuál fue la mejor parte del cambio? ¿Valió la pena?

Absolutamente vale la pena! En un flujo de trabajo en tiempo real, en última instancia, eres más iterativo, más colaborativo y más creativo. Esto significa mejores resultados en la pantalla, casi siempre. Sin embargo, tuvimos algunas compensaciones.

Por ejemplo, no podríamos haber ensamblado todos nuestros diferentes tipos de activos en el motor sin algo de fuerza bruta. También teníamos algunas limitaciones en cuanto a los efectos de los personajes, como la ropa y el cabello, los músculos, la grasa, etc. Definitivamente es una decisión basada en el proyecto, pero creo que las posibilidades son infinitas.

Utilizar las nuevas canalizaciones
Utilizar las nuevas canalizaciones – Guía de la animación en tiempo real

Entrevista a Reel FX Animation con Paul Fleschner, productor

Paul Fleschner era un estudiante de primer año en la escuela secundaria cuando tuvo un «¡Eureka!» momento de convertirse en cineasta. Hizo películas en Super VHS con sus amigos, aprendió a editar con el supervisor posterior de John Hughes cuando aún estaba en la escuela secundaria y luego se abrió camino en el mundo de la producción. Esto lo llevó de Fox VFX Lab a ILM, y luego a Reel FX trabajando como productor en Super Giant Robot Brothers!, con un enfoque editorial.

¿Qué hizo que Reel FX decidiera usar un flujo de trabajo en tiempo real para Super Giant Robot Brothers?

Hemos tenido mucha suerte de tener defensores internos. Manu Weiss, el jefe de nuestra división, ha estado interesado en el tiempo real durante años. Estaba afianzado con todos los departamentos versados ​​en animación tradicional, lo que lo ayudó a presentar un caso. Pudo ayudarnos a husmear y comenzar a descubrir quién quería probar algo nuevo.

Luego elegimos un equipo especial para liderar el esfuerzo y comenzamos nuestras investigaciones prácticas. Desde entonces, realmente se ha tratado de experimentar y asegurarse de que las mentes correctas estén conectadas y se desarrollen entre sí.

El último año y medio ha sido un sprint loco. Estamos construyendo la canalización a medida que hacemos nuestro programa, con un equipo relativamente pequeño. Tuvimos que crear un código a medida e integrarlo con nuestro equipo interno de TI e ingeniería. Parece mucho, pero ha sido genial.

Este equipo está cerrando la brecha entre la canalización de animación tradicional y la producción virtual, y está trabajando para incorporar todas las cosas que los directores de acción en vivo adoran, como las cámaras virtuales y la captura de movimiento, en el proceso creativo.

¿Qué es diferente en una canalización en tiempo real funcione?

Debe comprometerse a construir los activos por adelantado. Hay un efecto dominó que llega hasta la animación si estás atrasado con esos activos. Si puedes comprometerte, y me refiero a comprometerte de verdad, obtendrás muchas recompensas.

Si está utilizando esta canalización en tiempo real para los píxeles finales, puede confiar en que se le ocurrirán ideas, tal vez incluso algunas de sus mejores ideas, en un contexto de acción en vivo en el escenario virtual. Y eso es muy diferente de la animación tradicional, donde tienes guiones gráficos, iteras, planificas y ejecutas eso.

Con la producción de animación en tiempo real, estás jugando con elementos en vivo, lo que tiene una sensación diferente. Es casi como si acabara de salir una nueva forma de arte, o al menos una síntesis del pasado y el presente. Cuando combinas la acción en vivo y la animación, obtienes este nuevo proceso.

Creo que ese es uno de los mayores desafíos para la mayoría de los equipos, y entiendo por qué es difícil: le estás pidiendo a las empresas que no solo den un salto de fe, sino que también estén dispuestas a invertir en algo que no han hecho antes. De repente, les estás diciendo que tienen que descifrar la historia en el escenario con recursos, no principalmente con un guión gráfico.

Pero hay una verdadera libertad para trabajar de esta manera. Siempre me ha enamorado cualquier proceso que genere chispas de creatividad de forma natural. Comprometerse con este proceso se trata de confiar en que puede ser creativo y crear cosas en el momento.

Qué es diferente en una canalización en tiempo real funcione
Qué es diferente en una canalización en tiempo real funcione – Guía de la animación en tiempo real

¿En qué se diferencia la edición de tomas para una canalización en tiempo real de la tradicional?

El proceso de edición para una tubería en tiempo real tiene la misma calidad exploratoria que encuentras en las producciones de acción en vivo. Estás buscando combinaciones de tomas que te den algo inesperado, una química sorprendente o ese algo especial que realmente hace que una secuencia cante.

Por ejemplo, supongamos que un editor tiene una panorámica, un medio y un primer plano desde dos ángulos. ¿Quién sabe cómo lo van a armar, o si va a pasar algo mágico porque él o ella notó la mirada correcta en la cabeza, en el momento correcto?

Esa misma magia en la suite de edición es difícil de obtener de otra manera, porque tienes un número muy limitado de tomas con las que trabajar. Y la razón detrás de esa limitación es que las tomas requieren mucho tiempo para producir, por lo que tiendes a producir solo lo que está predeterminado, y no mucho más.

Con el tiempo real, podemos producir cientos de tomas al día y darle mucho a la editorial para elegir, elegir y elegir y hacer que la historia sea lo más interesante y atractiva posible.

No me malinterpreten, no hay nada de malo en la canalización tradicional y hay películas animadas absolutamente asombrosas y hermosas hechas de la manera tradicional. Este híbrido en tiempo real simplemente le da una sensación diferente al proceso y al contenido.

La magia que un editor encuentra al cortar múltiples ángulos y tomas trae un tipo diferente de energía emocional, el tipo que normalmente obtienes con una filmación de acción en vivo, cuando obtienes una toma a través del ojo único o los caprichos de una persona en el momento.

En tiempo real, de la misma manera, obtiene opciones que ni siquiera espera y que ni siquiera puede planificar. Esa apertura a un espíritu de descubrimiento es lo que impulsa este proceso editorial.

Por favor cuéntenos sobre su proceso de revisión

Siempre comenzamos con selecciones de mocap. La VCam puede ser tan generativa que rápidamente terminará con demasiadas tomas para el editor si no las reduce. Tendemos a ejecutar un volumen VCam en un estudio. Si tiene sus selecciones de rendimiento de mocap y su diseño maestro unidos, entonces tiene su 3D en la ronda. Eliges tus mejores tomas para disparar, luego puedes presionar Repetir y obtienes tu mejor rendimiento una y otra vez en tu entorno.

Entonces puedes disparar tanto como quieras. Es una locura. Podemos hacer cientos de disparos en un día cuando queramos, lo que finalmente plantea la pregunta, ¿es demasiado? Tienes que preguntarte, ¿por qué disparamos tanto? Creo que todavía estamos tratando de encontrar nuestro equilibrio allí, pero también es lo que quiere nuestro director. Así que filmamos mucho, hacemos selecciones y las enviamos a la editorial.

El proceso editorial es algo que tratamos de mantener muy sagrado e íntimo. No queremos demasiados cocineros en la cocina. Realmente lo diseñé para incluir solo al editor, el director y un coordinador, eso es todo. Desea que las personas adecuadas tengan su tiempo para cocinar creativamente en este proceso.

Sacan un corte animado muy, muy rápido para recibir comentarios. Esto se revisa de manera típica, internamente en el estudio y luego se envía al transmisor. El proceso editorial es muy parecido al proceso de los proyectos de acción en vivo.

¿Cómo ha funcionado esta combinación de producción virtual y personal de animación para Reel FX?

Ese ha sido un desafío divertido para nosotros: hacer que nuestro equipo de producción virtual, que tiene esa mentalidad establecida, se cruce con un estudio de animación. Eso es una colisión de mentalidades. Si quiere tener éxito, realmente tiene que hacer que la gente se siente a la mesa y escuche lo que dice la otra parte, cómo lo están abordando y qué necesitan para trabajar juntos. Por lo tanto, la energía es importante, pero también se trata de la comunicación y de hacer que personas de diferentes orígenes compartan un vocabulario común.

Tenemos suerte de estar trabajando con un proceso que se siente como un juego. Eso es el cine de producción virtual: filmar dentro de un juego donde el objetivo es conectar con tu audiencia. Y todas estas personas a mi alrededor, todos nos juntamos para colaborar en este juego, usando los diferentes conjuntos de habilidades de todos para que funcione. Si cuentas una buena historia, ganas el juego.

Funciones de canalización

Cambiar de un flujo de trabajo tradicional a uno en tiempo real requiere algunos cambios en la forma en que funciona su canalización. Aquí, describimos algunas de las principales áreas de diferencia. Para obtener más detalles técnicos sobre este cambio de canalización, consulte la Guía técnica para la creación de contenido lineal.

Hardware

Si bien puede reducir su dependencia de grandes y costosas granjas de procesamiento en tiempo real, las estaciones de trabajo individuales que ejecutan Unreal Engine deben estar equipadas con hardware más potente. En general, la misma configuración de hardware utilizada para desarrollar juegos funciona para la producción de animación, pero variará de un artista a otro según el trabajo que estén realizando. Consulte la página de especificaciones de hardware y software en la documentación de Unreal Engine para obtener más detalles.

Activos

Las producciones de juegos y películas crean, organizan y utilizan activos de manera muy diferente.

En el desarrollo de juegos, por ejemplo, se crean mundos completos, mientras que en las producciones cinematográficas, los escenarios suelen estar incompletos y creados «para la cámara». Cuando hace la transición a una canalización en tiempo real, comienza a ver el valor de crear sus mundos y entornos en su totalidad: la capacidad de explorar escenarios completos, similar a filmar en el lugar, mientras sigue decorando el escenario según sea necesario en una toma. base por disparo.

Una consideración adicional es la optimización; la forma en que crea sus activos es importante para garantizar la reproducción en tiempo real. Las nuevas características como Nanite están haciendo que ese proceso sea más flexible, pero también alentamos el uso de prácticas establecidas para la optimización de activos.

Fuente de control

El control de código fuente, o control de versiones, es la práctica de administrar actualizaciones de archivos que probablemente cambien durante el transcurso del desarrollo del proyecto, como activos 3D, texturas, scripts y código fuente del motor.

El control de código fuente es imprescindible cuando varios usuarios van a modificar un proyecto al mismo tiempo. Los estudios de animación experimentados tienen uno o más sistemas para realizar un seguimiento de los activos y otros archivos, pero muchos de estos sistemas son propensos a imprecisiones debido a errores humanos.

Un tipo de sistema podría usar una hoja de cálculo u otra herramienta de seguimiento, con un administrador de activos asignado para actualizar manualmente la lista. Un estudio también podría dar un paso en la dirección de la automatización mediante la configuración de secuencias de comandos basadas en aplicaciones DCC que busquen nuevos archivos según convenciones estrictas de nombres de archivos. Un estudio puede usar un sistema de «maestro sin versión», donde la carga de cualquier escena extrae automáticamente ciertos archivos de referencia externa.

Sin embargo, dichos sistemas dependen en gran medida de los propios miembros del equipo para nombrar cada archivo correctamente o para proporcionar información manualmente. Un solo error por parte de un artista, que fue contratado por su capacidad creativa, no por la atención a los detalles administrativos, puede costarle al proyecto días o semanas de trabajo.

Unreal Engine se encarga de este riesgo con soporte nativo para herramientas de control de código fuente como Perforce y Subversion (SVN). Perforce es una solución de control de fuente paga confiable que muchos de nuestros clientes prefieren. Como alternativa, SVN está disponible a través de Github como una solución gratuita de código abierto.

Tanto Perforce como SVN brindan la capacidad de «desproteger» los activos: cuando se desprotege un activo, nadie más puede editarlo. Una vez que un artista o técnico ha terminado de actualizar el activo, la nueva versión se «registra» (comprometida) y ahora está disponible para su edición.

Estas herramientas también pueden proporcionar un historial de actualizaciones de activos y la capacidad de revertir a una versión anterior de cualquier activo determinado.

El código fuente de Unreal Engine está disponible para todos los usuarios, y a algunos estudios también les gusta personalizar el código para sus propios fines. UnrealGameSync (UGS), incluido con Unreal Engine, proporciona herramientas de sincronización y difusión para cualquier cambio de código en el motor.

UGS tiene un propósito adicional: actúa como un envoltorio para Perforce para brindar una experiencia fluida en la administración de datos para UnrealEngine.

Importación al motor

Para utilizar un flujo de trabajo en tiempo real, aún necesitará usar aplicaciones DCC como Autodesk Maya, 3ds Max, Cinema 4D o Blender para crear sus activos. Pero una vez que los activos están en el motor, puede aplicar transformaciones (mover, rotar, escalar) y también aplicar materiales con las texturas elegidas y controlar atributos familiares como el brillo y la translucidez. La diferencia es que estos materiales están optimizados para la reproducción en tiempo real.

También puede aplicar animación IK de cuerpo completo y editar activos con herramientas de modelado integradas.

Unreal Engine incluye herramientas para importar datos de FBX, USD y Alembic, y también complementos para exportar desde paquetes específicos como 3ds Max al formato nativo de UE, .udatasmith. Muchos estudios aprovechan el sistema Unreal Engine Blueprint, o la integración de Python o C++, para personalizar y optimizar sus procesos de importación para que se adapten a sus propias canalizaciones.

Herramientas integrables

Además de importar datos de aplicaciones DCC comunes, existen complementos que permiten integraciones en vivo entre Unreal Engine y ShotGrid, Houdini, Ozone Rig Studio y Autodesk Maya.

Apoyo técnico

En esta guía, proporcionamos una descripción general de los conceptos involucrados en la creación de una canalización de animación en tiempo real, pero solo hemos arañado la superficie. Para obtener consejos y trucos más detallados que satisfagan sus necesidades específicas y conectarse con otros creadores, únase a nuestra Comunidad de desarrolladores de Unreal, donde puede encontrar más información y recursos que lo ayudarán a crear su proceso de animación de Unreal Engine, como la Guía técnica de Linear. Creación de contenido.

Entrevista a WildBrain Studios con Shazzy Angulo, supervisora ​​de desarrollo de Unreal

Shazzy Angulo es supervisora ​​de desarrollo de Unreal en WildBrain, un estudio que habrá entregado siete programas de televisión con píxeles finales de Unreal Engine para el próximo año. Shazzy ha estado trabajando con tecnologías en tiempo real y animación infantil durante seis años, y ha encabezado el desarrollo de la tubería de Unreal Engine en WildBrain durante los últimos dos años.

Cuéntenos sobre su papel en la puesta en marcha de la canalización en tiempo real en WildBrain. Me contrataron para ayudar a pasar de completar un piloto de 22 minutos a construir una tubería completa de Unreal. Estábamos construyendo la canalización durante nuestro primer proyecto en tiempo real, la temporada 13 de Sam el Bombero, que constaba de 26 episodios, cada uno de 22 minutos de duración. Ayudé a desarrollar mejores prácticas y flujos de trabajo mientras trabajaba con el supervisor de CG.

Mi equipo está formado por dos desarrolladores de Unreal y yo que ayudaron a desarrollar las herramientas en Python y Unreal Engine Blueprint. Además de construir las herramientas, paso mucho de mi tiempo entrenando y enseñando a los artistas, supervisores y otros miembros del equipo de producción sobre cómo se hacen las cosas en Unreal Engine.

Una de las cosas divertidas es que soy una de las pocas personas aquí que en realidad nunca trabajó en una tubería tradicional. Siempre trabajé en motores de juegos, así que cuando llegué a WildBrain tuve que aprender sobre la tubería tradicional para ayudarme a comprender de dónde venían todos y la mejor manera de guiarlos a una tubería en tiempo real.

Al principio, pasé gran parte de mi tiempo con personas que habían estado en la industria durante más de 10 años en canales tradicionales, presentándoles algo nuevo fuera de su zona de confort. Muchos conceptos básicos son los mismos, y ver a cada persona tener ese «¡Ajá!» momento es tan emocionante y gratificante, porque sé que los he convertido en un flujo de trabajo en tiempo real.

Cuando estábamos en la animación del Episodio 5 de Fireman Sam, LEGO Friends comenzó la producción y el proceso comenzó de nuevo: entrenar, educar y conquistar a todos.

¿Cuáles son algunos de los desafíos que enfrenta al capacitar a las personas en una canalización en tiempo real?

Para sobresalir en Unreal, es importante estar abierto a aprovechar los beneficios del motor, al mismo tiempo que se comprende que no es un botón mágico que soluciona todo. Hay quienes quieren ir en tiempo real, y hay quienes se sienten cómodos quedándose donde están, y esa es la clave: conseguir que las personas adecuadas estén en el motor.

Cuando tienes fechas límite, aprender una nueva tecnología puede ser abrumador, pero trato de pasar tanto tiempo como sea necesario con cada persona hasta que se sienta cómoda.

A medida que el motor continúa desarrollándose, hay cosas con las que nos encontramos que no están construidas o no funcionan como esperábamos. Tengo la mentalidad de: «Encontraremos formas de solucionarlo y brindaremos opciones». Adoptar esta nueva canalización se trata de aceptar dónde está, pero con cada lanzamiento del motor, vemos resueltos los puntos débiles anteriores.

¡Tener que lanzar la promesa del futuro del tiempo real requiere paciencia y es un requisito previo para un puesto como este! Otro desafío es construir la canalización a medida que avanzamos, pero ser capaz de iterar rápidamente y seguir mejorando es clave. Descubrir qué es lo mejor cuando nadie más lo está haciendo, saber que puedes mejorar en el próximo programa y continuar haciéndolo, es una gran sensación.

Todas las canalizaciones están trabajando constantemente en problemas y errores para mejorar, y la canalización de Unreal no es diferente. Las actualizaciones del motor y los lanzamientos de nuevas funciones nos empujan a avanzar constantemente y mover más y más departamentos al motor.

¿Cuáles son algunas de las cosas nuevas que puede hacer con la nueva canalización?

Una vez que tiene todos sus activos en el motor, comienza a abrir tantas posibilidades. Creamos ejecutables de nuestros decorados para nuestros equipos de guiones gráficos para que puedan obtener placas de fondo sin necesidad de una máquina potente para ejecutar un proyecto con trazado de rayos. Podemos hacer revisiones en tiempo real con directores para cambios de materiales, iluminación y efectos.

Mis momentos favoritos son cuando tienes directores y directores de arte que comienzan a preguntar si pueden obtener una nueva máquina para poder estar en el motor. Es inspirador y les permite ver las cosas de una manera nueva. Para nosotros, hemos eliminado la composición por completo: los píxeles finales provienen directamente de Unreal. Poder ver tus tomas en el motor, en tiempo real, es súper emocionante. Obtiene comentarios más rápido y los ajustes y las notas son fáciles de hacer.

¿Qué es lo que más le gusta de la canalización en tiempo real?

Lo que más disfruto es cuánto puede hacer un equipo pequeño, o incluso una sola persona. Anteriormente, cada paso en la canalización dependía mucho del anterior. Ahora puede hacer que un modelador configure su activo con plataformas ligeras, volúmenes de posprocesamiento y efectos, todo a la vez. Puede tener encendedores agregando multitudes y trabajando con animación. Ha hecho que la animación sea accesible, tanto para grandes estudios como para estudios independientes. Es empoderar a los artistas para ir más allá de su disciplina.

También me encanta el sentido de comunidad que lo rodea, dentro de nuestro propio estudio y externamente.

  • Descarga el PDF desde la página de Epic Games aquí.
  • Tienes más artículos sobre Epic Games en este enlace.
  • En el foro puedes encontrar más información y los comentarios al respecto. Sigue leyendo…