[Substance Painter] Steve Talkowski crea su robot VR canalizando herramientas de Adobe

Steve Talkowski crea su robot VR para probar una canalización de herramientas 3D de Adobe: Medium de Adobe, Substance Painter y Dimension.

Steve Talkowski es un veterano de la industria. Cuando el equipo 3D de Adobe comenzó a considerar artistas que podrían demostrar las posibilidades de un flujo de trabajo de las herramientas de Adobe, los resultados creativos posibles cuando se trabaja en las herramientas de Adobe, pero también cómo esas herramientas interactúan entre sí, Steve fue una opción natural.

Steve ha estado trabajando en el campo de los gráficos por ordenador 3D durante más de 30 años. Estudió dibujo de figuras y pintura en la escuela de arte, mientras que también buscaba varios sistemas informáticos en el campus, y filmó animación fotograma a fotograma con una antigua cámara Super 8. Finalmente trabajó como artista 3D en Rhonda Graphics en Phoenix durante 7 años, luego como animador senior en Blue Sky Studios durante 7 años, seguido de temporadas como director de animación en Hornet Inc. y Guava NYC. Comenzó a trabajar como freelance en 2008, en particular lanzando su juguete de arte de estilo retro, Sketchbot, en 2010. Desde entonces se ha mudado a Los Angeles con su esposa e hija, donde continúa trabajando como director de arte y animación, modelador y animador 3D, y donde continúa el desarrollo de su robot original IP.

La canalización era la siguiente: primero crearía el boceto 3D inicial y los volúmenes en Medium. A continuación, este modelo se importaría a Substance Painter para materiales y texturas. Para finalizar, el modelo se importa a Cota para iluminación y renderizado final. Cuando este proyecto llegó a mí, ya estaba en la zona de kit-bashing, lo que facilitó sumergirse y rápidamente diseñar la forma usando sellos primitivos de Medium. Luego agregué los sellos mecánicos incluidos donde vi encajar.

Comenzando trabajé simétricamente, bloqueando el personaje en una sola capa. Luego dupliqué esta capa maestra para cada componente que quería abordar por separado, una capa cada uno para la cabeza, el torso, los brazos y las piernas. A continuación, segmenté aún más los brazos y las piernas en partes más pequeñas para poder crear una jerarquía padre/hijo que me permitiera posar la escultura de VR como una marioneta de Stop Motion.

Steve Talkowski crea su robot VR canalizando herramientas de Adobe-robot-canalizando-herramientas-adobe-3d-1.jpg

Cuando se trabaja así, debe crear una jerarquía para que pueda administrar las piezas; esto es cierto en cualquier aplicación DCC. En el pasado, he sido un escultor de realidad virtual perezoso – creo que soy como mucha gente, en el que sólo quiero saltar y empezar a esculpir. Pero si toma este enfoque, dejando todo en una capa, en última instancia, creará problemas para usted más tarde. Realmente tienes que dividir tus partes, y administrar tus capas. Siempre tengo mi pila de capas presente cuando estoy trabajando, así que puedo elegir fácilmente en diferentes secciones.

El proceso de la escultura inicial no tomó ni un día completo, aunque volví más tarde para limpiar algunas piezas. Por último, exporté el modelo como un archivo .FBX.

Asignación de conjuntos de texturas. Mi mandato para este proyecto era trabajar dentro de una canalización de herramientas de Adobe, pero necesitaba hacer una parada rápida en Maya, principalmente por la necesidad de asignar un material a cada una de las cuatro partes del modelo. Esto me permitió un mayor control al usar la función de desenvoltura auto-UV de Substance Painter, mientras que también me permitió tener una mayor fidelidad con cuatro mapas en comparación con que todas las partes residen en un solo conjunto de texturas.

Sería genial si en una versión futura de Medium hay una manera de asignar materiales a su modelo, o alguna otra manera de asegurarse de que esta información se transfiere a Substance Painter, de modo que cuando se hace el UV auto-desenvolver cada parte del modelo tiene su propio conjunto de texturas de inmediato. Personalmente, incluso me gusta asignar un conjunto de textura específico a cada extremidad individual, en lugar de a pares de extremidades – sé que en el mundo del juego a mucha gente le gusta reflejar su trabajo, pero no estoy interesado en eso; Me parece que tener un conjunto de texturas único para cada lado del personaje ayuda a romper la simetría.

Pintor de sustancias. A continuación, traje el archivo FBX en Substance Painter. Trabajar en Painter es la parte más divertida del proyecto; para mí, es realmente sin esfuerzo. Yo no me consideraría un acérrimo usuario profesional de Substance Painter – No lo uso todos los días. Pero cuando puedo usarlo, me encanta, y estoy tratando de incorporarlo a mi canalización con más frecuencia.

Steve Talkowski crea su robot VR canalizando herramientas de Adobe-robot-canalizando-herramientas-adobe-3d-2.jpg

Realmente me obligo a no establecerme con los activos básicos que vienen con Substance Painter. Podría usar algunos materiales inteligentes sólo para empezar mi texturizado, pero entonces soy muy consciente de generar un pase AO, o crear algunos alfas personalizados. Intento intencionalmente impulsar mi propio uso de Substance Painter, para que no me asiente en una rutina de arrastrar y soltar texturas en mi modelo. No deberías conformarte con hacer las cosas de la manera fácil; nunca obtendrás todo lo que necesitas para tu obra de arte de esa manera. Empujarme así es un elemento de usar Substance Painter que realmente disfruto. Un recurso de aprendizaje particularmente grande es la gran cantidad de información que se puede encontrar en Substance por el canal de YouTube de Adobe.

Con VR Bot, apliqué algunos materiales inteligentes como base, seguido de capas de relleno personalizadas y un montón de pintura a mano y ajustes a la textura del personaje. Este enfoque me permitió construir mis capas hasta un punto en el que el personaje comenzó a exhibir una credibilidad más natural y desgastada.

A continuación, exporté este archivo directamente como un archivo de Adobe Dimension, que se abrió perfectamente con texturas ya asignadas. Elegí algunas imágenes de Adobe Stock para probar, y comencé a crear algunas de las renderizaciones que se ven en este artículo.

Renderizando en Substance Painter y renderizando en Dimension 3D. Para mis renderizados de Iray en Substance Painter elegí una imagen HDRI de una de mis fuentes en línea favoritas: HDRI Haven en particular, el Pequeño Hangar 01, que tiene tonos cálidos e iluminación agradable y abierta. Esto también me dio una idea para un esquema de color apropiado para el robot. Pero aquí me encontré deseando que yo había tenido la capacidad de añadir algunas luces de colores; esto me habría permitido ajustar un poco la imagen.

Steve Talkowski crea su robot VR canalizando herramientas de Adobe-robot-canalizando-herramientas-adobe-3d-3.jpg

Este es un punto de comparación entre la representación en Substance Painter y Dimension. Los renderizados Iray de Painter son magníficos, y soy capaz de agregar rápidamente efectos en tiempo real, como ajustar la profundidad de campo, apretar un poco la exposición o agregar una tabla de búsqueda, lo que me permite iterar a un ritmo muy rápido.

Por el contrario, Dimension tiene la capacidad de agregar luces personalizadas, y esto puede ayudar a hacer que el renderizado final sea un poco más rico. Por lo tanto, puede ser un equilibrio de depender únicamente del HDRI y post FX frente a una iluminación un poco más controlada.

Probé cuatro orígenes diferentes con los renders de Dimension, y admito que algunos de ellos salieron bastante sosos. Pero había uno en particular con el que estaba muy contento, la imagen de abajo, porque era capaz de ajustarla y añadir algunos colores a ella, y realmente hacer algo de iluminación direccional, dimensional – sin juego de palabras – que me permitió emparejarlo mejor a su fondo.

Una de las cosas buenas sobre el uso de Dimension fue que sólo era capaz de pulsar el botón en Substance Painter, ‘Exportar como dimensión’, y el modelo vino con todos los mapas bien asignados a cada parte. Y se veía muy bien, justo fuera de la caja; No tenía que preocuparme por cambiar nada. Mi renderizador de los últimos tres años más o menos ha sido GPU de Redshift, aunque también usaré Arnold en un abrir y cerrar de ojos, y ocasionalmente RenderMan, pero si estuviera representando esta escena en Redshift, tomaría algún tiempo configurar todo correctamente. Pasar de Substance Painter a Dimension fue rápido.

Mi única petición para Dimension sería que incorporara el uso de la imagen de fondo HDRI de la misma manera que lo hace Iray en Substance Painter, es decir, en lugar de tener una imagen fija como fondo, sería genial si pudiera bloquear una imagen en el plano de tierra, y luego moverla y cambiarla en relación con la esfera que se está proyectando. Ese tipo de funcionalidad sería fantástica para alguien que sólo está haciendo el trabajo conceptual, y que sólo quiere aplicar rápidamente numerosos ángulos de cámara. Si Dimension tuviera ese tipo de capacidad incorporada, entonces creo que la gente la usaría un poco más para ese tipo de concepto. Además de eso, también tendrías esa capacidad de agregar fuentes de luz adicionales que puedes ajustar, como mencioné antes.

Por lo tanto, las ventajas para renderizar en Iray de Substance Painter: renders hermosos y rápidos; facilidad de uso; efectos en tiempo real como la floración y el DOF.

Ventajas de renderización en Dimension: capacidad de añadir luces personalizadas; la capacidad de utilizar modelos adicionales en la escena. Y también podría alternar las piezas que estaban separadas, así que, por ejemplo, tengo un conjunto de manos flotantes, y una cabeza que representa lo que el VR Bot está esculpiendo. En Dimension, podría desactivar estos elementos separados, sólo para ver cómo se veía.

Pensamientos posteriores y listas de deseos. Este fue un proyecto muy divertido. El informe para él era básicamente, "Steve, sólo queremos que vayas a la ciudad y hagas lo que sea". Me encanta tener ese tipo de libertad, y especialmente, el reconocimiento de que el partido que hace la comisión cree tanto en su cuerpo de trabajo.

En retrospectiva, desearía poder volver y cambiar parte de la pose. Pero siento que una vez que he sacado la escultura de Medium tengo que vivir con eso. Sabiendo cómo usaría el personaje en toda la canalización, traté de darle una pose bastante dinámica. Pero esto me puso en una posición difícil más adelante – No tenía ningún fondo en particular elegido, y tuvo que encontrar un fondo apropiado y deseable que coincida con esta pose.

Creo que si me acercara a este proyecto de nuevo, planificaría por adelantado la cantidad de capas esculpidas individuales necesarias mientras estuviera en Medium. Dependiendo de cómo me gustaría potencialmente usar estos datos de vóxel sin procesar, lo más probable es que haga un viaje a ZBrush para la retopología, luego a Maya para un diseño UV más controlado y asignación de materiales, antes de la exportación FBX para Painter.

Ya he mencionado algunas características que me gustaría ver integradas en las diversas herramientas 3D de Adobe en el futuro. Una gran solicitud es la posibilidad de animación en esta canalización. Utilizo Mixamo con bastante frecuencia, y en realidad pude adjuntar uno de los esqueletos predeterminados al personaje en Maya, luego subir esto directamente al sitio de Mixamo y probar una plétora de clips de animación con él. Idealmente, sería genial ver algún tipo de aparejo / capacidades esqueléticas añadidas dentro de Medium, y ser capaz de posar directamente en VR!

Genial este artículo publicado en la revista de Adobe para combinar el trabajo con distintos programas.

Miniaturas adjuntas
Steve Talkowski crea su robot VR canalizando herramientas de Adobe-robot-canalizando-herramientas-adobe-3d-1.jpg   Steve Talkowski crea su robot VR canalizando herramientas de Adobe-robot-canalizando-herramientas-adobe-3d-2.jpg   Steve Talkowski crea su robot VR canalizando herramientas de Adobe-robot-canalizando-herramientas-adobe-3d-3.jpg  

Ver más sobre el tema y comentarios en el foro