Inicio Blog

Quizás 10 años son suficientes para Final Cut Pro X

En la noche del sneak peak de Final Cut Pro X del Supermeet 2011 me dijeron que esta era la “base para los próximos 10 años”. Bueno, a partir de la semana pasada, siete de los nueve han transcurrido. No creo, ni por un minuto, que Apple tenga la intención de transmitir un límite de diez años para el desarrollo continuo de Final Cut Pro X, pero tal vez sea inteligente planificar la obsolescencia para limitar el tiempo que se continúa desarrollando una aplicación antes de que se vuelva a evaluar su idoneidad para la tarea.

El “sneak peak” de Final Cut Pro X durante el Supermeet 2011

Final Cut Pro X fue el resultado de un proceso de varios años en Apple para “reimaginar” lo que debería ser un NLE en un mundo post-tape y post-film. Entiendo que no fue fácil transitar el proceso. En última instancia, se pensó algo muy inteligente en el diseño (como ve en el documental Off the Tracks de Bradley Olsen, Estreno en Los Ángeles hace dos años).

Han pasado nueve años

En los nueve años desde que se lanzó FCP X, hemos tenido otro cambio radical que será tan importante como la transición digital lejos de la cinta y el celuloide. La Inteligencia artificial, o más exactamente, Machine Learning.

Adobe ya ha incluido algunos avances de Adobe Sensei (su marca para el aprendizaje automático aplicado en su ecosistema) en los lanzamientos recientes de Premiere Pro CC para cosas aparentemente mundanas. Si bien hemos estado tratando de determinar si la inteligencia artificial, o “AI“, reemplazará o no a los editores, Adobe ha demostrado cómo puede ayudar a los editores con las tareas cotidianas, como el balance de color o el nivelado automático de audio.

Esto plantea las siguientes preguntas: ¿Cuánto de esto se puede integrar sin que la aplicación se desmorone? No me refiero específicamente a Premiere Pro CC, sino en general, ¿Cuántos asistentes inteligentes pueden integrarse en un NLE de una manera que se integren con las estructuras existentes?

Ahora, FCP X no está mal posicionado para la extracción inteligente de metadatos. Gracias a la inclusión de Content Auto Analysis en la primera versión, los cimientos básicos para analizar el contenido y devolver rangos de palabras-clave están ahí y podría, creo, reutilizarse fácilmente para un análisis automático de contenido más inteligente que se ejecuta en modelos de Machine Learning a través de CoreML, que se ejecuta en GPU. Para empezar, sería lo suficientemente rápido como para que sea útil.

No tengo dudas de que los ingenieros de Adobe, Blackmagic Design e incluso Avid podrían implementarlo. Sería el enfoque correcto.

Inteligencia Artificial y Machine Learning

A medida que obtengo una visión cada vez más clara de cómo se va a integrar Machine Learning, lo veo como una alianza humano/máquina. Los modelos de máquinas capacitados incorporan cierta experiencia (limitada). El conjunto de herramientas de coincidencia de color de Adobe parece mucho mejor que cualquier cosa de la que yo sea capaz de lograr manualmente, pero probablemente no sea mejor que lo que logre un colorista profesional.

Pero si obtiene el 95% del objetivo con un clic del botón (y una máquina capacitada para la tarea), ¿cuántas personas lo harán manualmente?. (Agregaré que Adobe tiene la posibilidad de anular manualmente en forma completa los resultados). Si puedo automatizar la el ducking de la música en un cuadro de diálogo, ¿me molestaría en hacerlo manualmente?

Llevando esto un poco más lejos, tomando algunas de las herramientas que desarrollan ahora en un laboratorio y extrapolando un poco, puedo ver una herramienta futura que tiene la capacidad de reconocer el contenido de las tomas automáticamente: identificar a las personas y etiquetar el b-roll; tiene una conversión de voz a texto integrada y una identificación completa de palabra clave, concepto, producto y entidad. La mayoría de los procesos más técnicos se han automatizado con un asistente inteligente integrado en la aplicación (y probablemente basado en la tecnología de base del sistema operativo).

Con este conjunto de herramientas (aún imaginario), el editor podría, literalmente, pedir todas las tomas donde la persona X habló sobre el sujeto D en una línea de tiempo. Podrías pedirle al asistente otras tomas que contengan a la persona, el concepto o la palabra que estás buscando.

Podrías solicitar b-roll coincidente que tenga espacio en la composición sobre la derecha para componer algún gráfico.

Con un solo clic o solicitud, el color coincidiría en su línea de tiempo con la configuración de color que eligió (o copiado de una imagen de stock, película, etc.). De manera similar, el audio tendría niveles y tonalidades coincidentes a pedido.

Habrá muchas cosas más con las que nuestro asistente de edición incorporado podrá ayudar, de modo que el editor tendrá la libertad de concentrarse en la creatividad. Esta será una gran ayuda para la mayoría de los editores y será completamente lo contrario de lo que quieren los “Editores Profesionales de Hollywood”. Estoy de acuerdo con eso, pues es un nicho de mercado importante que requiere herramientas muy especializadas, y Avid es el proveedor consolidado y lo será en el futuro previsible. No es donde están los millones de usuarios de Premiere Pro CC y FCP X.

Los millones de usuarios que no trabajan en “Hollywood” estarán presentes en esta próxima generación de herramientas de edición profesional con asistencia inteligente. (Por supuesto, espero que sus contrapartes del consumidor vayan aún más lejos con el concepto de asistente inteligente en plantillas inteligentes).

Pero no creo que ningún NLE actual esté listo para tener todas esas modificaciones. Entonces, tal vez diez años desde el nacimiento de una aplicación es suficiente tiempo antes de que también deba ser reinventada para una nueva generación. Final Cut Pro Classic tardó 12 años desde el lanzamiento hasta que fue discontinuado. Nuestra industria está evolucionando cada vez más rápido. ¿Por qué no deberían hacerlo nuestras herramientas?

Esta nota ha sido traducida del inglés con autorización del autor: Philip Hodgetts.

ProRes RAW para Windows 1.0 (Beta)

Apple lanzó recién una versión para Windows, por ahora Beta, del tan difundido CODEC ProRes RAW.


El CODEC ya está disponible y se puede descargar desde aquí .

Alex4D 360º Effects para Final Cut Pro X

0

Los efectos para Alex4D 360º ayuda a los editores que utilizan Final Cut Pro X a narrar historias con videos VR de 360 grados.

Alex4D lanzó Alex4D 360º Effects, un paquete de efectos esféricos 360º que funcionan exclusivamente para Final Cut Pro X, la aplicación de video profesional de Apple.

Alex4D 360º Effects es un kit de efectos simples de utilizar que ayudan a los realizadores a narrar historias utilizando video esférico.

El rango de plugins va desde efectos que generan estilo a las esferas de video completas hasta aquellas que ayudan a los espectadores notar características específicas del entorno 360º. Funcionan con videos, así como también con sobreimpresos como logos, imágenes y títulos.

Alex4D 360º Effects está dividido en seis categorías:

  • Repeat: para repetir pietaje y sobreimpresos gráficos alrededor de la esfera.
  • Highlight: para atraer la atención hacia partes específicas del entorno.
  • Blur: para desenfocar partes del pietaje y de los sobreimpresos.
  • Stylize: para modificar la apariencia de toda la esfera de video a la vez.
  • Masks: para permitir sobreimprimir áreas de contenidos 360º sobre otras esferas.
  • Flat: para mejorar el material 360º utilizado en videos planos (no esféricos).

Como bonus instantáneo, la versión de demostración con marca de agua de Alex4D 360º Effects (https://fxfactory.com/install/360effects/)incluye tres plugins sin marca de agua adicionales gratuitos que pueden hacer ahorrar tiempo instantáneamente en la producción de videos esféricos.

El desarrolladorAlex Gollner, con base en el Reino Unido, ha estado creando plugins para Final Cut Pro X desde que Apple introdujo la aplicación en 2011. Él dijo “La aplicación profesional para edición de video de Apple es muy buena integrando plugins de terceros. Con estas herramientas es posible que los editores que realizan videos 360º puedan realizar varias tareas que hubieran necesitado previamente ir a otras aplicaciones externas. Estos plugins permiten que los más de 2,5 millones de usuarios de Final Cut se concentren en contar historias sin distraerse resolviendo problemas técnicos”.

Iain Anderson, un instructor certificado de Apple para FCPX (macProVideo.com / trainingbrisbane.com) comentó “Los efectos del nuevo paquete de plugins de Alex resuelven varios problemas de producción. Si necesitás capas de ajuste en 360º, la posibilidad de repetir un título o un logo a lo largo del viewer, resaltar, algo, o crear un efecto tiny planet, obténlo ahora”.

Alex4D 3D Effects
Alex4D 3D Effects

Precio y disponibilidad

Alex4D 360° Effects está disponible desde el 30 de mayo en la aplicación de FxFactory (https://fxfactory.com/buy/360effects/)por 79 dólares estadounidenses.

Como oferta de lanzamiento, Alex4D 360º Effects está disponible, por tiempo limitado, por 49 dólares estadounidenses.

Para más información, por favor, visite http://alex4d.com/360effects

Creatividad Audiovisual con Motion y Final Cut Pro X

0

El lunes 23 de abril se realizó en Buenos Aires, Argentina, el evento “Creatividad Audiovisual con Motion y Final Cut Pro X”. El encuentro gratuito organizado por Leo Hans, de Final Cut Argentina y la Universidad de Palermo. Contó con la presencia de Mark Spencer, de Ripple Training, quien a lo largo de dos horas, hizo una demostración sobre el potencial de Apple Motion 5 para crear atractivas piezas de Motion Graphics, tanto en forma independiente así como títulos, transiciones y efectos profesionales para Final Cut Pro X .

El encuentro se realizó en el Aula Magna de la Universidad de Palermo.

Como apertura se proyectó el trailer de “Off The Tracks”, un documental sobre Final Cut Pro X dirigido por Brad Olsen, y un fragmento del mismo enfocado en la explicación de la metáfora en la que está inspirado el revolucionario Magnetic Timeline.

Mark comenzó la demostración creando, a partir de una simple fotografía de un bosque, un paisaje otoñal utilizando únicamente el sistema de partículas incorporado en Apple Motion. Sin utilizar keyframes de ningún tipo y jugando con algunos parámetro logró que lo que inicialmente era una única imagen PNG con una hoja de árbol, se convirtiera en una escena otoñal en la que caían una inmensidad de hojas. Desde las propiedades del sistema de partículas, modificó la variación de velocidad, ángulo, tamaño, rotación, y hasta el color de las distintas hojas que conformaban la animación. Mostró, también, lo simple que resultaba reemplazar la imagen PNG que formaba la celda de las partículas con una simple operación de arrastrar y soltar. Para dar un toque final a la escena, agregó una frase escrita que se formaba con letras que caían desde la parte superior de la pantalla. Nuevamente, sin tener que utilizar keyframes.

Todos los elementos de la escena creada por Mark Spencer fueron animados sin utilizar keyframes de ningún tipo.

La demostración sobre partículas siguió con un ejemplo en el que, utilizando Behaviors, Mark logró que unas chispas creadas con partículas cayeran por efecto de la gravedad y, al llegar a la superficie, rebotaran naturalmente como sucedería en un escenario real.

Las chispas generadas por el sistema de partículas rebotaban en la base y tenían sus correspondientes reflejos.

A lo largo de las dos horas, Mark intercaló demostraciones que generaba desde cero, con algunos ejemplos que tenía ya preparados de antemano que permitían, una vez comprendido el concepto, ver cuán lejos se podía llegar creativamente con las técnicas que mostraba.

Agregando copos de nieve generados por partículas, humo en la chimenea y un movimiento de cámara, la fotografía de la izquierda cobró vida.

Luego realizó una breve explicaciones de los Replicators, una de las funciones clave de Apple Motion, generando un acuario de peces partiendo de una secuencia de imagenes de archivo que animó, nuevamente, sin utilizar keyframes.

Con el uso de Replicators, Mark también creó una transición personalizada para Final Cut Pro X y mostró cómo se pueden publicar los parámetros que deseemos que luego estén disponibles dentro de FCPX.

Los Behaviors de Motion no se limitan simplemente a animar parámetros, y una buena prueba de ello fue la demostración que hizo del Motion Tracking y la posibilidad de utilizar Placehoders para que una animación hecha dentro de Motion pueda tener elementos que se reemplacen desde Final Cut Pro X con clips o imágenes elegidos desde el Event Browser.

Utilizando la herramienta de Motion Tracking reemplazó el contenido de la pantalla de la tableta en una toma hecha con cámara en mano.

Una de las demostraciones que más sorprendió a los asistentes fue la posibilidad de animar elementos en la pantalla según un muestreo de un clip de audio. Mark logró una interesante animación que respondía al son de la música utilizando muy pocos recursos y en apenas un par de minutos.

Partiendo de una fotografía Mark creó una escena en 3D animada a la que agregó texto con sus respectivas luces y sombras.

Para finalizar, Mark hizo una demostración de las capacidades de texto en 3D que tiene Motion creando una escena en tres dimensiones partiendo de una fotografía 2D. En poco más de diez minutos fue capaz de lograr que el escenario creado pudiera ser recorrido por una cámara proyectando luces y sombras de un modo muy realista.

En el encuentro hubo espacio para preguntas y respuestas por parte de la audiencia.

Finalmente, y luego de casi dos horas de demostración, los asistentes tuvieron la oportunidad de realizar consultas específicas sobre Motion y su integración con Final Cut Pro X.

Estando tan lejos de los lugares donde suelen desarrollarse los eventos más importantes sobre Final Cut Pro X y Motion –como son la NAB, Creative Summit, e IBC– contar con la presencia de Mark Spencer en Buenos Aires es sin dudas algo que no sucede todos los días y que resulta de suma utilidad e interés para los usuarios.

Final Cut Pro X 10.4 – Realidad Virtual

Muchos usuarios de Final Cut Pro X ven los anuncios de Apple para la versión 10.4 como algo cuasi irrelevante, sin embargo, es una actualización muy importante y de vanguardia. Es cierto que otros NLE tienen soporte para VR desde antes, pero implementados apenas como un agregado y distan de lo que acaba de anunciar Apple. Alex Gollner, especialista en Motion Graphics y desarrollador de plugins hizo una buena explicación en su blog. Lo que sigue a continuación es la traducción que autorizó a publicar en Final Cut Argentina de su artículo sobre el tema: Apple to introduce next-level professional VR video tools in Final Cut Pro X and Motion 5

Apple introduce herramientas profesionales del siguiente nivel para Realidad Virtual (VR) en Final Cut Pro X y Motion 5

El viernes Apple dejó echar un vistazo a algunas prestaciones que estarán en las próximas versiones de Final Cut Pro X y Motion 5 respectivamente. Entre ellas, Apple agregó flujos de trabajo para HDR, nuevas herramientas de color y VR video (video de realidad virtual) para Final Cut. He aquí un breve análisis de las características de VR que llegarán a FCPX hacia fin de año.

Aunque las herramientas de video esférico ya estén disponibles, el modo en que Apple las ha implementado hace que, por primera vez, estén orientadas a editores (a diferencia de las herramientas actuales que están diseñadas para animadores de motion graphics).

Video VR versión 0: Utilizar plugins para “engañar” a las viejas aplicaciones para trabajar con video esférico

Las aplicaciones actuales de edición de video y motion graphics no pueden manejar video esférico por si mismas. Estas herramientas fueron diseñadas muchos años antes de la popularización del VR y del video esférico. Su arquitectura está diseñada para trabajar con rectángulos de video que se reproducen en pantallas rectangulares.

A medida de que el video VR se volvió más popular, los desarrolladores de aplicaciones encontraron la oportunidad de lograr que las “viejas” aplicaciones funcionen con el nuevo medio. Esto quiere decir, haciendo plugins.

Afortunadamente para los realizadores de video esférico, la industria de video VR logró una forma estándar de mapear el video contenido en una esfera 3D en videos rectangulares con los que esas herramientas para “video plano” estaban diseñadas para trabajar. “Proyección equirectangular” es un término que en geografía define cómo se distorsiona algo de origen esférico –como el globo terráqueo– en un área rectangular (un mapa plano que muestra todos los países del mundo). Como los polos de la Tierra generan relativamente poco interés para la mayoría de las personas que utilizan los mapas, estas partes del globo están muy distorsionados en los mapas rectangulares. No hay distorsión en la línea del Ecuador, pero la distorsión se incrementa a medida que nos acercamos a los polos.

Hasta ahora, el arte de trabajar con video VR tuvo que hacerse lidiando con esta distorsión. Los sistemas que capturan esferas de video tienen como salida video equirectangular. Las aplicaciones de video desconocían el hecho de estar trabajando con esferas de video distorsionadas dentro de rectángulos. Los plugins que aplicaban los artistas de motion graphics a estos rectángulos de video era quienes “entendían” la distorsión equirectangular. El hecho de que el NLE estuviera trabajando con video esférico era algo que lo sabía el realizador, pero no era una característica codificada en el proyecto en el que estaba trabajando.

Desde hace no mucho, los plugins de video VR comenzaron a venir incluidos en las aplicaciones de video, y esas mismas aplicaciones tienen herramientas de previsualización de video esférico que también pueden preparar videos para ser utilizados en dispositivos VR para distribución online utilizando YouTube y Facebook.

Es tiempo de que las aplicaciones de video traten al video esférico del modo en que tratan al video plano.

Video VR versión 1.0: Aplicaciones que entienden el video esférico

La próxima versión de Final Cut Pro X será la primera herramienta de edición profesional que inherentemente entienda el video esférico. Así como hay timelines de video, hay timenlines de video esférico. Los clips son esféricos o planos y trabajan correctamente en sus respectivos timelines. Así como los clips planos tienen parámetros de posición, los clips esféricos tienen parámetros de orientación.

Actualmente, para corregir la orientación de un clip para que su línea de horizonte esté nivelada requiere que el editor aplique un plugin. En la próxima versión de Final Cut, hay un overlay de horizonte.

Vista del Overlay de horizonte y el menú respectivo para habilitarla.

Hay una nueva herramienta de re-orientación disponible para corregir el material que fue grabado con cámaras dispuestas en el ángulo incorrecto.

La nueva herramienta para re-orientar la esfera.

Los editores podrán arrastrar esta nueva herramienta en el viewer para re-orientar el video esférico de tal modo que la línea de horizonte esté nivelada.

Algunos efectos compatibles con video esférico

Hay un nuevo Viewer para dispositivos VR. Esto agrega una vista simulada de un dispositivo VR del entorno esférico actual. Esta vista puede ser recorrida por dentro de la esfera por el editor para obtener una simulación de lo que verá el observador. Si hay un dispositivo HTC Vive VR conectado a la Mac, puede ser utilizado por el director para mirar alrededor de la esfera. El editor puede elegir ver en la dirección de su elección en el Viewer de pantalla, o tener espejada la vista que el director tiene en su dispositivo. Esto significa que el editor puede estar mirando, e inclusive realizando cambios, a algunas partes de la esfera que el director no está viendo mientras el video se reproduce.

Apple anunció que sólo va a haber compatibilidad con el dispositivo HTC Vive directamente con Final Cut Pro X pero de todos modos será posible ver el trabajo en Final Cut con un Oculus DK2 VR utilizando la aplicación 360VR Viewer de Dashwood Cinema Solutions.

Los nuevos controles asociados a este nuevo viewer en Final Cut Pro X incluyen el slider de campo de visión y el reset de la orientación.

Nuevo Final Cut significa nuevo Motion

La próxima versión de Apple Motion 5 puede animar dentro de entornos de video esférico. Los usuarios de Motion podrán animar objetos 2D, texto y partículas en espacio 3D dentro de las esferas de video.

Los efectos en Motion se llaman filtros. Los filtros de Motion pueden, ahora, aplicarse a esferas de video. A diferencia de los plugins especiales que realizan distorsión de una proyección equirectangular en un un video rectangular, los filtros de Motion son compatibles con esferas de video así como con videos planos.

No más manipulación de media equirectangular

La principal diferencia acerca de estas nuevas herramientas es que en las próximas versiones de Final Cut Pro X y Motion 5 trabajan en esferas de video reales. Esto significa que, aunque las formas de importar y exportar esferas de video pueda cambiar, las herramientas de post producción pueden seguir siendo las mismas.

La adquisición de material se basa actualmente en luz pasando a través de lentes hacia sensores rectangulares. En el caso de la adquisición de video, el material capturado con esos sensores rectangulares se combina utilizando matemáticas muy complejas para recrear la esfera de video.

Los videos se muestran en superficies rectangulares planas. En el caso de la mayoría de los videos esféricos la esfera de origen se mapea en rectángulos en frente de los ojos del observador en cascos y en teléfonos móviles.

Conforme los métodos de adquisición y distribución cambien lo único que Apple necesitará hacer es agregar nuevos mecanismos de importación y exportación. La metáfora de post producción seguirá siendo la misma del mismo modo en que se hizo desde que se creó el primer sistema de edición de video basado en computadoras. A lo largo de los años la forma de adquisición cambió de video SD y film a UHD digital y otros superiores. La metáfora siguió funcionando con una grilla de pixels organizados en un rectángulo 2D.

Ahora, junto con los rectángulos, Final Cut Pro X y Motion pueden, también, trabajar con un grupo de pixels organizados en esferas 3D. Mientras que los flujos de trabajo y la distribución puede cambiar, la metáfora seguirá siendo la misma.

Preparando el escenario para Video VR versión 2.0

Esta actualización es mucho más de lo que esperaba.

A comienzos de este año Apple contrató al experto de Video VR, Tim Dashwood. Cuando eso sucedió, su avanzado set de plugins para Motion y Final Cut Pro X pasaron a ser gratuitos a través de su distribuidor, FxFactory.

En junio, Apple anunció que Final Cut Pro X iba a tener soporte de video esférico para la época de Navidad. En ese lapso de tiempo, esperaba que el equipo dedicado a las aplicaciones de video de Apple tuvieran tiempo de re-implementar los plugins de Tim para hacerlos más rápidos y más eficientes. El equipo hizo muchísimo más que eso.

Lograron que miles de diseñadores que utilizan Motion 5 puedan crear contenidos para video esférico haciendo la actualización simple: ¿Quieres hacer video VR? Anima dentro de esta esfera y utiliza las herramientas que habitualmente usas. Realiza buenos trabajos que puedes compartir con editores de Final Cut. Ahora, millones de editores de Final Cut Pro X pueden utilizar la aplicación que ya conocen para crear trabajos dentro de esferas de video.

Una vez más, Apple se hizo cargo de la complejidad tecnológica oculta para que los creativos puedan concentrase en contar historias.

 

Alex Gollner
Final Cut Pro plugins – Editing – Ideas

 

 

Corrección de Color con Chromatic de CoreMelt

0

Final Cut Pro X incluye como herramienta de corrección de color el controvertido Color Board que, para muchos es una herramienta más que suficiente para realizar todos los ajustes deseados; pero otros encuentran las limitaciones que posee un tanto frustrantes. La falta de algunas opciones hace virtualmente imposible conseguir algunos resultados esperables, así como el hecho de que la aplicación de LUT sea un “todo o nada” ya que es un proceso que se aplica en un módulo separado del proceso de corrección de color y que tampoco puede “moderarse” la aplicación del mismo.

También es cierto que existen ya algunas buenas opciones en el mercado de plugins para solventar estas falencias, sin embargo Chromatic es la primera opción realmente integral para hacer corrección de color en Final Cut Pro X. ¿Qué tiene de particular que hace que se destaque por encima del resto?, bueno, veamos.

Chromatic posee las siguientes herramientas:

  • Lift / Gamma / Gain como control general y también para las componentes Red / Green / Blue.
  • Ruedas de corrección de color para Lows / Mids / Highs (similares a las de Final Cut Studio).
  • Un poderoso balance de blancos automático o con selección de muestreo de blanco.
  • Selección precisa y fácil de usar basada en color (color keying) para aislar el tono de la piel o áreas específicas.
  • Balance de color, temperatura, exposición y saturación.
  • Curvas RGB con control preciso y con la posibilidad de agregar puntos ilimitados en las curvas.
  • Curvas de Hue / Saturation / Luma, así como Hue vs. Sat / Hue vs. Luma que permiten una manipulación precisa.
  • Curvas Lab para usos específicos y para solución de problemas.
  • Permite cargar LUT de cámara o LUT con estilos con un navegador que muestra el cuadro actual.

Chromatic posee un ajuste muy preciso utilizando curvas.

La anterior es la lista oficial de características y, si bien está destacada en la web de CoreMelt, una funcionalidad muy importante no está en ese detalle: tiene incluída la posibilidad de hacer Planar Tracking con Mocha (a diferencia de otros productos que podían combinarse con otros plugin de CoreMelt para lograr este efecto).

La interfaz de usuario es simple, suficientemente clara y responde instantáneamente, así como los procesos que se realizan mayoritariamente en tiempo real gracias a que han cuidado desde el desarrollo que el código esté adecuadamente optimizado (a partir de ciertas combinaciones de máscaras y ajustes comienza a requerir renderizado, pero es algo que a nadie debería sorprender ya que es una limitación del hardware que ya conocemos).

Chromatic tiene disponibles ajustes de Gamma / Lift / Gain.

Chromatic incorpora también los LUT básicos para aplicar a las cámaras más populares (Sony A7S2, Panasonic GH5, Blackmagic Design, etc.) y, como oferta de lanzamiento, incluye cinco colecciones de LUT de estilo.

A continuación está el trailer de lanzamiento para que puedan echarle una mirada:

He tenido la suerte de poder probar las versiones beta de este plugin y de poder participar del grupo en el que interactúan los beta-testers y los desarrolladores, por lo que pude apreciar el esfuerzo puesto por parte de la gente de CoreMelt en que este plugin tenga, no sólo excelentes herramientas, sino que el proceso interno de color y los resultados sean realmente precisos y profesionales. Es más, a un par de días de la fecha establecida para el lanzamiento anunciaron las postergación porque habían encontrado una leve diferencia de color resultante según el orden en que se apilaban los procesos –y por leve que fuera esta diferencia– la consideraron aceptable como para lanzar así el producto y esperaron a que estuviera resuelto para anunciarlo oficialmente a la venta (en lugar de dejarlo como un “known Issue” y esperar a la primera actualización para resolverlo).

Una buena noticia es que desde la web de CoreMelt puede descargarse una versión demo gratuita que funciona durante catorce días, tiempo suficiente para decidir por uno mismo sobre las prestaciones del plugin. Recomiendo ver aquí los tutoriales que permiten ver cómo funciona. El precio es más que razonable teniendo en cuenta las funciones actuales que ofrece –y muy competitivo respecto de las alternativas– pero también son muy interesantes las funcionalidades que tienen previsto agregarles en el futuro.

¿Por qué Final Cut Pro X? Todo Lo Demás

0

El siguiente artículo pertenece a ProVideoCoalition. Fue traducido y publicado con la respectiva autorización del autor. En el siguiente enlace puede accederse al artículo original https://www.provideocoalition.com/final-cut-pro-x-todo-lo-demas/

Los logros de Dave Cerf son vastos y variados. Por nombrar algunos: Compuso música The Weather Underground, que le valió la nominación de la Academia a Sam Green; escribió manuales para las versiones clásicas de Final Cut Pro; ha sido asistente de edición de Walter Murch en dos largometrajes: Hemingway y Gellhorn (HBO) y Tomorroland, de Brad Bird (Disney); y fue voluntario en el archivo de video de Dalai Lama en India; recientemente finalizó la música, edición y postproducción para el premiado cuarto film, Todo Lo Demás, de la realizadora mexicana Natalia Almada, con la actuación de Adriana Barraza, nominada para un premio de la Academia.

En mi entrevista con Dave me impresionó la profundidad de su experiencia. Dave habla de su proceso creativo –ritmos de los sonidos y la música, experimentar con la edición de imagen, y la elección sonora– junto con  aspectos técnicas como Phyton Scripts, bases de datos de FileMaker Pro y la potencia y posibilidades del XML.

“Final Cut Pro X permite una gran precisión gracias a su completo set de funciones y una interfaz Ágil” –Dave Cerf, Editor.

Mike Matzdorff: ¿Estuvo la directora involucrada acerca de cómo se hizo la edición? ¿Le preocupaba el tema?

Dave Cerf: Hablando desde un punto de vista técnico, no demasiado. Natalia editó sus tres documentales previos utilizando Final Cut Pro “Clásico”, pero la escala de este proyecto requería un NLE más moderno. Premiere Pro fue considerado inicialmente, pero el lanzamiento inminente de Focus hizo que Final Cut Pro X fuera una opción viable (¡gracias Mike!). Simplemente (que también proveyó la cámara RED y el almacenamiento Quanum) y FCPWorks fueron nuestros consultores y conectaron los puntos de flujo de trabajo sobre los que teníamos dudas.

Como muchos, Natalia experimentó el período de una o dos semanas infame que lleva acostumbrarse a Final Cut Pro X, pero luego navegó sin inconvenientes.

MM: ¿Cómo se relacionó la experiencia en documentales de Natalia con Final Cut Pro X? ¿En qué forma adoptó ella el flujo de trabajo? ¿Hay alguna cosa en particular (o varias) que se destacaran, para Natalia, como un bonus?

DC: Todo Lo Demás fue su primera película de ficción y fue, a la vez, nuestra primera experiencia editando con Final Cut Pro X. Si la película finalizada hubiera sido una ficción más convencional, fiel al guión, creo que hubiera sido complejo de llevar adelante estas dos experiencias primerizas. Tal como resultó, Todo Lo Demás fue editada más como un documental –tomas de una escena fueron usadas más frecuentemente en un contexto completamente diferente– y Final Cut Pro X resultó ser fantástico para esto.

Al comienzo Natalia se preocupó cuando vio esos filmstrips por todos lados. Dijo “Por favor, díganme que hay una vista de lista, que es cómo trabajo en Final Cut [7].” Se alivió de saber que esta opción existía en Final Cut Pro X, pero luego de unos días descubrió la libertad de utilizar el skimming visual a lo largo de todo el Library. Utilizamos la vista de lista rara vez para tareas organizativas como ingresar las notas sobre un Project.

Puede provocar temor abandonar el orden confortable de la vista de lista y reemplazarlo por el skimming de Final Cut Pro X, que al comienzo parece producir que la interfaz de se perciba inquieta y abrumadora, pero luego de un tiempo, los NLE más conservadores parecen no tener vida y no responder en comparación. Visualizar clips en esos entornos es como transitar sobre lomos de burro –una breve desaceleración cuando haces doble click para abrirlo y recién luego continúas– luego quieres abrir otro clip y nuevamente –un lomo de burro– y luego se abre. Llega Final Cut Pro X y esencialmente pulveriza esos lomos de burro dejando el camino libre para acelerar.

Pero no es la velocidad en sí lo que hace esta navegación sin fricción tan maravillosa, sino el hecho de que pasas más tiempo inmerso en la forma visual nativa del material. Hay menos interrupciones en la experiencia de observar y mirar, que es la forma en que te familiarizas con el material. Mientras tanto, la capacidad de buscar dinámicamente con keywords (palabras clave como la locación o el personaje) re-configura el escenario al alcance de la línea de skimming, refrescando y re-cotextualizando el material según los deseos.

Natalia fue capaz de trabajar prácticamente en forma visual y sin tener que lidiar con detalles como el número de escena. Esto hubiera sido imposible en otro NLE. Diría que su proceso documental en realidad floreció en un modo en que no hubiera sido posible hacerlo antes; ¡y ni siquiera estábamos haciendo un documental!

MM: ¿De qué modo la capacidad de buscar utilizando keywords o metadatos afecta la organización convencional de los proyectos (como los Bins)?

DC: Sigo recomendando el método básico de organización (un Event por día de producción para ficción, un Event por locación o personaje y/o por día de rodaje para documentales). Aún necesitás un editor o asistente experimentado con conocimientos para que esto suceda.

MM: ¿Entonces lo que estás diciendo es que Final Cut Pro X no resuelve mágicamente los problemas de organización?

DC: Si te tomas el trabajo de agregar metadatos y keywords, y sumas la asignación automática de roles vía el iXML de sonido de producción, en realidad, Final Cut Pro X tiene cierta calidad organizacional mágica. No es tanto que elimine la tarea de organizar sino más bien que no te encuentras limitado a la organización básica con la que comenzaste. Inicialmente organizamos los Events por día de rodaje, pero no creo que hayamos mirado los clips de ese modo. En cambio, utilizamos organización por escena, personaje, hora del día, locación e inclusive combinaciones de todo eso. Puedes ajustar tu estrategia organizacional sobre la marcha, agregando nuevos keywords a medida de que te familiarizas con el material.

El proceso creativo es inherentemente caótico, lo que generalmente entra en conflicto directo con el orden que el trabajo colaborativo requiere. Apple reconoció la necesidad dual de experimentar libremente y mantener el orden de un modo que no hemos visto en ningún otro lado… y no sólo en el Browser. El hecho de que los clips se aparten de tu camino mientras haces Trim en el Timeline es desprolijo según los estándares de edición ya que, tradicionalmente, quieres controlar adónde va cada clip; pero luego agregaron roles para que puedas dejar esas preocupaciones de lado en medio del Trim, el momento en que menos te importa la organización.

Para que todo esto funcione tienes que aprender a confiar en los metadatos, y eso toma tiempo y experiencia. Todos los involucrados en el equipo, comenzando desde la pre-producción deberían comprometerse en un flujo de trabajo de metadatos efectivo.

“Final Cut Pro X libera tiempo para el trabajo creativo porque el software es muy efectivo buscando y visualizando la media” –Dave Cerf, Editor

MM: ¿Puedes compartir algo desde tu proceso creativo personal en cuanto a de qué modo Final Cut Pro X te beneficia?

DC: Para mí, la edición se compara con una performance musical, y el software es el instrumento del editor. El grado de maestría sobre el instrumento determina cuán lejos puede ir un músico motivado (considera el rango de posibilidades de un piano, desde “Estrellita dónde estás” a la virtuosidad de Chopin)

Creo que Final Cut Pro X permite una gran precisión gracias a su completo set de funciones y una interfaz ágil. Por ejemplo, puedes comenzar editando con el Blade Tool, luego volverte más veloz cuando descubres Command-B, luego más rápido utilizando comando como Trim Start y Trim End. Existe, inclusive, la posibilidad de editar durante la reproducción. Esto es habitual en software DAW como Pro Tools, pero inusual en un NLE de video. Puede que no lo uses de entrada porque te parezca apabullante al comienzo, pero una vez que obtienes cierta “fluencia temporal” es posible mirar una parte del Timeline mientras ajustas otra parte.

Cuando tengo una idea de edición (“cambiemos el orden de estas tomas”), debo traducir esa idea en una secuencia de acciones de edición y luego ejecutarlas tan rápido como pueda antes de que yo (o el director) pierda la paciencia. Hablando musicalmente, es como escuchar una melodía en tu cabeza y querer ver cómo suena en voz alta. Con Final Cut Pro X puedes aprender a expresar esa idea tan pronto como la concibes. Puede que no suceda tan fácilmente en la primera semana, pero eventualmente…

La facilidad con que se aprende “Estrellita dónde vas” en el piano no impide la ráfaga de arpegios de Chopin, y así pareciera ser con Final Cut Pro X.

MM: ¿Hay escenas que hayan evolucionado más allá del guión original durante el proceso de edición?

DC: Antes del guión, Natalia escribió prosa imaginando los pensamientos de su personaje mientras escuchaba los sonidos de la ciudad recostada en la cama por la noche. Había un pasaje en el que Flor, el personaje principal, escucha a un vecino tocando el piano mientras una luz fuera de su ventana pulsa intermitentemente. Está también el ritmo de su respiración mientras ella deja ir el día y se va quedando dormida. Ella desea desea que se alineen todas esas disparidades, así como la integración de viejos sentimientos sin resolver en su vida actual.

Cuando la prosa se convirtió en guión, muchos de esos detalles se perdieron. Releer el pasaje original me recordó a ese fenómeno que se da con el sonido de la señal de giro del auto yéndose fuera de sincronismo con la luz del auto que está delante. Mirar como entra y se va de fase puede ser hipnótico.

Teníamos una toma de Flor recostada en la cama con la luz de la ventana gentilmente desvaneciéndose y volviendo, su rostro entrando y saliendo en la oscuridad. Para construir la escena, comencé haciendo una música de piano en Logic Pro X, la procesé como viniendo de otra habitación. Pero sin importar cuánto intentáramos que ese piano se sintiera como parte del ambiente, sugería ser una banda sonora en lugar de una persona practicando en otra habitación. El punto de la escena era el ritmo, pero el contenido armónico producía distracción. Así el piano, el elemento sonoro principal de la escena en el guión, debió eliminarse, dejándonos sólo con el sonido ambiente. Agregamos el tic-tac de un reloj, que contrastaba con el pulso de la luz y proveía algo de esa sensación de “fuera de fase” de las luces de giro que mencionaba, pero aún necesitábamos encontrar aquellos elementos que, eventualmente, produjeran la alineación.

Una técnica que aprendí de Walter [Murch] es editar las escenas en silencio antes de agregar ningún sonido. Para esta escena intenté exactamente lo opuesto, bocetando sólo sonidos sin imagen. Comencé con sonidos de ambiente de la ciudad y del tic-tac del reloj, pero sin imagen habíamos perdido la presencia de Flor en la escena, así que agregué sonidos muy sutiles de respiración. Parece bastante obvio en retrospectiva, pero no creo que se nos hubiera ocurrido agregar esos sonidos de haber trabajado con imagen porque Flor ya estaba en la imagen. En el boceto de sólo sonido, ella no existía hasta que agregamos la respiración.

Cuando volvía a habilitar la imagen, descubrí el trazo del monitor de forma de onda movíendose arriba y abajo junto con el pulso de la luz de la escena. Parecía un dispositivo médico midiendo la el ritmo de la respiración de alguien. Ahora teníamos dos elementos de respiración, la luz y Flor. Me pregunté si podríamos controlar de algún modo el volumen de un clip de audio directamente desde el monitor de forma de onda. En otras palabras, tal vez podíamos darle a la luz su propio sonido.

Intenté con un efecto Tremolo en Logic Pro X (convenientemente también disponible en Final Cut Pro X), que varía el volumen de un clip a intervalos regulares, pero para apreciar realmente el efecto necesitas un sonido contínuo como ruido blanco, el océano, o… el ambiente de una ciudad.

Finalmente, teníamos todos los ingredientes para expresar esta convergencia de elementos distintos, tanto en imagen como en sonido. El reloj establecería un ritmo y la luz, otro. A lo largo de la escena, la pulsación del sonido de la luz pulsante se volvería más pronunciado, cambiando desde un sonido de fondo inconsciente hasta ser el foco de la escena. Eventualmente reemplazamos el efecto de trémolo con keyframes de volumen utilizando el waveform como guía.

Nos referíamos al efecto como “la respiración de la luz”. El trabajo en Final Cut Pro X sirvió como una plantilla para una automatización más detallada en Pro Tools. En la mezcla final, para mi, se siente como que el film mismo respira. De verdad me encanta cuando del diseño de sonido puede asumir el típico rol de la música.

MM: ¿Cuanto integraste con Logic Pro X?

DC: No creo que sea justo denominarlo como que hicimos “integración”, pero usé Logic Pro X en una buena medida, como como cuando creé los bocetos de sonido sin imagen que mencioné. Donde fuera que el diseño de sonido invitara a un elemento más musical como un piano, se hacía conveniente abrir Logic, grabar, exportar e importar luego a Final Cut Pro X.

Algunas veces creé algunas cosas en Logic en las que simplemente importar la mezcla en Final Cut Pro X era insuficiente, como cuando queríamos personalizar algunos parámetros de algunos efectos de sonido en relación con la imagen. Como ambas aplicaciones utilizan las mismas Audio Units, era fácil recrear algunos segmentos de Logic en Final Cut Pro X.

Utilicé también Logic Pro X para componer la música y generar las partituras y los archivos MIDI para los músicos en Nueva York.

Creo que Logic fue una de las mejores historias de adquisición en las divisiones de software de Apple. La última versión se siente como un software completamente moderno aunque sus orígenes se remonten hasta los noventas. Me gustaría una más profunda integración entre Final Cut Pro X y Logic, pero a la vez, creo que el equipo de Final Cut Pro ha estado realizando un excelente trabajo con las características de edición de audio, por lo que ya no se siente tan imperativo como solía serlo.

MM: Como supervisor de post-producción, ¿dónde específicamente Final Cut Pro X te ha ahorrado tiempo y/o dinero y cómo de qué modo encaraste la película y la producción desde esas distintas perspectivas?

DC: Final Cut Pro X liberó tiempo para el trabajo creativo debido a que el software es muy efectivo buscando y visualizando media. También ahorramos una considerable cantidad de dinero manteniendo algunas tareas in-house. Hicimos mucho pre-conformado en Resolve y Pro Tools antes de comenzar para asegurarnos de que encontráramos los errores antes de que se vuelvan un problema de costos en las distintas facilidades de finalización.

Tuvimos, además, la flexibilidad para desarrollar las herramientas específicas para nuestro flujo de trabajo. Nuevamente, esto puede tomar más tiempo, pero nos ahorró dinero, y no tuvimos que negociar con desarrolladores cuyos calendarios pudieran no haberse ajustado a las necesidades de nuestro proyecto.

Como editor, no podía poner excusas en cuanto a que el flujo de trabajo se interpusiera porque era quien estaba desarrollándolo como supervisor de post-producción. Como supervisor de post-producción, mi flujo de trabajo debía acomodarse a mis necesidades creativas como editor.

Creo que cumplir ambos roles me forzó a encontrar una separación saludable entre las preocupaciones creativas y técnicas. Por ejemplo, editando a veces tenía ideas en la sque hubiera escuchado la voz del supervisor de post-producción diciendo “No hagas esos cambios. Piensa cómo van a afectar en la devolución de VFX la semana próxima”. Me hubiera recordado a mi mismo que podía pensar en los aspectos técnicos más tarde, pero en el momento necesitaba tan solo editar.

“Tienes que aprender a confiar en los metadatos, y eso toma tiempo y experiencia. Todos los involucrados en el equipo, comenzando desde la pre-producción deberían comprometerse en un flujo de trabajo de metadatos efectivo.” –Dave Cerf, Editor

MM: Has trabajado en tres países en dos continentes, ¿la edición te acompañó? En ese caso, ¿puedes comentar sobre tu portabilidad?

DC: Nuestro objetivo de mobilidad fue simple: poder editar donde fuera con una complicación mínima de conexiones.

Nuestra base se movía entre la ciudad de México, San Francisco y Marin Headlands. Esos sistemas no eran particularmente portátiles (una Mac Pro, dos pantallas y los parlantes estéreo). Natalia también trabajó en la película en distintas residencias de arte donde utilizaba una MacBook Pro, una pantalla adicional calibrada y auriculares (Como nota al margen: creo que la interfaz refrescada de Final Cut Pro X 10.3 va a hacer más cómodo editar en pantallas pequeñas).

Elegimos un flujo de trabajo con copiones en ProRes 422 (1920 x 1080, 4Tb en total) por sobre usar archivos RAW RED (3792 x  3160, 20+ Tb en total), que fue el factor principal en términos de portabilidad. Teníamos tres copias de estos ProRes –dos en la sala de edición en locación (ej: San Francisco) y una en nuestra base (ej: México). Nuestro flujo de trabajo diario fue suficientemente robusto del modo que aún si perdiéramos todos los ProRes, podríamos regenerarlos a partir de los archivos RAW, así que tres copias eran suficientes.

En su mayor parte, la edición fue hecha serialmente (entendiendo por esto que sólo una persona actualizaba el timeline de la película a la vez). En los casos en que editábamos en diferentes locaciones simultáneamente, duplicábamos el Library en dos copias que, eventualmente iban a terminar siendo diferentes, y luego manualmente las uníamos cuando se ambas juntaban físicamente.

MM: ¿Cómo fue esa parte del proceso, agregar los cortes de un editor al Library del otro?

DC: Realmente bien –a lo sumo algún re-linkeo ocasional cuando alguna grabación en off (ADR) se hubiera grabado dentro del Library Package y no haya sido enviado con el Library de tránsito. No aseguramos que todos los discos rígidos con copiones tuvieran el mismo nombre (“TLD_Edit”) de modo tal que Final Cut Pro X no tuviera que “preocuparse’ reconectando a un disco con un nuevo nombre.

MM: Trabajaron intensamente con FileMaker Pro. ¿Puedes hablar un poco sobre el proceso, así como de qué modo Sync-N-Link X y tus códigos de Python personalizados te fueron de utilidad?

DC: Nuestra base de datos de FileMaker fue una versión evolucionada de la bitácora de logueo que Walter Murch estuvo desarrollando durante varias décadas. En los últimos cinco años logré conocer íntimamente esta base de datos, por lo que cualquiera  que esté familiarizado con el Log Book reconocería el espíritu en Todo Lo Demás, aún habiendo sido creada desde cero.

Pusimos un montón de cosas dentro de FileMaker y luego tratamos de incorporar todo lo posible vía XML en Final Cut Pro X. FileMaker es realmente bueno correlacionando datos, pero es es evidentemente mucho más conveniente que toda esa información esté dentro de tu NLE. En Final Cut Pro X 10.3, todos los metadatos pueden ser buscado, con lo que podés encontrar cosas basándote en las notas del supervisor de guión, reportes de cámara como el tipo de lente, etc.

Los scripts de Python (en un contenedor de AppleScript para que soporte arrastrar y soltar) fueron usados para dar formato o extraer metadatos de la media hacia un formato tabulado amigable para FileMaker. Se utilizaron plantillas XSL (el método preferido por FilmMaker para transformar datos XML) a fin de importar los formatos de archivo XML.

Se usó Python también para extraer, alterar o mezclar datos en los eventos FCPXML. Para mantener nuestras herramientas portables entre los distintos sistemas, limité las bibliotecas de software involucradas a aquellas incluidas en OS X.

Aquí hay algunos ejemplos de lo que importamos en FileMaker:

  • El guión o screenplay (ya que Final Draft ahora utiliza un formato XML), incluyendo la lista de escenas, locaciones y conteo de páginas.
  • Todos los metadatos de producción, tanto humanos como generados por el equipamiento. Cada tipo de reporte (de cámara, de sonido, o notas de guión) tenía su propia tabla, así como había otras para R3D, RDM, y metadatos WAVE de Broadcast.
  • Las capturas (still) marcadas en REDCINE-X PRO mientras se procesaban los dailies.
  • Los file paths (recorridos de directorio) de todos los clips RAW (R3D, WAVE) y dailies (ProRes).

Tener toda esa información en una aplicación fue útil, pero donde FileMaker realmente brilla es en su capacidad de relacionar los datos entre tablas. Por ejemplo, si el reporte de cámara, las notas de guión y los metadatos R3D contienen el mismo nombre de clip (A019_C008_0403Y7) podés ver toda la información sobre esa toma en los distintos departamentos y dispositivos en una vista unificada.

Esto también sirve para detectar errores como clips que tengan mal el nombre o cuando los reportes de cámara o guión erróneamente describen dos tomas cuando en realidad hubo una sola (porque la cámara no se detuvo luego de que dijeron “corte!”). Hemos llamado a esta corrección de errores “Resolución de Conflicto”. Ya lo utilicé en tres películas ya, aunque esta vez fue la primera en que pude detectar cuándo sucede, que debe ser idealmente antes de que los dailies se generen. Corregir tempranamente los metadatos previenen errores que pueden proliferar durante la edición, el sonido o el color.

Los dailies se generaron programaticamente utilizando un script Python que disparaba un redline (un comando de la versión de REDCINE-X PRO de RED). El script obtenía los metadatos de FileMaker Pro para crear versiones de la media con metadatos sobreimpresos, incluyendo cosas como el nombre de cada canal de audio (la gente del equipo de audio encontraron útil poder saber qué audio estaba disponible en una toma por el sólo hecho de ver los metadatos “burn-in” en la imagen).

En términos de integrar la base de datos de FileMaker con nuestra biblioteca de Final Cut Pro hicimos algo como Shot Notes X, pero de un modo más completo (aunque mucho menos amistoso desde el punto de vista del usuario). Toamos todos los metadatos que cruzamos en FileMaker Pro y los pusimos en nuestra biblioteca de Final Cut Pro X. A continuación están los comentarios introductorios del script que realizó dicha tarea:

Terminamos con un número de campos de metadatos (todos con el prefijo TLD) que podían visualizarse en el Inspector. En Final Cut Pro X 10.3, toda los estos metadatos pueden buscarse. Aún deseo que hubiera una forma de mostrar todos esos metadatos en un sobre-impreso en el Viewer ya que los “burn-in” no siempre cuentan toda la historia.

MM: ¿Trabajaron con reportes electrónicos de la supervisión de guión para la cámara y el sonido?

DC: Buena pregunta. Creamos una base de datos de FileMaker Go para los reportes de cámara. El supervisor de guión era un aferrado al lápiz y papel, así que cargaba en un Excel los datos al final de cada jornada de producción y yo lo importaba a FileMaker.

MM: Pareciera ser mucho trabajo extra por la entrada doble. ¿Harías lobby para alguna adaptación electrónica en el futuro? ¿Claquetas inteligentes?

DC: Creo que digitalizar el proceso de supervisión de guión haría las cosas más eficientes, pero he cambiado mi idea desde “digital a cualquier costo” en favor de cualquier sistema que haga que cada miembro del equipo pueda trabajar más efectivamente. Pedirle a Néstor, nuestro supervisor de guión, que trabaje directamente en Excel o en FileMaker en el set (algo que hice al comienzo) lo hubiera hecho ir mucho más lento. En este caso, que hiciera la doble entrada fue la solución más efectiva aún cuando tomó más tiempo y esfuerzo. A través de distintas disciplinas (no sólo en filmación), el papel y las tijeras pueden ofrecer algunas cosas con las que los sistemas digitales aún no pueden competir: economía, durabilidad de los materiales y no tener limitaciones de formato (se puede escribir en un papel aunque no encuentres cuál es el campo correcto donde hay que ingresar la información).

El lápiz y papel no se reemplaza facilmente, pero cada paso hecho en favor de potenciarlos con soluciones digitales serán probablemente adoptadas, más allá de la producción de películas.

En la producción con la que fantaseo siempre habría un desarrollador a mano, que sea igualmente capaz en términos de diseño de interfaz e ingeniería. Esa persona visitaría el set y la sala editorial regularmente observando los desafíos en ambos lados y desarrollaría prototipos de soluciones que pudieran torcer el flujo de trabajo real.

En un escenario aún más fantasioso, una nueva ola de herramientas de programación más accesible permitiría a los editores y al equipo de producción crear los flujos de trabajo que necesiten sin depender de programadores.

MM: ¿Alguna reflexión sobre programas como ScriptE o algún otro para el supervisor de guión?

DC: Para supervisores que se encuentran cómodos con ellas creo que las herramientas digitales como ScriptE son un win-win para ambos, el supervisor y el departamento editorial. No he visto salidas de XML de ScriptE últimamente –pueden ser radicalmente distintos ahora– pero trabajé con ellos cerca del 2011 para lograr obtener un set de campos exportables para nuestra producción que funcionaron sin inconvenientes.

Sin embargo, no me preocupo realmente por los supervisores que ya han adoptado herramientas digitales. Son aquellos que han encontrado que las herramientas digitales son incompletas a quienes debemos prestar mucha atención. No siempre es el miedo al cambio lo que causa que alguien se resista a las nuevas herramientas; a veces las nuevas herramientas son simplemente menos eficientes.

MM: ¿Podés hablar sobre tu proceso para el rol de créditos?

DC: Nuestro rol de créditos fue creado in-house utilizando Illustrator y After Effects, pero el flujo de trabajo al que nos llevó fue de algún modo interesante. Descubrimos que la gente en el equipo pasaba un largo “viendo” la lista propuesta de créditos cuando era enviada en Plain-text de una planilla de cálculos, así que creamos una forma de crear roles de créditos online en HTML, hechos en un lenguaje simple de markup. Lo único que tenías que hacer era enviar a la gente una URL y ellos verían los créditos animados, con el formato como si fuera el definitivo. Echen un vistazo a este enlace: http://davecerf.com/scrolldown/ (tienen que refrescar el navegador cuando miran las páginas de ejemplo).

“Ver los nombres de cada personaje en cada track de audio fue realmente útil durante el proceso editorial, y que esos nombres llegaran al Pro Tools fue también fantástico” – Dave Cerf, Editor

MM: Por favor, hablá un poco de tu uso de los Roles.

DC: Tuvimos algunos roles: Diálogo, Música, Effectos, TV/Radio, y Master (usado hacia el final cuando incorporamos mezclas de ProTools a nuestros proyectos). Hubieron unos cincuenta subroles de Diálogo para los distintos personajes de la película, todos generados automáticamente vía Sync-N-Link X.

Me gusta hacer mucho diseño de sonido durante la edición, así que el manejo vertical de los clips de audio se volvió complicado, especialmente para Natalia que estaba más enfocada en la imagen, pero tuvo que lidiar con todo el audio que agregué. Si hubiéramos usado Final Cut Pro X 10.3 esto no hubiera sido un problema (pero todavía usábamos la versión 10.2).

Obviamente, la ausencia de tracks es uno de los aspectos más criticados de Final Cut Pro X. Voy a arrojar mis dos centavos aquí: Si, hay algo válido sobre los tracks… hasta que no teens suficientes de ellos y necesitás uno más, o tenés demasiados y eso se convierte en un dolor de cabeza para navegarlos. Elegir una plantilla estricta al comienzo del proyecto (“Cuatro tracks para el diálogo, así es como va a ser”) puede causar tensión innecesaria entre los editores y sus asistentes. Los editores se enfocan en desarrollar el plato más sabroso, independientemente de cuánto desorden dejen en la cocina. Los asistentes quieren mantener las cosas ordenadas todo el tiempo por si imprevistamente les piden enviar algo al departamento de sonido.

Final Cut Pro X resuelve esto ayudando a hacer espacio vertical para los clips cuando se los necesite automáticamente, en medio del trim. Encuentro esto absolutamente satisfactorio cada vez que sucede. La asignación de Roles mantiene al asistente de edición calmo (sea que se trate de una persona real o sólo de una voz ansiosa en tu cabeza) porque los roles se mapearán a tracks (en Pro Tools, más probablemente). En otras palabras, el proceso de limpieza es automático mientras hayas asignado apropiadamente los roles por adelantado. Y en la versión 10.3, hasta puedes tenér una vista del timeline similar a la de los tracks, que se va a ver muy similar a la disposición que finalmente vas a ver en Pro Tools.

MM: El trabajo de audio fue hecho en Skywalker y Arte Sonico. Cómo recibieron el proceso de Final Cut Pro X en el mundo del sonido?

DC: Primero que nada, estamos muy agradecidos por la oportunidad de mezclar con Lora Hirschberg en Skywalker. Todos allá se preocupan por su tarea y tienen los recursos para hacer las cosas bien.

Utilizamos X2Pro para generar Un AAF para cada reel y luego los convertimos a sesiones de Pro Tools que le entregamos a nuestro diseñador de sonido, Alejandro de Icaza, en Arte Sonico. Esto significó un poco más de esfuerzo de nuestro lado [editorial], pero quería estar seguro de que las sesiones estaban bien organizadas para el intercambio y de que los clips del timeline sobrevivieran la conversión.

Trabajamos en Skywalker sólo por unos días, para la mezcla final. Como recibieron las sesiones de Pro Tools de Arte Sonico, no sintieron el impacto de nuestra elección al utilizar Final Cut Pro X.

El acercamiento basado en roles implica algunas diferencias frente los típicos AAF (u OMF) de 8-24 tracks a los que las casas de audio suelen estar acostumbrados a recibir desde otros NLE. Aún con las mejores intenciones, cualquier cosa fuera de lo convencional puede incomodar inicialmente a los planes establecidos. Tomará tiempo para darse cuenta de que el flujo de trabajo de X2Pro puede, en realidad, remover pasos tediosos, como proveyendo el tracks con los nombres incluyendo todo el audio de producción en el timeline (en lugar del clásico flujo de trabajo donde los editores trabajan sólo con los tracks con mezcla de producción, donde el departamento de sonido es responsable de alinearlo con los otros tracks de audio de producción).

Algo que haría distinto sería convertir nuestros audios de producción polifónicos a monofónicos antes de hacer los dailies. El audio polifónico funcionó bien en Final Cut Pro X, pero Pro Tools no pudo relinkear el AAF a esos archivos. Haber sido capaces de relinkear directamente a nuestra media de producción en Pro Tools nos hubiera permitido generar AAF de sólo edición (por ejemplo, sólo la información del clip, sin la media), permitiéndonos enviar cambios a Arte Sonico por e-mail en lugar de pesadas subidas que pesaban cientos de megabytes. Esto hubiera sido crítico para un proyecto con intercambios más frecuentes, pero entonces, hubiéramos testeado eso más profundamente antes.

Creo que Raul Locatelli, quien hizo sonido en el set, estaba impresionado más que nadie porque le pedimos que nombrara los tracks en el set (por ejemplo, el flujo de trabajo de metadatos iXML). Era un hombre que trabajaba solo (inclusive manejando el boom), por lo que no quería desperdiciar energías entrando metadatos si no íbamos a usarla. Muchas de las producciones en México aún utilizan Final Cut Pro 7, y los metadatos rara vez sobreviven hacia las etapas finales de post producción. Le mostré nuestro flujo de trabajo con Sync-N-Link X y los Roles de Final Cut Pro X y eso lo motivo para ingresar los datos. Ver el nombre de los personajes en cada track de audio de producción fue realmente útil durante la edición, y que esos nombres llegaran a Pro Tools fue también fantástico.

Creo que una de las razones por las que los flujos de trabajo de metadatos se han adoptado tan lentamente, independientemente de sus ventajas potenciales, es que las personas que ingresan los metadatos necesitan ver los beneficios del trabajo extra, si es que no se benefician directamente. Negociar el flujo de trabajo de los metadatos, sea con el equipo de sonido, con el supervisor de guión, o con el departamento de cámara, es una calle de doble vía. Por ejemplo, si los operadores de Pro Tools nunca utilizan los metadatos que costó ingresar, los sonidistas de producción dejarán de esforzarse por almacenarlos, lo que garantiza que el operador de Pro Tools no los verá, y así sucesivamente.

“Natalia pudo trabajar prácticamente por completo visualmente sin preocuparse por los números de escena. Esto hubiera sido imposible con otros NLE” – Dave Cerf, Editor.

MM: ¿Cuáles son algunas de las ventajas sobre Avid que vienen de la mano de Final Cut Pro X en tu opinión?

DC: Pienso que mis razones para que me guste Final Cut Pro X, Final Cut Pro 7 e incluso Premiere por sobre Avid puede ser un poco oscuro: las posibilidades de extender el software más allá de su diseño original via scripting, XML y similares. Final Cut Pro X carece de soporte de scripting, pero es increíble lo que se puede hacer con un formato legible por humanos como el FCPXML (comparado, por decirlo, con AAF, que es impenetrable para todos salvo para los ingenieros más dedicados).

Prefiero la administración abierta de media donde puedes importar prácticamente cualquier formato e intentar editar directamente. Los fanáticos de la administración de media de Avid podrán discutir correctamente sobre los riesgos de esta posibilidad, pero pareciera que todo el debate se reduce al gusto persona: una solución de una caja negra rígida versus algo suficientemente flexible como para darte un tiro en tu propio pie.

Final Cut Pro X hace un trabajo realmente bueno con la edición de audio: los fade handles son realmente un placer, y amo la posibilidad de editar al nivel sub-frame sin necesitar ningún conocimiento especial, simplemente funcioina. (¿Has visto alguna vez qué sucede entre Media Composer y Pro Tools debido a las limitaciones del lado de Media Composer?).

MM: ¡Si, lo hice! Si tuvieras que elegir tres cosas que hayan hecho tu trabajo mejor gracias a Final Cut Pro X, ¿cuáles serían?

DC: Primero buscar en el Browser y en el Timeline Index. La película fue filmada de una forma de algún modo modular, así que estuvimos constantemente tomando clips de una escena y utilizándolas en otro lugar. Recientemente hice una animación mostrando la distribución de las tomas en la película basadas en la escena asignada originalmente:

MM: Me gusta trabajar con nombres de “sección”. Asignaría tres o cuatro escenas secuenciales “el fuego del hotel” o algo similar, más que con el número de escena. Creo que los números son irrelevantes luego de la filmación y hasta que termina la edición.

DC: Es interesante escucharte decirlo. Hicimos algo similar. La película tiene lugar a lo largo del curso de varios días (en tiempos narrativos), así que cada escena, y por tanto cada toma, perteneces a una “Súper Categoría” llamada “Día”. Por ejemplo, podíamos buscar todas las tomas donde la actriz tenía un vestuario particular buscando las tomas asignadas a “Día 3” en el guión. Esto no es lo mismo que el día 3 de filmación (tiempo de producción), que también podíamos buscar.

MM: Bien, ¿qué es lo segundo que te hizo la vida más simple?

DC: Los Split Edits y los Audio Components. Nunca me cansé de ese sentimiento mágico al abrir un clip y extender el componente de audio mientras que los otros clips de audio del timeline se movían de mi camino. Este gesto de expandir/contraer se volvió tan intuitivo para mi que lo extraño cuando debo volver a otros NLE.

Notamos que los Split Edits contraídos, especialmente cuando son muy largos, pueden causar mucha confusión (escuchas un sonido pero no puedes descubrir de qué clip viene el audio porque está en realidad oculto en un Split contraído). Imagino que esto puede resolverse de algunas formas en el interfaz.

MM: ¿Y el número tres?

DC: La reproducción nunca se detiene. No estoy seguro sobre cuánta gente piensa sobre esto, pero Final Cut Pro X hace un trabajo muy sorprendente reproduciendo aún mientras editas. Esto es algo que siempre disfruté en Pro Tools. Se siente como que el sistema realmente puede ir a la par tuya a medida de que mejora tu maestría en el software. Es realmente muy difícil ahora para mí trabajar con un NLE que detiene la reproducción todo el tiempo. El sólo hecho de poder mantener la reproducción mientras paso a otra aplicación se siente mágico comparado con lo que sucede con Final Cut Pro 7.

Quisiera agregar un cuarto punto, porque tres no fue suficiente.

MM: Genial, ¿cuál sería el cuarto?

DC: He hablado sobre las formas en que utilizamos el XML en este proyecto, pero existe un principio más amplio aquí: Si Apple no se preocupara genuinamente por los flujos de trabajo profesionales, nunca hubieran incluido FCPXML. Las API y los formatos de intercambio son un reconocimiento del desarrollador de que ellos no pueden anticipar (o seguir a la par) todas las necesidades o características. Aún si nunca has utilizado FCPXML directamente, puedes beneficiarte de ello utilizando software que soporte formatos de intercambio.

Hay algunas idiosincracias que aprender, pero la curva de aprendizaje del XML empalidece comparado con el estándar AAF. Allá por los días de Final Cut Pro 4, Apple pudo haber elegido AAF como formato de intercambio, pero afortunadamente no lo hicieron. Probablemente encontraron muy difícil de mantener el soporte de AAF y crearon xmeml (El XML de Final Cut Pro “clásico”) en su lugar. Obviamente, despegó tanto que Premiere Pro, un competidor, se apoya en él como su principal formato de intercambio (han comenzado, incluso, a personalizarlo para sus propios fines). Es muy difícil hacer un formato de intercambio robusto y flexible, y Apple lo hizo dos veces ya, primero con xmeml, y ahora con FCPXML. Esto es lo que más extraño cuando estoy trabajando con un proyecto de Avid.

El nivel de creatividad y experiencia técnica de Dave, Natalia y su equipo ha sobrepasado mi propia experiencia y ha abierto mis ojos al poder disponible tanto dentro como fuera de Final Cut Pro X. Todo lo Demás fue una película anamórfica a 6K que cumplió los mismos estándares que películas con presupuestos cien veces mayores (gastaron menos de un millón de dólares). Este artículo y las experiencias compartidas debería servir como un mapa de ruta para futuros usuarios que quieran la libertad creativa y la profundidad técnica que Final Cut Pro X provee.

Enlaces recomendados: 

The Weather Underground: http://www.imdb.com/title/tt0343168/

Walter Murch: https://en.wikipedia.org/wiki/Walter_Murch

Hemingway and Gellhorn: http://www.imdb.com/title/tt0423455/

Tomorrowland: http://www.imdb.com/title/tt1964418/

Todo Lo Demás: http://www.altamurafilms.com/todolodemas.html

“he volunteered [Dalai Lama]”: http://davecerf.com/FourThree/2012/05/

Adriana Barraza: https://en.wikipedia.org/wiki/Adriana_Barraza

Simplemente: http://www.simplemente.net

FCPWORKS: http://www.fcpworks.com

 

Mike Matzdorff

Mike Matzdorff fue el asistente de edición principal en el primer film de gran presupuesto de Hollywood editado con Final Cut Pro X y escribió un libro sobre la experiencia repleto de tips y trucos en el mundo real y técnicas de flujo de trabajo probadas. Es también un escritor, director y editor. Mike ha pasado más de 20 años en salas de edición de largometrajes de ficción y programas de televisión que han ganado premios Emmy, incluyendo El Club de la Pelea, Analízame, Last Comic Standing y Monk. Mike vive en Los Angeles y trabaja actualmente en animación, algunas de las que han sido nominadas para los premios Annie 2016.

 

 

 

 

 

 

Organización colaborativa con MergeX

0

Quienes sostienen que Final Cut Pro X no se lleva bien con el trabajo en equipo, ahora tienen una razón más aún para estar equivocados. Merge Software, una compañía formada por dos personas (una de ellas, un argentino) desarrolló MergeX, una aplicación tan simple como poderosa que permite trabajar a dos editores (o un editor y un asistente) con un mismo Event en simultáneo y luego consolidar el resultado en uno solo.

Si utilizáramos el la función incorporada en Final Cut Pro X para mezclar dos eventos (merge) tendríamos como resultado clips duplicados. Esto sucede porque Final Cut Pro X necesita conservar los metadatos de ambos clips cuando se encuentra ante un conflicto dado por metadatos distintos entre el de uno y otro evento. En cambio, MergeX, nos permite elegir a quién prioriza en el caso de encontrarse con una situación así para los siguientes atributos: Clip Name, rating, Marker, Metadata y Role. Un detalle a destacar es que, en el caso de los keywords, tiene en cuenta el rango en que están aplicados, por lo que sólo será sobrescrita la parte necesaria y no todo el clip.

MergeX es muy simple de utilizar, basta con arrastrar y soltar ambos FCPXML y elegir cuál tiene prioridad en caso de conflicto.

Esta herramienta es muy útil para cuando queremos que un asistente pueda organizar el material, marcar escenas, asignar los roles, etc. y poder visualizar nosotros a la vez el material teniendo la posibilidad de ir haciendo nuestras propias marcas y selecciones. Una vez que nuestro asistente haya terminado, podremos unir ambos eventos casi instantáneamente gracias a MergeX.

MergeX funciona con todos los tipos de clips, incluyendo los sincronizados, multicámara y compound clips.

Si no queremos que se procese algún metadato en particular, bastará con seleccionarlo en las preferencias de la aplicación.

Las preferencias de MergeX ofrecen funcionalidades adicionales.

Más allá de que no lo mencione el sitio web de Merge Software, se pueden combinar los resultados de tantos editores y asistentes que queramos; para ello bastará con procesar cada FCPXML adicional con el resultante del par anterior.

Como dije al comienzo, MergeX es un software tan simple como poderoso e imprescindible para todos los proyectos que involucran a más de una persona utilizando Final Cut Pro X.

MergeX puede adquirirse a través de App Store por un precio de 49 dólares estadounidenses.

Por qué Final Cut Pro X. La perspectiva de un preditor

0

Este es un artículo publicado originalmente en ProVideo Coalition por Mike Matzdorff, a quien agradezco la autorización para publicarlo en Final Cut Argentina. El enlace al artículo original es el siguiente: http://www.provideocoalition.com/final-cut-pro-x-preditors-pov

(N. del T.) Preditor es un término utilizado en inglés para definir a alguien que es, a la vez, productor y editor.

Mike Matzdorff comienza una nueva serie de entrevistas sobre FCPX en flujos de trabajo de post-producción del mundo real que impactan de lleno.

“Directamente le digo a la gente que FCP X es el mejor NLE que he utilizado” — Sean Lander, Preditor

Sean Lander

Sean Lander es un editor y productor premiado de Melbourne, Australia. Ha sido también un Avid trainer acreditado. Sean es parte de un equipo trabajando en una serie de documentales para televisión en prime time. Dice que los productores que trabajan con él son “Muy hábiles y con décadas de experiencia”. Para producir la serie la compañía de Sean, Rednail, fue contratada por Network Seven, la cadena comercial con más alto rating en la televisión gratuita de aire.

La serie está en proceso de producción, por lo que algunos detalles deben mantenerse privados.

¿Por qué hablamos de esta serie? Los productores decidieron apartarse de una larga tradición en televisión y utilizar Final Cut Pro X de Apple como centro de su universo de post-producción. Sean eligió Final Cut Pro X por su velocidad, simplicidad de uso, versatilidad y poder. Su programa es multifacético y utiliza múltiples formatos de video, cámaras de alta velocidad y gráficos complejos. Un equipo entero de productores y postproductores contribuyen al logueo, ensamble y refinamiento del programa. Tienen una demanda de excelencia en un cronograma ajustado.

Escribí mucho sobre Final Cut Pro X (sobre flujos de trabajo, di opiniones, evangelicé e inclusive he twitteado), pero mi experiencia ha sido principalmente con largometrajes de ficción. Estoy menos calificado para hablar sobre necesidades especiales de multi-cámara, series de televisión con múltiples formatos y cómo Final Cut Pro X enfrenta el desafío e impacta en una línea de producción. Sean fue muy amable en conversar conmigo sobre estos aspectos de su proyecto actual.

La edición completa del proyecto. (clic para ver la imagen completa)

Mike Matzdorff: Sé que no puedes mencionar el nombre del programa ni algunos detalles, ¿Podrás compartir su evergadura? ¿cuántos episodios? ¿cuál es la duración de los episodios?

Sean Lander: Estamos trabajando en cuatro episodios de una serie documental de investigación. Dos episodios de sesenta segundos y dos de noventa segundos. Van a airearse en el prime time de la televisión australiana en 2017.

MM: ¿Cuál es la cantidad total de integrantes de tu equipo (editores, asistentes, productores, etc.) que utilizan Final Cut Pro X?

SL: Tenemos dos editores, un asistente de edición, un productor de la serie y un productor ejecutivo.

MM: Solías ser un usuario e instructor de Avid, ¿qué te hizo elegir Final Cut Pro X para esta serie?

SL: No hay nada tan rápido y flexible como Final Cut Pro X. En este trabajo el presupuesto y el cronograma son ajustados, y aún así querían un producto premium; algo que es imposible de conseguir con Avid Media Composer, el NLE convencional de la televisión broadcast.

MM: Si tuvieras que mencionar las tres razones principales para elegir Final Cut Pro X por sobre Avid para esta serie en particular, ¿cuáles serían?

SL: ¿Solamente tres? Probablemente hay miles más, pero para esta serie elegiría estas tres:

  1. Velocidad para editar, para experimentar, de render y de exportado.
  2. La organización y los poderosos metadatos disponibles a lo largo de Final Cut Pro X (especialmente ser capaz de encontrar los clips tan pronto como los necesitas).
  3. Simplicidad de uso. La capacidad de enseñar rápidamente a los productores cómo utilizar Final Cut Pro X para montar la historia ha significado que la edición comienza desde un punto mucho más avanzado.

Estuve utilizando Final Cut Pro X desde su lanzamiento y se ha convertido en mi NLE favorito. No puedo hablar sobre él sin mencionar otra cosa que lo hace tan potente: la increíble comunidad de plugins que lo soporta. Con desarrolladores como CoreMelt, Motion VFX y tantos otros; Final Cut Pro X —de por sí un NLE increíble en términos de efectos incorporados— se ha convertido en uno realmente sin rival. No hay nada que vayas a extrañar, ya sea que se trate de estabilización, motion-tracking, e inclusive Realidad Virtual. Con este soporte podemos conseguir mucho más que con cualquier otro NLE, incluyendo Avid Symphony. Lo mejor de todo es que la mayoría de los plugins cuestan muy por debajo de los 100 dólares, algo ridículamente económico.

Keywords aplicados para música

MM: ¿Están editando archivos originales de cámara y sonido? ¿En qué formatos?

SL: Estamos editando con material original de cámara que consiste en:

  • Sony F55 HD 1080p con diferentes frame rates de hasta 200 fps, así como 4K para algunas tomas.
  • Sony A7S para tomas Movi de 1080p a 50 fps.
  • DJI Phantom Inspire Pro 1080p y 4K.
  • Material de archivo obtenido del banco de archivo de la cadena de noticias que ha sido ingestado en XDCam MXF 50mbs en un rango de tamaños y resoluciones en 4:3, 14:9 y 16:9.
  • Una inmensidad de material de archivo, cámaras de vigilancia, videos hogareños y fotografías.

Salvo por algunas excepciones, ingestamos material original de cámara.

“No hay nada tan rápido y flexible como Final Cut Pro X. En este trabajo, el presupuesto y el cronograma son ajustados, y aún así querían un producto premium; algo que es imposible de conseguir con Avid Media Composer, el NLE convencional de la televisión broadcast.” —Sean Lander, Preditor

MM: ¿Están trabajando con sistema dual de sonido sincronizado con imagen?

SL: Estamos trabajando con sistema dual porque la mayor parte del material está a distinta velocidad —a veces hasta doscientos cuadros por segundo— así que el sincronizado se hace con clips multi-cam con claquetas. Utilizamos principalmente material de Sony F55, que tiene soporte nativo.

Estructura de keyword collections

MM: ¿Modifican las velocidades para sincronizar en Final Cut Pro X, o simplemente no ponen ningún sonido en ese material?

SL: Para el material fuera de velocidad modificamos la velocidad dentro de los clips multi-cam. Nuestra asistente dedica mucho tiempo a sincronizar, preparar, etc. debido a la cámara lenta. Sus otros deberes incluyen: crear camera archives, ingesta, tags, rejects, keywords, auditions y otras más. Ella ha remarcado que disfruta el no ser interrumpida constantemente por los editores consultando por tomas que no pueden encontrar, o por los productores preguntando cómo hacer algunas cosas. Un tributo al poder de organización de Final Cut Pro X.

MM: ¿Qué pasos hay entre Final Cut Pro X y el broadcast final?

SL: Vamos a enviar el material a un colorista que va a hacer la corrección de color en DaVinci Resolve. La mezcla de sonido se va hacer en ProTools. El broadcast va a ser a 1080i.

“Otra cosa que hace Final Cut Pro X tan poderoso es la increíble comunidad de plugins que lo soportan” —Sean Lander, Preditor

MM: ¿Como ha sido el recibimiento por parte de la cadena televisiva del uso de Final Cut Pro X?

SL: Con la productora nos conocemos hace bastante tiempo, así que ella confió en mi cuando dije que Final Cut Pro X iba a ser la mejor solución para este trabajo, pero la cadena televisiva sí mostró un poco de preocupación. Les preocupaban cómo íbamos a integrarnos con su departamento de promos basada en Avid y la mala prensa que Final Cut Pro X había recibido. Además, tampoco quisimos alinearnos con su elección de proveedor de almacenamiento compartido, Avid ISIS. Jellyfish, de LumaForge, fue mi primera elección para nuestro almacenamiento compartido. La cadena de televisión aceptó utilizar Final Cut Pro X pero no comprar un sistema Jellyfish. Compré yo el Jellyfish y se los alquilé.

No creo que la cadena se haya arrepentido. Ellos han mencionado lo bien pulido que se ve el programa salido de Final Cut Pro X. Tuvimos la suerte de que la infraestructura ya estuviera ahí. Instalar el Jellyfish sólo tomó un instante y ha resultado impresionante en términos de velocidad. Rara vez hemos necesitado renderear algo. LumaForge ha sido excelente en términos de servicio y soporte.

MM: ¿Estaba tu equipo familiarizado con Final Cut Pro X?

SL: El equipo entero, salvo por dos productores que habían tenido una limitada experiencia con Final Cut Pro X, eran nuevos con FCPX.

MM: ¿Estaban abiertos a usarlo? ¿Eran reticentes? ¿Estaban contentos?

SL: Si. Todos estuvieron abordo con un aire de excitación pero con algo de dudas debido a toda la negatividad que rodea a Final Cut Pro X. Luego de ponerse a tiro con Final Cut Pro X, la productora principal quedó maravillada. Nunca pudo comprender Avid ya que en él es difícil organizar y muy fácil sacar todo de sincronismo. En Avid, ella eventualmente volvía a editar en papel, que no sólo es agotador, sino que tampoco expresa nada acerca del tono o estilo de lo que se dice.

Con Final Cut Pro X, un punto muy importante para todo el mundo es la simplicidad de uso y su potencia, lo que se traduce en selecciones y pre-armados muy aprovechables.

Nuestro otro productor es aún menos tecnológico y entrega notas manuscritas. Utiliza Avid en sus otros trabajos, pero principalmente como una estación de visualización para hacer logueo básico. Comenzó a utilizar tímidamente Final Cut Pro X, luego a agregar b-rolls, a editar pequeños bocetos y ahora ya se divierte.

La productora ejecutiva estaba en el mismo barco. Ella no es fan de la tecnología y había tenido un contacto mínimo con Avid (agregaba marcadores y miraba material) pero la animé a darle una oportunidad a Final Cut Pro X. Ahora ella todos los días hace cambios a las selecciones del productor, agrega marcadores to-do (pendientes), hace cortes rápidos y escribe textos para grabar. Ella ha admitido, incluso, que realmente disfruta poder participar echando manos al proceso.

MM: Desde una perspectiva de tiempo y dinero, ¿qué beneficios puedes atribuir a la utilización de Final Cut Pro X?

SL: Esta serie ya ha mostrado cuánto puede ahorrarse al elegir un flujo de trabajo basado en Final Cut Pro X y LumaForge. El presupuesto de equipamiento fue casi la mitad de lo que habían presupuestado para una solución basada en Avid. Sé por experiencia que cuando estábamos por la sexta semana estamos dos a tres semanas más adelantados de lo que hubiéramos estado en caso de haber utilizado Avid. Estamos kilómetros por delante. Además, estamos disfrutando tanto el proceso de edición que las ideas fluyen mucho más libremente. Por otro lado, siempre hago los onlines de mis trabajos, lo que motivó a los productores a que me pidieran hacerlo en éste. El beneficio es que el dinero que hubiera ido normalmente a un operador para que hiciera el conform para corrección de color ahora va a un colorista muy experimentado. El hecho de que, siendo todas las entrevistas con fondo verde, puedan recortarse con excelente calidad y sin necesidad de render dentro de FCPX es un gran beneficio.

“La capacidad de enseñar rápidamente a los productores cómo utilizar Final Cut Pro X para construir la historia ha significado que la edición comienza desde un punto mucho más avanzado” —Sean Lander, Preditor.

Edición completa en vista de roles. (clic para ver la imagen completa).

MM: ¿Cómo te sentís al usurpar los flujos de trabajo tradicionales? Final Cut Pro X puede eliminar un conform de sonido, una edición online, algunos titulados, y algunos VFX. Podés estar haciendo que alguna gente quede sin trabajo.

SL: Siempre he sido un campeón de hacer las cosas más eficientemente y construí mi carrera siendo el que siempre estaba empujando los límites. Si es de lo que estás hablando, digo: “¡Adelante!”.

MM: ¿Qué haría que Final Cut Pro X se quede on los trabajos de gráfica de After Effects? ¿Es posible? ¿Es razonable?

SL: Para ser honesto, creo que técnicamente ya puede hacerse. Sin embargo, encontrar un artista gráfico que utilice Final Cut Pro X por sobre After Effects sería prácticamente imposible. ¡Ya es bastante difícil conseguir editores!

Los buenos artistas de gráfica freelance son difíciles de encontrar también, y necesitas un presupuesto importante si querés el 100% de su tiempo. En términos de gráfica, esta serie es muy demandante, así que cualquier cosa que pudiéramos hacer para aliviar la carga sobre el artista haría nuestras vidas mucho más tranquilas.

Habitualmente, con Avid, el artista gráfico entregaría todos los elementos; así que los títulos, los pies para los nombres, los sobreimpresos de locación, etc. demandarían mucho tiempo y serían una pesadez.

Así que sugerí Apple Motion. The ese modo, el artista gráfico podía crear una plantilla y nosotros podíamos hacer el resto del trabajo. Aceptó hacerlo y sólo tuvo que producir cuatro plantillas de títulos. De haber estado con Avid, hubieran sido algo más, como cuarenta o cincuenta plantillas de títulos. Luego, por supuesto, si cualquier parte del título debía cambiar, hubiéramos tenido que ir nuevamente al artista gráfico por los cambios.

Ahora podemos encargarnos de eso in-house. Nuestro artista también aprendió cómo hacer rigs en Motion (N. del T., exportar parámetros editables en FCPX), así que ahora podemos incluso habilitar y deshabilitar animaciones de inicio y de fin, cambiar la tipografía, etc. ¡Es una relación win-win (todos ganan)!

Estamos intentando conseguir más plantillas de Motion y, hasta tal vez, algunas líneas de tiempo muy complejas con drop-zones, movimientos personalizados, etc. Si logramos que funcione, esto hará que los gerentes de producción se sienten y se enteren de cuánto hemos sido capaces de simplificar y redefinir el proceso para los elementos gráficos.

MM: ¿Cómo te sentirías volviendo a Avid?

SL: He estado editando en Avid por 25 años ya. Fue mi primer amor, y aunque le guardo un lugar en mi corazón (especialmente al modo trim), cuando vuelvo a utilizarlo por largos períodos siento que estoy editando con una mano atada a mi espalda. Además, no hay diversión en él.

De algún modo Final Cut Pro X hace la edición entretenida.

Avid es lo opuesto a eso. Es sólo sobre el proceso. Tu mente está concentrada en cómo hacer que el software haga lo que querés hacer en lugar de en qué es lo que puede lograrse con el arte de poner una toma tras la otra.

MM: ¿Qué le dirías a alguien que está considerando Final Cut Pro X pero aún está indeciso?

SL: Directamente le digo a la gente que Final Cut Pro X es el mejor NLE que he utilizado. Esta afirmación habitualmente sorprende dado que he estado en la industria mucho tiempo y he capacitado a cientos de editores.

Le digo a la gente que lo pruebe, pero que lo hagan en un trabajo de verdad y que esperen odiarlo por una semana o dos. Les prometo que si lo encaran con una mentalidad abierta van a hacer un clic y van a terminar encantados. Si sos un editor que ama la edición, sólo puede ser de ese modo. Si sos un ingeniero que ama apretar botones para que las cosas sucedan, entonces probablemente nunca te enganches con FCPX. El mundo de la TV está repleto de editores-operadores, aquellos que nunca notan que el actor parpadeó justo antes del corte; aquellos que cortan al beat, pero que no comprenden el ritmo de la secuencia.

Hay un creciente entusiasmo en la industria australiana acerca de Final Cut Pro X.

MM: ¿Donde hacés la capacitación?

SL: Realizo la capacitación de la gente en sus propios lugares, en sus sistemas. Solía tener un lugar con cuatro salas de edición, pero esos días han quedado atrás. (Nota del editor: Sean era el Avid Trainer acreditado para los estados del sur este de Australia).

MM: ¿Podrías comentarme algo que destaques de este proyecto?

SL: El segundo editor trabajando conmigo en este trabajo (que tiene la misma experiencia que yo y está reconocido como uno de los mejores de Melbourne) llegó a este trabajo como un escéptico, pero con la mente abierta. Luego de medio día poniéndolo al tanto de lo básico lo dejé con la advertencia habitual “Lo vas a odiar al comienzo. Piensa diferente y lo vas a terminar amando” (N. del T., parafrasea a Think Different, el slogan de Apple).

Cada día entraba a su sala a darle dos tips sobre Final Cut Pro X y podia notar, por su mirada, que estaba entendiendo cuán poderoso es este software. Lo más potente de todo —dijo— es aplicar rejects, keywords y favorite a los clips. Tiene razón. Por supuesto, este sólo acto empodera al editor a un extremo como ningún otro NLE que he utilizado.

Hoy escuchó que había un veinte porciento de descuento en una oferta de iTunes Gift Cards y voló hacia un comercio a adquirir suficientes para comprar Final Cut Pro X.

Su siguiente pregunta fue cómo convertir los proyectos de Avid que tenía en su casa a Final Cut Pro X.

Mike Matzdorff

Mike Matzdorff fue el asistente de edición principal en el primer film de gran presupuesto de Hollywood editado con Final Cut Pro X y escribió un libro sobre la experiencia repleto de tips y trucos en el mundo real y técnicas de flujo de trabajo probadas. Es también un escritor, director y editor. Mike ha pasado más de 20 años en salas de edición de largometrajes de ficción y programas de televisión que han ganado premios Emmy, incluyendo El Club de la Pelea, Analízame, Last Comic Standing y Monk. Mike vive en Los Angeles y trabaja actualmente en animación, algunas de las que han sido nominadas para los premios Annie 2016.

Yanobox Mosaic

0

Yanobox lanzó un nuevo plugin llamado Mosaic, que permite generar texturas a partir de aplicar grillas y plantillas de gráficos a una imagen cualquiera, sea estática o en movimiento. Es de los mismos creadores de Nodes2, con lo que no sorprende en absoluto que sea altamente personalizable y que puedan lograrse resultados sorprendentes con muy pocos ajustes.

Para que quede un poco más claro de qué estamos hablando, nada mejor que este video de un minuto y medio con un compilado de texturas generadas con Mosaic. Un detalle interesante es que, a diferencia de otros videos que contienen excelentes imágenes con de cámara con un poco de textos aplicados con el plugin, se trata de contenido generado casi por completo con Mosaic.

Al igual que Nodes2, Mosaic puede aplicarse “desde cero” o utilizando uno de los treinta y dos presets que trae y, a partir de ahí, personalizarlos a gusto.

Estilos pre-diseñados de Mosaic.

Los símbolos que aparecen (círculos, caracteres técnicos, ASCII, etc.) pueden personalizarse también. En el caso de los números y letras pueden indicarse dentro de los controles del plugin. De hecho, Mosaic puede aplicar un “Texture Atlas” personalizado que hayamos creado (una simple grilla de gráficos, texto o loops de video) a nuestro footage.

Por ejemplo, esta simple grilla de textura creada en Illustrator:

Generará estos complejos gráficos con Mosaic aplicado a un Fractal Noise y un pequeño “pulido” utilizando Lens Blur y una corrección de color. Este interesante motivo recursivo es el resultado de aplicar el algoritmo Adaptive Tiling que puede ajustarse con el parámetro Adaptiveness en los ajustes del plugin.

La generación de texturas no se producen por la simple aplicación de tramas aplicadas sino mediante la utilización de complejos algoritmos que, si uno juzgara por los resultados, parecieran escritos específicamente para nuestras imágenes de origen. Esto brinda la posibilidad de simplemente “estilizar” nuestras imágenes o llegar a tener como resultado Motion Graphics avanzados para nuestro proyecto.

Las posibilidades son infinitas puesto que puede utilizarse a partir de cualquier imagen de video o foto, por lo que se puede aplicar también a Generators, Compound Clips, etc.; tanto con imágenes reales como con siluetas, gráficos y animaciones. Como dije, las posibilidades son infinitas.

La textura generada puede componerse sobre la imagen de origen o también sobre transparente para aplicar a otra capa de video.

Si tuviera que mencionar una contra de los plugins de Yanobox que he probado es que basta con comenzar a “jugar” con las posibilidades para que uno pierda noción del tiempo y se distraiga del trabajo. Las posibilidades son fascinantes y no hace falta ser un diseñador para obtener resultados que puedan aplicarse a nuestros proyectos generando production value.

El precio de Mosaic hace que no sea de esos plugins que uno compra sólo para tenerlo disponible por si alguna vez hace falta, sin embargo, los 299 dólares que cuesta se pagan solos si nos toca hacer una apertura para un programa o un video corporativo en los que incluir este tipo de animaciones haga que nuestros clientes sientan inmediatamente que lo que estamos entregando tiene mucho valor agregado.

El plugin está disponible para comprar a través de FxFactory que, como siempre, tiene una versión en modo demo con marca de agua y excelente documentación. Para ir directamente a la web de Mosaic se puede hacer clic aquí.