Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Temas - Ramón Cutanda

#1721
Hola,

Se trata de un videotutorial de Adobe Encore 2.0 . Está en WMV y ocupa 82,2 Mb. Dado que son 40 minutos de video, he comprimido para que no ocupara mucho. Espero que sea suficiente calidad para que se vea correctamente.  Si veis errores que se me hayan pasado por alto, hacedmelo saber cuanto antes, lo corrijo y vuelvo a subir.-

Un abrazo a todos



Descarga del vídeo a calidad completa (1000 x 780)
                                  Formato: Windows Media Vídeo
                                          Tamaño: 82 MBytes


Autor
José Bayón (Joseba1)
Badajoz - Badajoz - España
#1722
1. Introducción

Antes de nada me gustaría "ahorrarle el sufrimiento" a todos aquellos a los que este documento no va destinado. Conocer los espacios de color y el submuestreo usado en la compresión de vídeo no es algo que necesites conocer para trabajar con vídeo digital, aunque, si eres curioso como yo, sí que te ayudará a conocer qué ocurre con las imágenes en su "paseo" de la cámara al ordenador y luego al televisor.

Como tantas otras veces me he encontrado abundante documentación en inglés, pero poco o nada en castellano; al menos sobre lo que necesitaba saber, o redactado en la forma en la que me hubiera gustado encontrarlo. El mundo del color y la compresión están plagados de física y matemáticas y, para los lingüístas como yo, nos resulta especialmente complicado comprender. Es por eso que, una vez que entraron en mi cabezota todos esos conceptos, creí que merecía la pena tratar de escribir un documento como éste en donde poder explicar desde una perspectiva sencilla y simple para el ciudadano de a pie qué son los espacios de color, cuáles hay, con cuáles trabajamos en el vídeo digital y relacionar todo esto con la compresión de vídeo que es lo que a, fin de cuentas, me interesaba. Al menos ese es mi propósito, otra cosa es que realmente consiga hacerlo con esa simplicidad.

2. Los espacios de color

Entramos en el apasionante mundo de la física... Es evidente que vivimos en un mundo rodeado de color. Mejor dicho... que vivimos en un mundo que percibimos con color. Por muchos motivos el ser humano quiere captar, manipular y reproducir los colores que ve en el mundo que le rodea. Para lograr este propósito era necesario crear un  "idioma" de color para poder referirnos a todos y cada uno de los colores que percibimos de forma inequívoca. Cada idioma tiene una serie de palabras para designar colores, pero estas no son, ni de lejos, precisas, puesto que abarcan una gran variedad cromática. Todos estamos de acuerdo en que el cielo es azul. Pero ese azul no es igual a las nueve de la mañana que a las dos de la tarde. Ni es el mismo azul en Murcia que en Montevideo.

Aquí es donde entran en juego las matemáticas, creando un sistema para poder asignarle a cada color un código, un valor único con el que quede identificado de forma inequívoca. A partir de ahí ya podremos trabajar y manipular los colores con precisión. A este código de colores, a este idioma, se le conoce como espacio de color.

A nada que tu memoria sea mejor que la mía recordarás que este apartado se llama espacios de color, en plural. Has acertado... hay más de uno. Cada uno de ellos, como puedes imaginar, tiene sus ventajas e inconvenientes y, como no podía ser de otro modo, en este documento nos vamos a centrar en aquellos relacionados con el vídeo digital.

2.1 CIE 1931

El CIE 1931 fue uno de los primeros espacios de color definidos. Fue creado por la CIE (International Commission on Illumination - Comisión Internacional en Iluminación) en 1931 y está basado en los colores que el ojo humano es capaz de percibir. Es, por tanto, el espacio de color más exacto y se usa siempre como referencia en otros espacios, como veremos más adelante. El motivo por el que se usa como referencia, pero no se aplica en usos reales, es porque, tal y como se aprecia en la Figura 1, la curva que describe la gama de colores perceptibles es matemáticamente compleja y complicaría (encarecería más bien) todos los dispositivos capaces de trabajar con color.


Figura 1 - Espacio de color CIE1931. Representa longitudes de onda medidas en nanometros

Fuente: Wikipedia

2.2 RGB

Como acabamos de ver, el espacio de color CIE1931, aunque exacto, es complicado para trabajar con él; así que hacía falta una interpretación del color más sencilla. Seguramente te suenen las siglas RGB. Son las siglas (en inglés como no) de los tres colores primarios: Rojo (Red), Verde (Green) y Azul (Blue) Mediante la mezcla de estos tres colores primarios es posible representar gran parte de la gama de colores perceptibles por el ojo humano con la ventaja de sencillez que representa trabajar únicamente con tres valores.

El concepto es simple. Se mezclan estos tres colores y, según la proporción de cada uno de ellos, se obtienen colores diferentes. Es decir, manipulando únicamente tres valores (rojo, verde y azul) podemos obtener la mayoría de colores del espacio de color CIE1931.

La idea, como hemos visto, es sencilla. Se trata, a fin de cuentas, de mezclar tres colores. Pero el modelo de color RGB no define por sí sólo qué es rojo, qué es verde y qué es azul. Es decir, no nos dice el tono exacto de rojo, el tono exacto de verde ni el tono exacto de azul. Es lo que se conoce como espacio de color no absoluto. Para lograr la precisión de la que hablábamos en el apartado anterior (para lograr un código inequívoco para cada color) es necesario definir con precisión en el espectro de colores qué es rojo, qué es verde y qué es azul. Cuando lo hacemos, creamos un espacio de color absoluto o, simplemente, Espacio de color.

Dependiendo de los valores RGB referenciales que usemos podremos crear diferentes espacios de color y cada uno de ello cubrirá una gama de colores diferente. Como puedes imaginar, cuanto mayor sea el número de colores que maneje un espacio de color éste será más fiel a la realidad y tendrá un uso más profesional y, habitualmente, los aparatos que trabajan con ellos son más caros. En la Figura 2 puedes ver tres espacios de color RGB (los tres triángulos) y uno CMYK, de forma irregular, correspondiente a una impresora (las impresoras usan espacio de color CMYK en lugar de RGB)



Figura 2 - Diferentes espacios de color dentro del espectro visible CIE1931

Fuente: Wikipedia

Es posible que te hayas dado cuenta que ningún espacio de color cubre la gama cromática del CIE1931 en su totalidad pero, sin embargo, el ProPhoto RGB destaca por ser el que incluye una mayor gama cromática. Incluso abarca algunos tonos no incluidos en el espacio CIE1931. Dicho de otro modo, el formato ProPhoto RGB es capaz de trabajar con algunos colores imperceptibles para el ojo humano, puesto que están fuera del espacio CIE1931 que, recordemos, es lo que el ojo humano puede percibir. Si en la imagen hay colores que el ojo humano no percibe es evidente que los colores de la Figura 2 son "orientativos", pero en ningún caso precisos (por muchos motivos que no comentaré en esta "simple" introducción) Aún así creo que la Figura 2 es visualmente bastante aclaratoria sobre las limitaciones de los espacios de color RGB.

2.3 sRGB

En un principio no tenía pensado hablar de este espacio de color porque está principalmente diseñado para la fotografía y se usa en monitores y cámaras de fotos.  Pero ya que estamos, y puesto que todos contamos ya con cámaras digitales, creo que merece la pena hablar de este espacio de color, aunque sea tan sólo para dar un par de pinceladas. Es muy probable que este apartado deje a más de uno con ganas de saber más, pero tratar la fotografía aquí se sale de las pretensiones de este documento. Si te interesa sacarle el máximo partido a tus imágenes te recomiendo encarecidamente el libro Fotografía difital de alta calidad, de José María Mellado, donde aprenderás, no sólo a trabajar con espacios y perfiles de color (los perfiles me los salto aquí) sino otras muchas cosas interesantes.

Como hemos apreciado en la figura anterior, el espacio sRGB es el más limitado y, aún así, es con diferencia el espacio de color más usado. Todos los monitores y cámaras de fotos trabajan, por defecto, en sRGB. Aun en el caso de que puedan manejar un espacio de color mayor (como el Adobe RGB) de fábrica todos los monitores y cámaras vienen configurados como sRGB. Es posible que ahora te estés rascando la cabeza pensando "pues en mi monitor mis fotos se ven bien...." Efectivamente... Se ven "bien", y bien puede ser suficiente en entornos domésticos, pero no en entornos profesionales o cuando, simplemente, buscas la máxima calidad posible en tus imágenes.

Lamentablemente, salvo que hayas desembolsado una buena cantidad de euros, sólo podrás trabajar con tu cámara en sRGB pero, si admite un espacio de color más amplio que el sRGB, no dudes en emplearlo puesto que, como acabas de comprobar, almacenarás muchos más colores que con el espacio de color sRGB usado por defecto. Eso sí, no olvides que salvo que le indiques a Photoshop (o el programa de trabajo que uses) que estás manejando imágenes con perfil Adobe RGB o ProPhoto RGB, éste las manejará siempre, por tanto, como si fueran sRGB falseándote los colores. Ten en cuenta que un mismo valor en el espacio sRGB se corresponde con colores diferentes en otros espacios. La solución a este problema es "incrustar" siempre en tus imágenes el espacio de color empleado de modo que la aplicación sepa siempre qué espacio de color debe usar.

Insisto en que dejo el dato "ahí" y, quien esté interesado, que se documente en profundidad sobre los espacios y perfiles de color en relación a la fotografía.

2.4 YUV

Curiosamente le debemos este espacio de color a los televisores en blanco y negro. Para representar una imagen, los televisores en blanco y negro únicamente necesitaban la luminancia de las imágenes. De forma no rigurosa, se puede considerar que el equivalente psicológico de la luminancia es el "brillo" Cuando se empezó a trabajar en la televisión en color aparecieron dos problemas. Por un lado, un sistema de color requería el triple de ancho de banda que el sistema en blanco y negro ya que, mientras que antes únicamente se transmitía un valor, la luminancia, ahora habría que trasmitir tres: los valores R, G y B (rojo, verde y azul)

Pero, además, también estaba el problema de la compatibilidad. Los televisores en blanco y negro no podrían reproducir una señal RGB de modo que había dos opciones: o se añadía a la señal RGB el canal de luminancia (multiplicando por cuatro el tamaño de las imágenes y, por tanto, el ancho de banda requerido para transmitirlas y almacenarlas) o se tiraban a la basura todos los televisores en blanco y negro. Como la segunda opción no era aceptable se buscó una solución intermedia. Estaba claro que para mantener la compatibilidad haría falta emitir la señal de luminancia, que es la única que los televisores en blanco y negro eran capaces de entender. Ahora bien, ¿cómo incrustarle a la luminancia el color consumiendo el menor ancho de banda posible? Aquí entran de nuevo en juego las matemáticas para la creación del espacio de color YUV.

El espacio de color YUV tiene tres componentes. El valor Y es la luminancia y los valores U y V contienen la crominancia, es decir, los colores. La primera ventaja de este formato es que un televisor en blanco y negro usaría el valor Y de la luminancia, que interpretaría sin problemas, y descartaría los valores de crominancia (aunque los tevisores en color sí que usarían toda la información de la señal)

El origen de una señal YUV es un espacio de color RGB. La suma de los valores RGB, es decir, la suma de los colores rojo, verde y azul, da como resultado el valor Y, que representa el brillo, o la luminancia. El valor U se obtiene restándole al valor de los azules el valor Y (la suma de los tres) Matemáticamente sería B-Y. De forma análoga, el valor V se obtiene restándole al valor de los Rojos el valor Y  (R-Y) Quizás en la imagen de la Figura 3 se vea de forma más aclaratoria. La imagen superior sería la la fuente original, en el espacio RGB. La siguiente (la que se ve en blanco y negro) sería el valor Y y las dos restantes los valores U y V respectivamente.



Figura 3 - Descomposición del espacio de color YUV

Fuente: Wikipedia

Para realizar conversiones entre los espacios de color YUV y RGB se usan las fórmulas de la Figura 4. Si alguien las entiende ¡enhorabuena! A mí se me hace un nudo en la cabeza al ver estos números....

Y=0,299R + 0,587G + 0,114B

U=0,436(B-Y) / (1-0,114)

V=0,615(R-Y) / (1-0,299)R=Y + 1,13983V

G=Y - 0,39465U - 0,58060V

B=Y + 2,03211U



Figura 4 - Formulas de conversión entre espacios RGB y YUV para vídeo PAL analógico (sin corrección gamma) Para vídeo digital se usa el espacio de color Y'CbCr con otras fórmulas como veremos a continuación. Fuente: Wikipedia

Con lo que hemos visto, hasta ahora parece que el espacio de color YUV resulta muy adecuado para transmitir imágenes en color manteniendo la compatibilidad con los televisores en blanco y negro. Pero el espacio de color YUV tiene aún otra ventaja más sobre el espacio de color RGB en lo que a transmisión de vídeo en color se refiere. El ojo humano es más sensible a la luminancia (esto es, al brillo de las imágenes) que a la crominancia (al color) Esto quiere decir que si le "robamos" algo de color a la imagen lograremos reducir el ancho de banda necesario para transmitirla sin que el ojo humano note la diferencia. Es decir, es posible eliminar un porcentaje de color (dentro de unos valores moderados) a las imágenes pero, si mantenemos la luminancia, es dificil o imposible apreciar la diferencia. Esta reducción en la cantidad de información de las imágenes (ancho de banda) facilita su transmisión y almacenaje.

En el caso del formato NTSC abusaron inicialmente de esta reducción conservando únicamente un 11% del azul y un 30% del rojo. Durante los primeros años de vida del formato NTSC, debido a la baja calidad de los monitores de televisión, esta reducción de calidad no fue demasiado evidente. Sin embargo, conforme mejoró su calidad comenzaron a apreciarse los problemas derivados de una reducción de color tan acusada. Tanto, que las siglas del formato NTSC dieron lugar al juego de palabras "Never The Same Color" (Nunca El Mismo Color)

2.5 Corrección Gamma

Espero que hasta este punto lo tengas todo más o menos claro,  porque a partir de aquí todo puede empezar a ser algo más confuso. Y no porque realmente sea más complicado que todo lo anterior, sino por la confusión debida al baile de siglas. Hay muchas letras parecidas, pero no iguales y, lo que es peor, las hay repetidas pero, por un uso coloquial inadecuado de las mismas, no significan lo mismo. Si no tienes claro todo lo que hemos leído hasta ahora mi consejo es que, tranquilamente, vuelvas a leerlo todo desde el principio para asegurarte que lo has asimilado.

Nuestos "amigos" los valores RGB (rojo, verde y azul) son lineales, progresivos. Sin embargo, el tubo de electrones de los monitores CRT ofrece una curva de voltaje no lineal, es decir, curva, valga la redundancia. La corrección gamma compensa esa no-linealidad de los tubos CRT para poder obtener un aspecto visual uniforme. Esta corrección es importante porque los espacios de color que veremos a continuación, aunque son muy similares al espacio YUV, tienen en cuenta esta corrección.

En la Figura 5 podemos ver una línea roja continua en la parte inferior que representa la curva gamma de un monitor CRT para PC. Esa es la curva que, por decirlo de algún modo, hemos de "enderezar", corregir. La corrección que le aplicamos sería la línea roja discontinua de la parte superior. Por último vemos que, con esa corrección, la señal de salida (línea gris delgada central) es, efectivamente, lineal.



Figura 5 - Corrección Gamma 2.2 en un monitor CRT para PC

Fuente: Wikipedia

2.6 Y'CbCr e Y'PbPr

Antes de entrar en materia, hagamos una sucinta presentación de estos dos espacios de color.

Y'CbCr es el espacio de color usado en vídeo digital e Y'PbPr es su versión analógica. Seguramente hayas visto las siglas Y'PbPr en tres conectores RCA en la parte de atrás de tu reproductor de DVD y, si estás leyendo este documento, es más que probable que nunca supieras qué eran o para qué sirven. Son la salida analógica de espacio de color Y'CbCr. Internamente, el DVD (o tu tarjeta gráfica) ,trabajan en el espacio de colorY'CbCr, pero para convertir las imágenes digitales en una señal analógica se usa el espacio de color Y'PbPr, que viene a ser el mismo que el Y'CbCr pero en analógico. Los cables Y'PbPr, mostrados en la Figura 6, permiten conectar una tarjeta gráfica o un reproductor de DVD a un monitor o televisión (siempre y cuando éstos cuenten con las correspondietnes entradas y salidas, claro) sin necesidad de conversiones y reconversiones entre espacios de color, preservando, por tanto, la máxima calidad. El cable verde transporta el valor de Y', el azul el Pb y el rojo el Pr.









Figura 6 - Cable Y'PbPr con conectores RCA usado para enviar la señal vídeo Y'CbCr en formato analógico

Hagamos ahora una pequeña pausa. Toma aire... céntrate... y lee con atención o será fácil que te pierdas. Aquí comienza el baile de siglas del que te hablaba antes. Si lees rápido te perderás, avisado estás. Es necesario que leas con tranquilidad, asimiles los conceptos y asocies con todo lo que ya has leído.

Como ya hemos visto, el espacio de color YUV tiene su punto de partida en imágenes RGB. Pero, como también hemos visto, un monitor CRT no puede trabajar con los colores RGB de forma lineal y es necesario aplicarles una corrección gamma a estos valores RGB. A los valores RGB corregidos se les conoce como R'G'B', es decir, R prima, G prima y B prima. Ese "insignificante" apóstrofo es importante porque hace la distinción entre una imagen con los valores gamma corregidos o no. Es posible que te hayas fijado que los espacios de color tratados en este apartado se llaman Y'CbCr e Y'PbPr. Es decir, los dos comienzan con Y prima. ¿Verdad que en el espacio de color YUV la Y representaba la suma de los valores RGB? Pues en los espacios de color Y'CbCr e Y'PbPr la Y' representa la suma de los valores R'G'B'. Es decir, Y' es igual a los valores RGB con la corrección gamma.

En el espacio de color YUV a la Y la llamamos luminancia. En los espacios Y'CbCr e Y'PbPr la Y' recibe el nombre de luma. Y es la suma de los valores RGB e Y' es la suma de los valores RGB con corrección gamma, esto es, de los valores R'G'B'

Hasta aquí los espacios de color Y'CbCr, Y'PPbPr e YUV parecen similares porque la Y y la Y' recogen el valor de la luminancia y luma, (el brillo) y la crominancia (el color) se recoge en los otros dos valores. La diferencia está que en el espacio YUV la U recogía el valor de B-Y (azul menos Y, que era la suma de RGB) y la V recogía el valor de R-Y (rojo menos Y) En los espacios de color Y'CbCr e Y'PbPr, Cb y Pb recogen el valor de los azules y Cr y Pr recogen el valor de los rojos. En inglés resulta fácil de recordar. La b minúscula de Cb y Pb proviene de Blue (azul) y la r minúscula de Cr y Pr proviene de Red (rojo) y, si eso no te sirve, vuelve a echarle un vistazo a los colores de los cables de la Figura 6. ¡Vaya! ¡Qué coincidencia! ;)

Recapitulemos

En analógico...

Y=Suma de los valores de R, G y B (R+G+B)

U=Al valor azul se le resta Y. Es decir, B - (R+G+B)

V=Al valor rojo se le resta Y. Es decir, R - (R+G+B)


Y'=La suma de los valores R, G y B con corrección gamma (R'+G'+B')

Pb=El valor de azul

Pr=El valor de rojo


En digital...

Y'=La suma de los valores R, G y B con corrección gamma (R'+G'+B')

Cb=El valor de azul

Cr=El valor de rojo

Seguimos...

Los valores de R', G' y B' oscilan entre 0, que representaría la mímina intensidad (el color negro) y 1 que representaría la máxima intensidad (el blanco)  El valor luma resultante  (Y') tendría entonces un valor que oscilaría entre 0 y 1 y los valores de croma (Cb y Cr) oscilarían entre -0.5 to +0.5.  Al convertir esta señales a formato digital de 8 bits (el más habitual) estos valores se escalan, redondean y se les añade un margen que, en el caso de Y' quedaría con un valor mínimo de 16 para el negro y un valor de 235 para el blanco. Los valores Cb y Cr, por su parte, quedarían con un valor mínimo de 16 y un máximo de 240.

Algunos compresores ofrecen la posibilidad de usar 0 como valor de negro y 255 como valor del blanco. En teoría y, puesto que trabajaríamos con un rango de colores mayor, se podrían obtener mejores colores en la compresión final. Sin embargo, esta compresión se sale del estándar ITU-R BT.601 y es posible que los colores finales estén falseados en algunos monitores.  En las Figura 7 y 8 vemos esta opción en TMPGEnc y Cinema Craft Encoder.


Figura 7 - Opciones de compresión de color en TMPGEnc



Figura 8 - Ajustes de compresión en Cinema Craft Encoder

La conversión entre espacios de color quedaría como se indica en la Figura 9.

Y'=0,257R' + 0,504G' + 0,098B' + 16

Cb=-0,148R' - 0,391G' + 0,439B' + 128

Cr=0,439R' - 0,368G' - 0,071B' + 128R'=1,164(Y-16) + 1,596(Cr-128)

G'=1,164(Y-16) - 0,813(cr-128) - 0,391(cb-128)

B'=1,164(Y-16) + 2,018(Cb-128)

Figura 9 - Fórmulas de conversión entre espacios de color Y'CbCr y R'G'B'

2.7 YUV es, en realidad, Y'CbCr

Llegados a este punto, en el que ya sabemos qué es cada cosa, llega el momento de dar marcha atrás y olvidarnos de todo lo aprendido, porque lo habitual en el mundo del vídeo digital es referirnos al espacio de color Y'CbCr como YUV. Es decir, aunque ya sabemos que YUV es un espacio de color analógico y Y'CbCr digital, la mayor parte de las veces que nos encontremos con que las siglas YUV se referirán a un espacio de color "genérico" en el que Y contiene el valor de la luminancia (brillo) y U e Y contienen el valor de la crominancia (el color) Ya sabemos que no es lo mismo Y (la suma de RGB) que Y' (la suma de RGB con corrección de gama, esto es, R'G'B') y que mientras que U y V son B-Y y R-Y respectivamente, Cb y Cr se corresponden con B y R. Sin embargo, y como digo, lo habitual en el vídeo digital es referirnos a Y como luminancia y UV como color. Triste después de aprender todo lo anterior ¿verdad?


IMPORTANTE: A partir de este punto, y a pesar de la incorrección que eso supone, me referiré al espacio de color Y'CbCr como YUV. El motivo es que en el siguiente apartado entramos ya en el mundo de la compresión de vídeo y, salvo algún caso aislado, en la mayoría de software se usan, incorrectamente eso sí, las siglas YUV cuando, en realidad, deberían usar Y'CbCr. Y como ejemplo puedes fijarte en la Figura 7 antes mostrada de TMPGEnc en la que se lee "Dar salida a la información YUV en YCbCr [...]" La información de origen también es Y'CbCr, y no YUV, puesto que ya está digitalizada. Para evitar confusiones y facilitar las referencias a las opciones de configuración de la mayoría de programas a partir de este momento usaré las siglas YUV, como decía anteriormente, para designar un espacio de color en el que, grosso modo, la Y representa la luminancia (brillo) y U e Y representan la crominancia (color)

3. Submuestreo Cromático y compresión de vídeo

Al hablar anteriormente del espacio de color YUV dijimos que el ojo humano percibe más información de la luminancia que de la crominancia. Es decir, obtenemos más información del brillo de las imágenes que del color. Esta cualidad puede usarse para reducir de forma notable la información contenida en las imágenes y, de ese modo, facilitar su emisión y almacenamiento. Vimos también cómo abusar de esta reducción lleva consigo posteriores problemas de reproducción, como los sufridos por el formato NTSC en sus orígenes.

Los primeros pasos en la compresión de vídeo digital se dieron en esta dirección, desarrollando diversos sistemas de almacenamiento de vídeo en los que se preservaba la luminancia (el brillo) y se reducía la información de la crominancia (del color) con diversas técnicas. Es importante entender este punto porque de este será siempre el primer paso de cualquier compresión. A esta reducción se le conoce como submuestreo cromático debido a que la reducción se consigue "saltándose" muestras de color. Es decir, si tengo una fuente de vídeo de 720x576 puntos (formato PAL para DV y DVD) y quiero almacenarla, primero tendré que "leer" toda la información de esa imagen para poder convertirla luego al espacio de color YUV (recordemos, Y'CbCr en digital) A esa "lectura" o análisis de la imagen se le llama muestreo. Un muestreo 4:4.4 quiere decir que por cada 4 píxeles recogidos de luminancia (de Y) se almacenan 4 de U y 4 de V. Es decir, hay un muestreo completo. Al no haber pérdida alguna, no hay submuestro.

Partiendo de este punto existen un buen número de alternativas para realizar la reducción en el muestro de la crominancia (submuestreo) La Figura 10 representa los submuestreos YUV más comunes (fíjate cómo en el ejemplo se usan los colores rojo y azul del espacio de color Y'CbCr y no las mezclas Y-B e Y-R del espacio YUV)


Figura 10 - Submuestreos cromáticos. Fuente: Wikipedia

3.1. Muestreo 4:4:4

Como ya hemos comentado, usando este muestreo de color no hay pérdida de información. La cantidad de información con la que se trabaja es muy elevada y, por tanto, únicamente se usa en entornos de muy alta calidad. Los formatos como el HDCAM SR pueden grabar en 4:4:4 R'G'B' en conexión dual HD-SDI.

3.2 Muestreo 4:2:2

En este formato se recoge exactamente la mitad de la información cromática. Las diferencias visuales con respecto al muestreo 4:4:4 son prácticamente inexistentes, aunque la información contenida en las imágenes se reduce aproximadamente en un tercio de la original.

Este tipo de muestro es usado por equipos de alta calidad como:

* Digital Betacam

* DVCPRO50 y DVCPRO HD

* Digital-S

* CCIR 601 / Serial Digital Interface / D1

El  nuevo compresor de Apple (lanzado en el 2007 junto con Final Cut Studio 2) ProRes 422, como su nombre sugiere, también permite trabajar con vídeo digital con un muestreo de 4:2:2

3.3. Muestreo 4:1:1

En el muestreo 4:1:1, por cada cuatro muestras de la luminancia se obtiene una de cada valor de crominancia y, con esto, se logra reducir el ancho de banda de la señal hasta la mitad. Algunos de los formatos que usan muestreo 4:1:1 son los siguientes:

* DVCPRO (NTSC y PAL)

* NTSC DV

* DVCAM

* D-7

3.4 Muestreo 4:2:0

En este submuestreo se recoge la misma cantidad de información que en el muestreo anterior (4:1:1) La diferencia está, como vimos en la Figura 8, en el orden en el que se toman las muestras, ya que se obtienen dos muestras de Cb, ninguna de Cr, luego ninguna de Cr y dos de Cb y así sucesivamente. Algunos formatos invierten este orden y comienzan tomando muestras de Cr . En cualquier caso, se obtendrá siempre el 50% de la crominancia (del color) sea cual sea el orden de toma de las muestras

Este submuestreo se usa en los siguientes formatos:

* Todas las versiones de los formatos MPEG, incluyendo el MPEG-2 y sus variantes como el DVD y los formatos de Alta Definición. Algunos perfiles del MPEG-4, no obstante, admiten muestreos más elevando, incluso de 4:4:4

* PAL DV

* DVCAM

* HDV

* La mayoría de archivos JPEG/JFIF, H.261, y MJPEG

* VC-1

4. YUV empaquetados y planares

Una vez que hemos seleccionado qué información queremos guardar existen dos formas de almacenar esa información:

- Empaquetada, si guardamos los tres valores correspondientes a cada pixel en una misma matrix, en un mismo grupo de datos

- Planar, si los valores de cada pixel se almacenan en matrices diferentes, es decir, en diferentes planos matemáticos (de ahí el nombre de planar)

Los formatos empaquetados siempre van a requerir un mismo ancho de banda (cantidad de datos) independientemente de la fuente. Los formatos planares, por su parte, son algo más flexibles y, en determinadas circunstancias, pueden reducir el ancho de banda necesario para trabajar. No obstante, he de admitir que, al menos en el momento de escribir estas líneas, todavía no tengo demasiado claro qué ventajas e inconvenientes tienen cada uno de ellos. Intuyo que no debe estar muy claro porque en los formatos de compresión más usados encontramos de forma indistinta tanto formatos YUV empaquetados como planares. Es decir, a día de hoy no parece haber una preferencia clara por ninguno de ellos; lo que me da a entender que los resultados deben ser muy similares.

5. El FourCC y los formatos YUV

Los tipos de muestreos que vimos en el apartado anterior pueden considerarse "genéricos" y están clasificados según la cantidad de color que se recoge (o se pierde, según cómo se mire) en el submuestreo. Pero, como ya se indicó al hablar del submuestreo 4:2:0, existen numerosas alternativas a la hora de establecer el orden de la toma de datos, es decir, del muestreo. Estos "estilos" de muestreos dan lugar a un buen número de formatos YUV que se diferencian por tanto, no sólo por la cantidad de color recogida, sino también por el orden del muestreo. Tampoco olvidemos que, como vimos en el apartado anterior, también podemos clasificar los formatos YUV en función de la forma de almacenar los datos del muestreo (planares o empaquetados)

Para identificar a toda esta "selva" de formatos se decidió incrustar en cada vídeo un código de 4 bits que lograba indentificar el formato empleado en cada vídeo. Este código se conoce como FourCC, que quiere decir, ni más ni menos, que Four Character-Code o, en cristiano, Código de Cuatro Caracteres. En ingles existe un sencillo juego de palabras puesto que el Código de Cuatro Caracteres (FourCC) puede leerse como Cuatro (Four) Cés (CC) y se pronuncia igual que "fuerzas" (forces) Es los lugares donde se debate compresión digital es fácil encontrar la frase "May the FourCC be with you" Es decir, "Que las cuatro cés te acompañen"  Aunque, claro, en inglés tiene más gracias porque las cuatro cés suenan igual que fuerzas. Bueno, lo habréis pillado, espero.

Si no te has aburrido bastante con este documento y tienes curiosidad por conocer los tipos de formatos YUV existentes, aquí tienes un enlace para entretenerte:

http://www.fourcc.org/yuv.php

Y si después de ver esta lista te quedas con ganas de más, ten en cuenta que el FourCC no sólo identifica los formatos YUV sino, en general, cualquier tipo de compresión aplicada a un vídeo. En el siguiente enlace tienes la lista oficial, según Microsoft:

http://msdn2.microsoft.com/en-us/library/ms867195.aspx

6. Conclusiones

Tal y como avisé en la introducción, de poco o nada te va a servir todo esto en tu "día a día" con el vídeo digital. Pero, quizás, te ocurra como a mí y te guste conocer cómo funcionan las cosas aunque no puedas intervenir de forma directa.

Hace 48 horas poco o nada sabía de todos estos formatos y espacios de color. Este documento refleja todo lo que he aprendido en estos dos días y he tratado de exponerlo de la forma más sencilla posible. Más sencilla, al menos, de lo que yo me he encontrado cuando me lancé a internet a buscar. A tener en cuenta que, aunque he procurado ser lo más riguroso posible en la redacción del texto, no me extrañaría para nada haber metido la pata hasta el fondo por algún lado. Insisto en que soy un "ciudadano de a pie" que ha querido documentarse, pero no un experto de la teoría del color ni de la compresión.

Gracias por la atención prestada. Espero haber aportado algo de luz a las dudas o lagunas que pudieras tener antes de empezar a leer.

Un saludo


7. Bibliografía

Video Demystified, A Handbook for the Digital Engineer, por Keith Jack. Ed. Elsevier ISBN 978-0-7506-8395-1

http://www.fourcc.org

http://en.wikipedia.org/wiki/Color

http://en.wikipedia.org/wiki/Color_spaces

http://en.wikipedia.org/wiki/Absolute_color_space

http://en.wikipedia.org/wiki/Adobe_RGB_color_space

http://en.wikipedia.org/wiki/SRGB_color_space

http://en.wikipedia.org/wiki/Lab_color_space

http://en.wikipedia.org/wiki/CIE_1931_color_space

http://en.wikipedia.org/wiki/RGB_color_model

http://en.wikipedia.org/wiki/RGB_color_spaces

http://en.wikipedia.org/wiki/Yuv

http://en.wikipedia.org/wiki/YCbCr

http://en.wikipedia.org/wiki/YPbPr

http://en.wikipedia.org/wiki/Gamma_correction

http://es.wikipedia.org/wiki/Luminancia

http://en.wikipedia.org/wiki/Luma_(video)

http://en.wikipedia.org/wiki/Chroma_subsampling

http://en.wikipedia.org/wiki/Fourcc

http://en.wikipedia.org/wiki/Planar

http://en.wikipedia.org/wiki/Packed_pixel

http://en.wikipedia.org/wiki/CCIR_601

http://en.wikipedia.org/wiki/Serial_Digital_Interface
#1723
Este artículo se publicó en julio de 2007 y se conserva por motivos de archivo histórico

En éste tutorial trataremos el tema de la exportación en DVD y para DVD con el software de edición Adobe Premiere, mediante Media Encoder, exportación directa, y el uso del plug-in Mainconcept Mpeg Pro. También desgranaremos las siglas básicas que se deben manejar a la hora de elegir la mejor configuración para la exportación.

Un saludo. Espero que os sirva.
Nivel: Fácil
 
DESCARGA EL PDF

Autor:  Miguel Oñoro (censuraman)
#1724
Este artículo se publicó en julio de 2007 y se conserva por motivos de archivo histórico

Autor: Firecardenal
En este tutorial  aprenderas de manera sencilla  a hacer una presentación  tipo  broad casting o  para incluir como  intro  en una  autoría para DVD.


Descarga en calidad completa Avi. divx 5 1080 x 720 en tres partes


Parte1   Parte 2  Parte 3
Para publicación  de dudas y comentarios  en el siguiente hilo
Para publicación  de dudas y comentarios  en el siguiente hilo..
#1725


0. Acerca de este documento
Este documento es, básicamente, una guía descriptiva de Final Cut Studio 2. La intención es facilitar a todos los interesados en este paquete información sobre las posibilidades creativas de sus distintos componentes y cómo funcionan en su conjunto. Este documento no es, por tanto, una guía de usuario que explique cómo usar los programas, sino un recorrido por sus funciones más relevantes y las novedades que presentan.

Aunque leyendo este documento los actuales usuarios de Final Cut Studio podrán conocer las novedades que aporta la versión 2, le he prestado una especial atención a todos los usuarios que, como yo, hemos editando siempre en Windows y no hemos tenido muy claro qué ofrece la plataforma Mac en el campo de la edición de vídeo. Gracias a la migración a Intel por parte de los Mac, cada vez hay más software común a las dos plataformas, pero el paquete Final Cut Studio sigue por el momento únicamente disponible para Mac. Mi propósito es que los usuarios de Windows, aún sin haber instalado el software, puedan intuir cómo funciona. A través del recorrido por los distintos componentes del programa espero dar a conocer las posibilidades creativas que ofrecen y, de ese modo, que cada uno saque sus propias conclusiones sobre si Final Cut Studio 2 se adapta o no a sus necesitades aportándole aquellas herramientas que necesita.

Quiero dejar claro que escribo este texto de forma totalmente desinteresada e independiente. En este artículo nada tienen que ver ni Apple, ni Videopopular. Ellos simplemente me brindaron la oportunidad de ponerme en contacto con este software y yo ahora, con total independencia, escribo lo que me parece oportuno.

Por último, indicar que a lo largo del documento usaré una serie de abrevaciones:

Final Cut Studio 2 -> FCS2
Final Cut Pro 6 -> FCP6
Soundtrack Pro 2 -> SP2
DVD Studio Pro 4 -> DSP4

Espero que quienes lean este texto puedan disfrutar de su lectura pero, sobretodo, que sea de utilidad sea cual sea el perfil de usuario.


[/url]1. Agradecimientos
   

    - A Juan Patrón, director de la revista Videopopular, por ofrecerme la oportunidad de viajar a París para estar en el briefing de prensa de Apple en la presentación de Final Cut Studio 2 el 24 Mayo de 2007

- A Paco Lara, Director de Comunicación de Apple España, por la exquisita y cuidada organización de todo el evento, incluyendo mis vuelos a París y su atención posterior al enviarme un MacBook Pro junto con el Final Cut Studio 2 para que pudiera experimentar en casa.

- A Kirk Paulsen, Dion Scoppettuolo y Alec Little, de Apple Inc., por sus apasionadas y precisas explicaciones sobre el producto y su enorme disposición a contestar a cuantas dudas le planteamos

- A Apple Inc., en general, por la atención y trato exquisito prestados en todo momento.

Sin ellos no habría podido DISFRUTAR (en mayúsculas) de la experiencia de editar a lo grande en Apple y este documento, lógicamente, no existiría.


[/url]2. Acerca del autor de este texto
Quien quiera ir "al grano" puede saltarse este apartado. Mis percepciones, sensaciones y opiniones de este producto están fuertemente asociadas a mis experiencias previas en el mundo de la informática en general y de la edición de vídeo en particular. Creo que incluir un apartado sobre mi experiencia previa tiene sentido para conocer el contexto desde el que escribo estas líneas.

Los programas de edición  profesionales, como los analizados en este texto, son tan amplios que únicamente se llega a conocerlos en profundidad al cabo de muchas hora al frente de los mismos y, a menudo, para llegar a exprimir sus posibilidades suele hacer falta entrenamiento especializado. No hay que tomar este texto pues como si se leyera la biblia, puesto que mi nivel de profundización en FCS2 ha sido discreto. Aún así, y haciendo uso de mi experiencia en otros programas, he sacado unas conclusiones muy claras sobre el paquete en general y sobre cada uno de los productos que lo integran. Salvo alguna "breve excursión" al mundo Mac mi experiencia en la edición de vídeo está basada en la plataforma Windows y con los siguientes programas:
Edición de vídeoComposiciónEdición de audioCompresión de vídeoAutoría de DVDDiseño y Animación
Adobe Premiere 6.5: Nivel avanzado
Avid Liquid: Nivel avanzado
Canopus Edius: Nivel avanzado
Adobe Premiere Pro: Nivel medio
Adobe After Effects: Nivel medio-bajo
Autodesk Composer: Nivel medio
Sony Sound Forge: Nivel medioTMGEncoder: Nivel Avanzado
Canopus ProCoder: Nivel Avanzado
Cinema Craft Encoder: Nivel Avanzado
TMGEnc DVD Author: Nivel Avanzado
Scenarist DVDMaestro: Nivel Avanzado
Sonic Scenarist: Nivel Medio
MemoriesOnTV: Nivel Avanzado
Corel Draw!: Medio
Adobe Illustrator: Medio
Adobe Flash: Nivel Básico
3D Studio Max: Básico
Hay que tener en cuenta, pues, que no soy usuario habitual de Mac. De hecho, para poder experimentar con el programa tuve que usar un MacBook Pro que, muy amablemente, me proporcionó Paco Lara, Director de Comunicación de Apple España. El hecho de no ser un usuario habitual de Mac y el tiempo limitado para enfrentarme a un conjunto de programas prácticamente desconocidos para mí hasta ese momento hacen que quizás las conclusiones obtenidas no sean todo lo exactas que deberían. En las próximas semanas adquiriré un Mac Pro "de pata negra" para mi uso personal en el que podré experimentar con el paquete con total libertad y en ediciones reales, no sólo con pruebas. Llegado ese momento, de ser necesario, actualizaría el artículo.


[/url] 3. ¿Qué es Final Cut Studio 2?
Final Cut Studio 2 es un 6 en 1; 6 programas independientes que, aunque funcionan perfectamente por separado, están diseñados para complementarse unos a otros multiplicando hasta el infinito las posibilidades creativas de Final Cut Pro 6, el programa de edición que es el centro de todo el proceso.

Final Cut Studio 2 está compuesto por los siguientes programas:

- Final Cut Pro 6: Una nueva versión de este conocido software de edición de Mac
- Soundtrack Pro 2:  Un editor de audio diseñado con la edición de vídeo en el punto de mira
- Motion 3: Software de composición y animación en 3D
- Color: Una nueva aplicación de Apple, única en su categoría, dedicada en exclusiva al tratamiento del color.
- DVD Studio Pro 4: Programa de autoría de DVD
- Compressor 3: Software de codificación de vídeo capaz de transformar desde y a prácticamente todos los formatos de vídeo.

Además del software en sí en los discos se incluye Live Type2 y una ámplia colección de sonidos que hace que el proceso de instalación dure varias horas (dependiendo de la potencia del equipo) y que sean necesarios 55 Gbytes de espacio libre para la instalación (en el caso de instalar todo el contenido de los discos). También incluye más de 2.000 páginas de documentación en inglés sobre Final Cut Pro 6 repartidas en 4 volúmenes, un pequeño manual de configuración de Color y un DVD de vídeo (también en inglés) similar a este documento y que realiza un recorrido por todos los programas del paquete explicando sus principales funciones y novedades.

El concepto es simple. Aunque Final Cut Pro 6 es un programa realmente completo como editor independiente y maneja con soltura prácticamente cualquier tipo de tarea, hay algunas que, sencillamente, se le quedan grandes. Ahí es donde entra en juego el software que le acompaña, mejorando o ampliando las funciones de FCP6. Puesto que la edición es el centro de todo el trabajo, el resto de programas están asociados a FCP6 para que cualquier cambio realizado en estos quede reflejado en la línea de tiempo de FCP6 sin necesidad de estar exportando y generando archivos intermedios que únicamente consumen tiempo y espacio. En cierto modo es como si nunca abandonaras FCP6, simplificando todo el proceso de edición por muy complejo que éste sea. Esta integración hace que, por otra parte, no te de "pereza" realizar ciertas tareas avanzadas que ahora tienes al alcance de un clic.

A tener en cuenta que esta forma de trabajo no es única de Apple Final Studio. Adobe también ofrece en sus "Creative Suites" integración entre sus programas y, además, Adobe ahora ha vuelto a lanzar sus productos para Mac por lo que podemos decir, sin duda, que el enfrentamiento entre Final Cut Studio y Adobe Creative Suite (en concreto Production Premium y Master Collection) va ser largo y duro. A tener en cuenta también que, mientras Adobe incluye en sus paquetes programas de diseño como Photoshop, Illustrator y Flash, Final Cut Studio 2 Apple se limita al vídeo y audio.

Como comentaba en el apartado Acerca de este documento, uno de mis principales objetivos es tratar de mostrar las posibilidades creativas de Final Cut Studio 2 a los usuarios de Windows que nunca han tenido la oportunidad de trabajar en Mac. Es muy probable que esos usuarios conozcan ya la Suite de Adobe para Windows, por lo que no hará falta que vaya haciendo una comparación milimétrica entre los dos paquetes. Si, por el contrario, hay alguien que nunca haya trabajado con los productos de Adobe la descripción que haré de FCS2 le servirá, al menos, para conocer las posibilidades creativas de este paquete.


[/url]3.1 Requisitos para la instaslación de Final Cut Studio 2
Los requisitos mínimos son los siguientes:

Hardware:
  • Ordenador Macintosh con procesador PowerPC G4 a 1,25 GHz como mínimo, PowerPC G5, Core Duo o Xeon de Intel
  • 1 GB de RAM
  • Tarjeta gráfica Quartz Extreme AGP o PCI Express (Final Cut Studio no es compatible con tarjetas gráficas integradas de Intel)
  • Monitor con resolución mínima de 1.024 x 768 ppp
Software:
  • Mac OS X 10.4.9 o posterior
  • QuickTime 7.1.6 o posterior
Esto quiere decir dos cosas:

1. Final Cut Studio 2 no funcionará si tu equipo está por debajo de alguno de estos requisitos
2. El funcionamiento será muy "discreto" en un equipo con un hardware que cumpla justamente estas características. Es decir, podrás "experimentar" y "jugar" con FCS2, pero no podrás trabajar con soltura. Mi recomendación es contar, al menos, con los siguientes componentes:
  • TODA la RAM que puedas comprar, pero un mínimo de 2 Gbytes para poder empezar a trabajar "en serio"
  • Tarjeta gráfica de gama alta con, al menos, 256 Mbytes de RAM. La Radeon X1900 XT de ATI parece bastante adecuada para trabajar con FCS2
  • Contar, al menos, con dos discos duros y dedicar uno de ellos a archivos temporales
  • Contar,  a ser posible, con dos monitores


4. Final Cut Pro 6


4.1. Interfaz

Una de las principales novedades de FCP6 es la denomidada Línea de tiempo abierta que ofrece una gran flexibilidad a la hora de trabajar con diferentes formatos en la línea de tiempo. Esto no es nuevo para otros programas de edición, pero sí para FCP. Esta flexibilidad es, no obstante, limitada, puesto que los únicos formatos que se reproducen en tiempo real son los siguientes: DV, DVCPRO, HDV, IMX, XDCAM y vídeo sin compresión. La reproducción fluída de otros formatos dependerá de la potencia del equipo

¿A cuento de qué viene esto si estamos hablando de la interfaz? Pues a cuento de que lo primero que veremos de Final Cut Pro 6 será una ventana en la que tendremos que elegir el formato predeterminado para nuestros proyectos. Esta decisión no debe agobiarnos mucho por dos motivos. Primero porque es posible modificarla más adelante a través del apartado llamado "Easy Setup" (Ajustes Sencillos) y segundo porque si la primera vez que arrastremos un clip a la línea de tiempo el formato del mismo no coincide con el especificado aparecerá una ventana preguntándonos si queremos cambiar el tipo de proyecto por defecto para adaptarlo el tipo de clip usado. Aún así, podremos cambiar el tipo de proyecto incluso una vez que ya estemos editando. También, y como vermos más adelante, es posible capturar y trabajar en baja calidad para editar más rápido y, una vez terminada la edición, recapturar y convertir nuestro proyecto a calidad completa. Estos cambios entre formatos "borrador" y "final" también se realizan de forma sencilla a través del "Media Manager" (Administrador de Archivos)

En cuanto a la interfaz en sí no difiere mucho de otros programas de edición y no puedo evitar encontrarle un enorme  parecido con Adobe Premiere (o viceversa, no sé si fue antes el huevo o la gallina) Al igual que en Premiere las pestañas permiten tener al alcance de un clic una enorme variedad de opciones. Como era de esperar, la distribución de elementos en la pantalla es personalizable y es posible guardar y recuperar estas distribuciones. También hay "Video Scopes" para analizar diversos parámetros de los vídeos como la luminosidad, distribución de color, etc.

Oculto de forma estándar está el "Frame Viewer" (Visor de Marcos), que superpone y permite comparar la fuente origen y el destino mediante diversos métodos y transparencias, lo que supone una valiosa herramienta a la hora de sincronizar puntos de entrada y salida. También es interesante la "Quickview" (Vista Rápida), que ofrece visión directa desde RAM de efectos completos en un modo similar a como trabajan Motion 3, After Effects o Combustion.


4.2. Importando el material
Para el proceso de importación de material destaca el listema de registro (log) que permite seleccionar de cada cinta únicamente aquellas escenas que queremos capturar. En un primer paso FCP6 analiza la cinta y los puntos de entrada y salida indicados pudiendo registrar varias cintas. Una vez finalizado el proceso se realiza la captura real. El sistema nos avisará cuando sea necesario cambiar de cinta

Este sistema tiene la ventaja de que podemos capturar con una calidad reducida primero, para reducir el tamaño de los archivos y trabajar con más agilidad, y una vez finalizado el proyecto redigitalizar todos los archivos en calidad completa. A este método de trabajo se le llama "Offline" y deberemos elegir este formato en el menú "Easy Setup"  Para crear la versión final de calidad completa se usa el "Media Manager" (Administrador de archivos) El Media Manager también permite realizar el proceso inverso y crear una versión de calidad reducida del material con el que ya hemos trabajado.

Este proceso tampoco es exclusivo de Final Cut y podemos encontrarlo en casi todos los programas de edición, pero creo que era importante mencionarlo, sobre todo ahora que llega la Alta Definición y, si no hemos actualizado el hardware de nuestro equipo, es más que recomendable trabajar en calidad SD y, una vez finalizada la edición, recapturar todo los vídeos en calidad completa.

Lo que sí me agradó fue comprobar que FCS2 cuenta con un módulo de captura específico para trabajar con tarjetas DVCPRO P2

 


4.3. Editando
Prácticamente todos los programas de edición permiten pinchar a arrastrar el contenido de la ventana de entrada hacia la ventana de salida o la línea de tiempos. La diferencia está en definir si ese clip se agregará a lo que haya en la línea de salida (o la línea de tiempo) o bien lo sobreescribirá. FCP6 me ha sorprendido muy gratamente con un sistema realmente sencillo y eficaz. Una vez arrastrado un clip a la ventana de salida aparece un menú de selección con 7 opciones: Insertar o sobreescribir (con y sin transición por defecto), reemplazar, ajustar para rellenar o superponer creando de forma automática una nueva pista de ser necesario.

Si a la hora de aplicar la inserción de vídeos FCP6 destaca por mejorar sobre otros programas, a la hora de añadir transiciones deja con un mal sabor de boca porque, mientras que otros programas de edición te ofrecen una vista previa aproximada del efecto que tiene cada transición, en FCP6 únicamente aparece un listado alfabético de las mismas y, para saber qué hace cada una, no te queda más remedio que experimentar con ellas una a una. Como, además, hay un buen número de ellas y el software está en inglés, a los hispano-hablantes se nos hace todavía más difícil recordar qué efecto produce cada una de ellas.

En el resto de procesos de edición el trabajo es muy similar al de otros programas, aunque sigo insistiendo en la gran similitud que existe con Adobe Premiere.


4.4. Composición y animación (Compositing and keyframing)
Jugar con números es preciso, pero es mucho más práctico "pinchar y arrastrar"; y eso es precisamente lo que ofrece el modo de trabajo "Wireframe" (Alambre) Alrededor de cada clip aparece un rectángulo blanco con unos tiradores que nos permiten estirar, girar y mover los clips de forma intuitiva con el ratón. El trabajo en modo "Wireframe" no es muy preciso, pero sí muy rápido. FCP6 ofrece, además, dos modos de trabajo con Wireframes: uno con vista previa de los clips usados y otra en la que únicamente se ven los Wireframes (alambres) Este último modo es de gran ayuda en ediciones complejas en las que a nuestro equipo le "cuesta" mover muchos elementos. Puesto que únicamente se visualizan los alambres cualquier modificación es instantánea. Luego podemos volver al modo "Imagen+Wireframe", o a "Imagen", para ver el resultado de la modificación.

El modo de trabajo con Wireframes también es muy útil en las animaciones puesto que no sólo podremos modificar los clips; también podremos manejar los keyframes. Estos quedan unidos por una línea de tiempo que podemos configurar de diversas formas, incluídas las [url="http://es.wikipedia.org/wiki/Curva_de_B%C3%A9zier"]curvas Bézier.

Nuevamente, el trabajo con Wireframes no es exclusivo de Final Cut Pro 6. Hace años que se usa en programas CAD, 3D y de composición pero, si mi memoria no me falla, nunca he visto este método de trabajo en programas de edición de vídeo.

Aunque la mayoría de animaciones, como hemos visto, se llevan a cabo a través de la ventana "Motion", la línea de tiempo incluye un apartado dedicado a la animación donde, de forma limitada, también es posible jugar con diversos parámetros. Es de especial utilidad el acceso directo a la animación de movimientos básicos, recorte, opacidad, motion blur, escalado de tiempo, etc

Para ediciones complejas es posible enviar cualquier clip a Motion 3 con la ventaja de que Motion aceptará el clip tal y como se encuentra en FCP6, es decir, con todos los efectos o animaciones que pueda incluir.

En cuanto a la velocidad variable de los clips, FCP6 no es el primer programa capaz de lograr este efecto, pero sí que es, bajo mi punto de vista, el que permite hacerlo de forma más sencilla gracias a su herramienta "Time Remap" A la hora de crear los nuevos cuadros FCP6 utiliza la técnica "Frame Blending", en la que se mezclan los cuadros existentes para generar los cuadros que faltan. Este proceso no es del todo perfecto y en cambios de velocidad muy radicales hay una notable falta de definición en las imágenes. Una vez que tengamos el efecto de tiempo deseado es posible enviar el clip a Motion quien, mediante una técnica de análisis óptico de las imágenes, generará nuevas imágenes completas para cada cuadro, logrando así una calidad perfecta. Motion 3 ofrece, además, una serie de animaciones predefinidas (llamadas Behaviors) que harán de la animación temporal un juego de niños.


4.5. Filtros y corrección de color
Al igual que sucede con las transiciones, se echa en falta una vista previa de los filtros. Una vez manos a la obra los filtros, como no podía ser de otro modo, son también animables. De entre todos los filtros destacan 2.

El "Color correction 3-way" permite corregir los tonos oscuros, medios y claros de forma individual en cada clip. Tal es la importancia de este filtro que incluso tiene una interfaz específica. También ofrece una serie de herramientas que tratarán de equilibrar las imágenes de forma automática, incluyendo una herramienta de balance de blancos. Este filtro nos permitirá realizar correcciones básicas de color, aunque no debemos olvidar que FCS2 incluye Color, todo un programa dedicado única y exclusivamente a esta tarea para realizar correcciones más precisas.

Otro de los filtros estrella es el "Smooth Cam", obtenido de Shake, que elimina movimientos indeseados estabilizando la imagen. La primera vez que lo ves funcionar no puedes evitar quedarte con "cara de tonto" puesto que el proceso se inicia con un sólo clic y los ajustes automáticos serán satisfactorios la mayor parte de las veces. No obstante, es posible la modificación manual de los parámetros.


4.6. Exportación y salida
FCP6 permite exportar a cinta, con numerosas funciones como cuenta atrás o tonos, o a archivos, para lo que es posible usar el motor nativo de Quicktime o bien usar Compressor 3, por lo que las posibilidades de exportación son prácticamente ilimitadas.

A la hora de exportar a DVD es importante tener en cuenta usar los marcadores de la línea de tiempo para marcar capítulos. Aunque es posible realizar este paso más tarde en DVD Studio Pro 4 no será posible alcanzar una precisión de cuadro salvo que se haga en la línea de tiempo de FCP6. También es posible usar marcas de compresión que ayuden a Compressor 3 a identificar cambios de escenas






5. Soundtrack Pro 2


5.1. Interfaz
Para maximizar el espacio de trabajo Soundtrack Pro 2, ofrece una serie de paneles desplegables que permiten mostrar en pantalla únicamente aquellas funciones que necesitamos en ese momento. El tamaño de cada ventana es fácilmente adaptable estirando de los bordes y las pestañas son separables, permitiendo dejarlas "flotando" sobre el área de trabajo, o bien agruparlas en otro lado (nuevamente, parecido con los productos de Adobe) Por supuesto, las disposiciones de trabajo son almacenables para un uso posterior. Para mayor comodidad de trabajo con el vídeo, SP2 integra dos zonas de trabajo, una línea de tiempo similar a la de FCP6  y un editor de archivos de audio. En la línea de tiempo pueden realizarse las ediciones más comunes y dejar el editor para procesos más complejos o que requieran mayor precisión. Una característica muy interesante es la posibilidad de asignar iconos a cada pista para facilitar la identificación del tipo de sonido.

SP2 trabaja en conjunción con las pistas de vídeo de FCP6 pudiendo ver el vídeo original mientras se trabaja en el audio y resulta sencillo aplicar en un par de clics las modificaciones más habituales en la línea de tiempo, como recortar, modificar puntos de entrada o salida o añadir fundidos. Superponiendo dos clips, por ejemplo, se crea automáticamente un fundido entre ellos. También es posible asociar SP2 con una mesa de mezclas tradicional y tener un control analógico y preciso con entradas y salidas directas de audio.

Además de la tradicional pestaña de Efectos, SP2 también ofrece una pestaña de agrupación de pistas que permite aplicar efectos de forma simultánea en todas las que seleccionemos y otra, especialmente interesante, llamada Analysis que ayuda a solucionar de forma increíblemente rápida y sencilla algunos de los problemas más habituales en las pistas de audio como eliminación de ruidos o silencios, sincronización, etc.

Una  herramientas muy poderosa de SP2 es la vista de espectro en lugar de la forma de onde tradicional que posibilita un análisis y edición mucho más preciso.

Aunque es posible exportar los archivos a una gran variedad de formatos, como por ejemplo Podcasts, la íntima integración con FCP6 hace prácticamente inexistente la necesidad de exportar archivos cuando trabajemos editando vídeo.


5.2. Edición de sonido envolvente (Surround Sound Editing)
SP2 trabaja de forma nativa con sonido 5.1. Por eso, para tener sonido envolvente únicamente hemos de cambiar la pista a 5.1 con un simple clic. Podemos convertir en cualquier momento un sonido estéreo en envolvente, y viceversa, conservando además los parámetros que hubieramos definido en cada uno de los modos. El balance en modo multicanal se realiza con  facilidad gracias a una ventana interactiva de posicionamiento relativo de los altavoces.

Cuando el sonido envolvente proviene de 6 fuentes diferentes SP2 los agrupa de forma sencilla en un mismo clip, aunque conserva su individualidad y, por tanto, es posible realizar modificaciones individuales a cada una de las fuentes de sonido originales. Para facilitar todavía más el uso de sonido multicanal SP2 incluye más de 100 de efectos de sonido 5.1 Royalty Free, aunque tamibén ofrece otros 6.000 en estéreo.


5.3. Diálogos, ADR (Automatic Dialog Replacement) y Spotting (sincronizar efectos con imágenes)
SP2 ofrece diversas asociaciones de pistas con las que no tuve la oportunidad de profundizar demasiado pero que permiten automatizar ciertos procesos. Por ejemplo, es posible tener en una pista todos los clips de diálogo de un personaje y luego asociar esa pista en la zona "Submixes" para manipular todos los clips incluídos en esa pista de forma automática. Los efectos pueden aplicarse a clips individuales o a pistas completas y los filtros vienen con una serie de ajustes predefinidos que facilitan el trabajo de edición. El proceso denominado como "estampación" permite trabajar en un clip, que tomaremos como referencia y, una vez terminado el trabajo en él, "copiar y pegar" los efectos que tenga aplicados, incluída la ecualización, entre clips o pistas. Además de la estampación, SP2 permite la eliminación de ruidos indeseados mediante la colecta de muestras de ruido. Una vez analizada la frecuencia de ese ruido, SP2 permite eliminar esas frecuencias del resto del clip limpiando de ruido, por tanto, el clip original.  No obstante recuerdo que esa tarea, junto con otras habituales, puede llevarse a cabo de forma automática en la pestaña "Analysis" anteriormente comentada con bastante precisión.

A la hora de trabajar con diálogos cualquier editor le dará un beso a la caja de Final Cut Studio 2 cuando descubra la función ADR (Automatic Dialog Replacement) Se usa cuando la toma de audio no ha sido buena y hay que doblarla en estudio. SP2 ofrece este modo de edición especialmente diseñado para facilitar el doblaje

Al igual que FCP6 cuenta con edición multicámara, SP2 ofrece el modo de trabajo "Multitake" (multitoma) que permite seleccionar las mejores muestras de entre diferentes fuentes de audio para una misma toma. Esta selección puede realizarse de forma automática con bastante precisión, aunque es posible hacer esta selección de forma totalmente manual. Un ejemplo práctico sería que el actor principal le de un golpe a su micrófono. Mezclando el resto de fuentes de audio de esa escena podemos eliminar esa parte inservible y compensarla con las demás.

Por último tenemos la función "Spotting" que permite realizar una sincronización sonido-imagen con precisión de fotograma gracias a un HUD específico llamado "Multipoint Video" El fotograma de la izquierda es el punto inicial del clip, el de la derecha el punto final y el central el punto seleccionado por el ratón. Desplazando el ratón es posible localizar el punto exacto para la inserción de sonido. SP2 es compatible con la función "scrub"  (frotar) que permite oir el sonido mientras movemos el ratón.

 


5.4. Integración con Final Cut Pro 6
La integración con FCP6 llega a su  máximo exponente con la herramienta "Conform" (Ajuste) que facilita enormemente el trabajo entre varias versiones de un mismo proyecto de FCP6. Cuando hemos estado trabajando en SP2 un proyecto de FCP6 y, posteriormente, realizamos cambios en el proyecto con FPC6, la herramienta "Conform"  analiza los cambios y nos permite reubicar y/o reutilizar aquellas partes que no se han sufrido cambios aunque, por ejemplo, hayan cambiado de lugar.


6. Motion 3


6.1. Introducción
La eterna duda para cualquier editor de vídeo de Mac que quiera ir un paso más allá en sus ediciones y adentrarse en el mundo de la composición y animación es: ¿Apple Motion, Adobe After Effects, Autodesk Combustion o Apple Shake? El orden elegido para ordenar esta lista no es casual y es que Motion se puede considerar como el más sencillo de todos porque siempre ha estado un paso por detrás del resto de programas. Por el contrario Shake es un software totalmente profesional a la altura de las mejores producciones de Hollywood, pero la dificultad de su aprendizaje echa a muchos para atrás. Y eso que en su última actualización Apple ha hecho una considerable rebaja en su precio que, por 479 euros, está ahora al alcance de la mayoría, por no decir todos, los usuarios profesionales.

Las principales carencias de Motion hasta la fecha han sido la falta de un entorno de trabajo en 3D, de potencia en su sistema de partículas y de seguimiento de movimiento; todas ellas funciones que podemos encontrar en su gran competidor After Effects. Si queríamos ir, además, un paso más allá en la realización de composiciones entonces había que decantarse por Combustion o Shake, programas ambos con infinitas posibilidades pero un poco duros de aprender.

Casualidades o no, Motion logra, en su versión 3, un entorno de trabajo 3D. Incorpora también el seguimiento de movimientos y su sistema de partículas se transforma, casi por arte de magia, también en 3D. Y no sólo eso. Incorpora además la función Vector Paint capaz de animar todo tipo de pinceles y texto, también en 3D.

Con todas estas nuevas capacidades Motion ya no tiene nada que envidiarle a After Effects. Es más, le gana en sencillez de trabajo puesto que los comportamientos que incluye Motion (Behaviors) le hacen la vida mucho más fácil a cualquier editor. Con todas estas capacidades "casi" le echa la pata a Combustion o Shake... y aquí es cuando llega el nuevo software Color, incluído en FCS2, en su ayuda. Bien es cierto que Color es un software totalmente independiente de Motion pero no olvidemos que ambos vienen incluídos en el paquete Final Cut Studio 2 y, si tenemos en cuenta la fortísima integración de todos los productos de este paquete, resulta IMPOSIBLE no verlos como parte de un todo. Usando en conjunción Motion 3 y Color, será difícil que eches de menos otros programas.


6.2. Interfaz
La interfaz de trabajo es minimalista para ofrecer un entorno de trabajo lo más despejado posible. Como comenté al hablar de SP2, Motion 3 cuenta con paneles desplegables con los que trabajar únicamente cuando nos hagan falta, pudiendo ocultarlos después para maximizar el área de trabajo que, nuevamente, puede guardarse y recuperarse más adelante. A pesar de las pestañas y ventanas desplegables resulta imposible evitar trabajar con ventanas que ocupan espacio de trabajo. Estas ventanas son llamadas HUD y tienen la ventaja de ser semitransparentes, con lo que nunca perdemos de vista del todo el área de trabajo.
La línea de tiempo avanzada y la ventana de proyecto están ocultas por defecto y aparecen únicamente cuando es necesario trabajar en ellas. Aún con ellas desplegadas sigue quedando un espacio razonable de trabajo. Motion 3 ofrece una gran interactividad con la pantalla de vídeo permitiendo adaptarla al espacio de trabajo, verlo al 100%, desplazarla por la pantalla con la tecla espacio, ampliar-reducir, etc.

El resultado de todo esto es que la organización resulta excelente y te permite contar con una gran cantidad de herramientas sin ocupar toda la pantalla.


6.3. Trabajo en 3D
La mayor novedad de Motion 3 es, sin duda, la inclusión de un motor 3D que, además de permitir manejar todos los objetos en un espacio tridimiensional, incluye, como no podía ser de otro modo, cámaras y luces que ofrecen total libertad de ajustes en el espacio tridimensional. Una función que me llamó la atención por su gran utilidad es que, independientemente de la vista seleccionada en la ventana de trabajo, al manipular un objeto aparece una pequeña ventana en la parte inferior derecha con la visión de la cámara, es decir, ofreciendo una vista previa del resultado final. Esto te evita tener que trabajar con dos ventanas a la vez, una para trabajar en una vista determinada y otra para ver el resultado final, porque, como digo, esta ventana aparece de forma automática únicamente mientras manipulamos.

Hablando de manipulación, es frecuente que trabajando en una vista tridimensional tengamos problemas para selecccionar algunos objetos por ocultos o superpuestos. En Combustion 3 seleccionar objetos es tan sencillo como pulsar la tecla X. Todos los clips usados aparecen separados en una vista 2D que permite seleccionarlos de forma rápida y sencilla. También es frecuente que en mitad de una composición compleja necesitemos editar las propiedades de un objeto alejado o de pequeño tamaño. En la ventana de proyecto existe un pequeño icono junto al objeto que, al pincharlo,lo  muestra a pantalla completa en una vista 2D. Esto es especialmente útil para retoques de color, máscaras, etc.

El texto y los pinceles cobran también vida en 3D y podemos elegir entre una amplia gama de fuentes, efectos y pinceles. Incluso es posible usar tabletas gráficas sensibles a presión para crear todo tipo de efectos. Por último, se añade otra nueva función: Replicator, que permite crear múltiples copias de un mismo objeto en un espacio tridimensional

Al igual que sus competidores, las  vistas previas de todos estos efectos se generan desde la RAM, en tiempo real mientras realizamos las manipulaciones sin necesidad de estar renderizando. Eso sí, para obtener un rendimiento aceptable deberemos contar con una cantidad de memoria RAM lo más generosa posible.







6.4. Partículas, comportamientos, filtros, keyframes y máscaras
El sistema de partícula ha sufrido un cambio espectacular en esta versión gracias a lo que, aparentemente, es una "simple" casilla que, al marcarla, transforma cualquier emisor de partículas en 3D. Este cambio de por sí ya es importante pero en esta ocasión ha llegado acompañado, además, por la combinación con el Seguimiento de Movimientos que permite, por ejemplo, añadirle un emisor de humo al escape un vehículo en movimiento. Al contrario que Final Cut Pro 6, Motion sí que ofrece una pequeña ventana con vista previa en la librería de partículas por lo que resulta mucho más fácil moverse por el menú de selección para elegir el sistema de partículas deseado. A destacar también que Motion admite sistemas de partículas de Particle Illusion y Combustion

Los Behaviors (Comportamientos) no son nuevos en esta versión, pero resulta imposible no hablar de ellos. Son una forma sencilla, rápida y efectiva de aplicar efectos, puesto que ofrecen una serie de animaciones preestablecidas que, posteriormente, son fácilmente personalizables con la ventaja de no partir desde cero. Los comportamientos pueden, además, sumarse entre ellos. Esta capacidad facilita enormemente la creación de llamativos efectos visuales que, de otro modo, necesitarían un largo proceso de animación. Una de estas posibilidades es, por ejemplo, ajustar los keyframes al ritmo de la música (Audio Behaviors) Motion 3 analiza los valores seleccionados del audio y, en función de los mismos, selecciona de forma automática los keyframes en el rango de valores seleccionados. Incluye un buen número de comportamientos para aplicarle a la cámara, que realizará de forma sencilla y casi automática algunos de los movimientos de cámara más usuales, como zoom y barridos. Un ejemplo práctico sería, por ejemplo, la imagen de un corazón mientras se oyen los latidos. Podríamos decirle a Motion que "escuche" los latidos y que haga zoom in y zoom out al corazón en cada latido. De ese modo nos ahorramos buscar nosotros manualmente y uno a uno cada latido y definir también manualmente y uno a uno cada uno de los zoom.





En cuanto a la animación, Motion 3 usa el método del botón "grabar". Si no lo seleccionamos, cualquier cambio que hagamos en un objeto será fijo, mientras  que seleccionado registrará los cambios en momentos diferentes en la línea de tiempo e interporlará los cambios creando la animación. No obstante, también es posible animar mediante el sistema tradicional de marcar cuadros clave en los parámetros del objeto en distintos momentos de la línea de tiempo. Hay diversos tipos de interpolación de la animación: linear, bézier, contínua....

Mencionar también que la creación de máscaras se realiza de forma rápida y precisa mediante la definición de nodos y la modifación de curvas mediante tiradores.

 

6.5. Títulos y plantillas (Titles and Templates)
La creación de efectos y animaciones de aspecto profesional es extremadamente sencilla si combinamos el uso de los comportamientos anteriormente descritos con las plantillas predefinidas de Motion 3. Una plantilla es, básicamente, un diseño que cuenta con unas zonas de la imagen fijas, que no cambian, y zonas de texto y  cajas en las que poder arrastrar y soltar los elementos de nuestra composición. Estas zonas se denominan "Drop Zone" y es posible aplicar máscaras a estas "Drop Zone" Una vez finalizada la plantilla. Las plantillas pueden, además, utilizarse (aunque no modificarse) directamente en Final Cut Pro 6 y DVD Studio Pro 4. Las plantillas son de especial utilidad a la hora de crear menús para DVDs, cabeceras, lower-thirds, etc.




6.6. Seguimiento (tracking) y SmoothCam

 Junto con el motor 3D otra de las grandes funciones que se echaba de menos en Motion 3 era la de Seguimiento (Tracking). Esta función permite hacer el seguimiento de una parte de la imagen. Una vez realizado el seguimiento es posible asociar ese seguimiento a cualquier otro parámetro de Motion para aplicar filtros, partículas o para estabilizar la imagen. La opción "Unstabilize" permite aplicarle a un objeto comportamientos que tendrán un seguimiento de movimiento.

Uno de los usos más comunes del tracking (segumiento) es sustituir zonas de la imagen en movimiento con otra imagen. En la imagen de ejemplo de la siguiente imagen el objetivo es sustituir el panel del coche pintado en verde con una pantalla virtual de GPS. A la hora de asociar el objeto de sustitución con el movimiento de la zona a reemplazar podemos podemos trabajar con tres parámetros: posición, tamaño y rotación.
Ajustar el objeto a mover a la imagen de referencia es sencillo. Al pinchar sobre el pivote central aparece una pequeña ventana en el centro de la imagen que amplía lo que se ve en la imagen de referencia debajo del objeto seleccionado. Esto permite ajustar con precisión la posición de referencia. Para adaptar el objeto a reemplazar con el espacio a ser reemplazado existe un modo especial de tracking (seguimiento) llamado "Four corners" (cuatro esquinas) que hace que la imagen se adapte a las cuatro esquinas seleccionadas. No es necesario elegir con precisión los extremos de las cuatro esquinas. Es suficiente con seleccionar cuatro puntos fijos CERCA de las mismas. Una vez que Motion 3 ha realizado el análisis es fácil mover las esquinas del objeto a las esquinas reales de referencia







Otra de las grandes novedades de Final Cut Studio 2 es la función SmoothCam, también presente en FCP6, que permite eliminar movimientos indeseados de la imagen con, simplemente, pinchar un botón. Motion 3 nos ofrece dos métodos de trabajo. Uno para estabilizar por completo la imagen y otro, más suave, que únicamente elimina movimientos indeseados. Una vez analizado el clip es posible hacer tantos cambios como se desee sin tener que volver a analizar. Los parámetros a modificar son la posición, tamaño y rotación. Aunque el proceso automático funciona correctamente la mayor parte de las veces es posible realizar ajustes de forma manual

La función Retiming (reajuste de tiempo), como vimos, también está presente en FCP6 pero, como también comentamos, Motion 3 permite un análisis óptico de las imágenes para generar nuevos cuadros sin pérdida de calidad. Hay que tener en cuenta, no obstante, que la opción "optical flow", que así es como se denomina, es bastante lenta, puesto que necesita realizar numerosos e importantes cálculos. Una de las ventajas de modificar la velocidad de los clips con Motion en lugar de con FCP es que la función Retiming admite Behaviors (Comportamientos) Dicho de otro modo, puedes crear efectos dinámicos muy llamativos de forma extremadamente sencilla eligiendo de entre las plantillas de efectos de tiempo predeterminados que ofrece Motion.

 

7. Color

7.1. Las Habitaciones (Rooms)
La interfaz de trabajo es muy limpia y despejada, accediendo a todas y cada una de las secciones mediante pestañas en la parte superior que, además, están ordenadas según el flujo habitual de trabajo de izquierda a derecha: Ajustes, Primarios, Secundarios, Efectos de color, Salida primaria, Geometría, Almacén de Diapositivas  y Cola de Renderizado. Luego, para cada pestaña hay un conjunto de sub-pestañas en la parte inferior. La interfaz es "sosa y aburrida" y con colores oscuros de forma intencional, puesto que se trata de un entorno de trabajo pensado en la corrección de color y el uso de colores variados, claros y/o llamativos podría dificultar la consecución de los tonos y colores deseados.  Apple recomienda trabajar con una resolución de, al menos, 1.920 x 1.200 puntos. Sólo los monitores de 24'' o más son capaces de trabajar con estas resoluciones; salvo que se trabaje en dos monitores. Si se trabaja con un monitor pequeño (de menos de 19'') es muy fácil sentirse "agobiado" por la falta de espacio

Como sucede en Motion, el motor gráfico empleado permite ver todas estas correcciones en tiempo real y es posible trabajar hasta con 4 ajustes de color o "aspectos" diferentes  por cada clip y agrupar clips para aplicarles a todo los mismos ajustes de color.

Una de las herramientas de análisis de Color es el "3D Color Space scope", o analizador de color en 3D con el que el reparto de colores se realiza en un espacio tridimensional que permite profundizar en el análisis de las imágenes como nunca antes. Este análisis resulta especialmente útil a la hora de emparejar imágenes con cualidades visuales diferentes como, por ejemplo, escenas rodadas en horario distinto o imágenes procedentes de dos cámaras diferentes. Como siempre, es posible enviar vídeo a Color directamente desde FCP6  y devolverlo a la línea de tiempo una vez terminado el proceso.


7.2. Primarios
En esta primera pestaña se denomina Primarios porque en ella se realiza el primer paso en el ajuste del color, actuando sobre los sombras, tonos medios y claros. Cada color primario cuenta también con su ventana de ajustes. Esta pestaña es prácticamente idéntida al "Color corection 3-way" de Final Cut Pro 6 y es posible almacernar los ajustes de las correciones realizadas para reutilizarlas con otros clips.

 

7.3. Secundarios
Una vez aplicados los ajustes Primarios, generales para toda la imagen, los ajustes secundarios permiten realizar correcciones de áreas concretas de la imagen. La corrección se realiza de forma muy simil
#1727
    Realizado en dos versiones, una en VEG que es la que más me gusta porque permite interactuar directamente sobre él (con el lado negativo del riesgo de salvar cambios no deseados) y una versión en PDF que está ligeramente adaptada respecto al VEG porque añade el uso de cookie cutter para eliminar defectos en la máscara.
    Startel


Descargar tutorial


Peso: 1,2 Mbytes
Formato: ZIP
Autor
Startel

#1728
Este artículo se publicó en julio de 2007 y se conserva por motivos de archivo histórico


Para publicar dudas o más información visita este hilo del foro: http://www.videoedicion.org/foro/index.php?topic=36336.0

Pincha en este enlace para descargar el vídeo en formato Windows Media Video  12.56 Mbytes)
Pincha en este enlace para descargar el vídeo en formato Windows Media Video  12.56 Mbytes)
#1729
Este documento se elaboró en junio de 2007 y se conserva por motivos de archivo histórico

Autor: Firecardenal

Descargalo a Calidad completa en formato  wmv  32.9 MB 1280x720
Descargalo a Calidad completa en formato  wmv  32.9 MB 1280x720


Publicación de dudas:  en este hilo
#1730
Este artículo se publicó en junio de 2007 y se conserva por motivos de archivo histórico


DESCARGA A CALIDAD COMPLETA EN  FORMATO  WMV
DESCARGA A CALIDAD COMPLETA EN  FORMATO  WMV



1280 X 720    (48.7 mb)

Para dudas o consultas, por favor, consulta el siguiente hilo del foro:
http://www.videoedicion.org/foro/index.php?topic=37386.0
#1731
Este artículo se publicó en junio de 2007 y se conserva por motivos de archivo histórico


Descargar videotutorial a calidad completa
Tamaño de pantalla: 1280 x 720
Peso: 75 Mbytes
Formato: DivX 5.0
#1732
Este artículo se publicó en junio de 2007 y se conserva por motivos de archivo histórico


En  este tutorial,  aprenderás  una  de  las  técnicas  para  hacer  un  matte  por  luminancia.

Descarga  en formato FLV calidad  completa 13 mb.
Descarga  en formato FLV calidad  completa 13 mb.
#1733
Este artículo se publicó en junio de 2007 y se conserva por motivos de archivo histórico


En este  tutorial,  aprenderás  de manera  sencilla    y  rápida,  a  generar  o  simular  el  humo  de  un  cigarrillo  por  medio  de  las  herramientas  que  incluye  el  after  effect  pro.
Es decir,  sin  plugins  adicionales  o  programas  de  partículas.

DESCARGALO EN FLV 1024 X 768 COMPRIMIDO 18 MB
#1734
Este artículo se publicó en junio de 2007 y se conserva por motivos de archivo histórico


DESCARGA  A  CALIDAD COMPLETA  FLV  30 mb
#1735
Este artículo se publicó en junio de 2007 y se conserva por motivos de archivo histórico


DESCARGALO EN FLV 26 MBF
#1738

Este manual es una traducción de la guía de uso oficial publicada en esta dirección:


http://www.guthspot.se/video/deshaker.htm


Texto original: Gunnar Thalin
Traducción: Ramón Cutanda, 13 Abril 2007


Introducción


Deshaker es un estabilizador de vídeo para VirtualDub. Elimina, hasta cierto punto, los temblores de cámara ocasionados por la grabación sin trípode ni steady-cam haciendo las panorámicas, zoom y movimientos de cámara en general más suaves, más estables.


Características:



Estabiliza movimientos horizontales/verticales, giros y zoom.

    


Trabaja en 2 pasadas para lograr mejores resultados.

    


En movimientos bruscos con pérdida total de la imagen principal el programa usa cuadros anteriores y posteriores para "rellenar" vacíos.

    


Salida opcional de los vectores de movimiento durante la primera pasada.

    


Gran número de ajustes avanzados.

    


Posibilidad de interaccionar con el programa cuadro a cuadro para "ayudar" al filtro a lograr resultados óptimos

[/list]
Instalación[/b]


Descarga Deshaker y copia el archivo Deshaker.vdf dentro de la carpeta plugins de VirtualDub directory. Si tenías abierto el programa cierra y reinicia.

Instrucciones rápidas[/b]


Estos son los pasos mínimos a seguir para usar Deshaker:



Abre VirtualDub

    
  • Abre el archivo de vídeo a procesar y añade el filtro Deshaker.
        


Selecciona las opciones adecuadas en los apartadosSource pixel aspect (relación de aspecto) y Video type (tipo de vídeo).

    


Asegúrate de que la opción  Pass 1 (primera pasada) esté seleccionada.

    


Selecciona OK y procesa el vídeo de la forma habitual en VirtualDub. Obtendrás un vídeo temporal que luego puedes borrar. No se obtiene ningún vídeo útil en la primera pasada pero se obtiene un archivo con la información necesaria para procesar el vídeo (por defecto c:\Deshaker.log)

    


Selecciona ahora Pass 2 (segunda pasada) y elige Destination video size (tamaño del vídeo de destino) y Destination pixel aspect (relación de aspecto del vídeo de destino)

    


Procesa el vídeo en VirtualDub. En esta ocasión obtendrás el resultado definitivo. Puedes sobreescribir el vídeo temporal generado anteriormente.

[/list]
Guía completa[/b]


Esta sección describe con detalle todos los ajustes. Puedes completar la lectura de esta guía con esta fabulosa guía práctica escrita por John Meyer (en inglés)


http://www.sundancemediagroup.com/articles/deshaker_guide.htm


También hay una versión en alemán tanto de esta guía como de la de John Meyer:


http://www.ffc-hildesheim.de/tipps_tricks.htm



Desde aquí mi agradecimiento a Armin Schreiter por estas traducciones


Los ajustes por defecto ofrecerán unos buenos resultados la mayor parte de las veces. Sin embargo, estos ajustes te permitirán obtener resultados aún mejores en determinadas escenas definiendo algunos ajustes con mayor precisión. Estos ajustes predeterminados son los mismos que en la primera versión para no despistar a algunos usuarios aunque hay que tener en cuenta que en esta nueva versión hay funcionalidades nuevas que complementan los anteriores y los ajustes previos pueden no ser ya los mejores. En especial, recomiendo usar cuadros anteriores y posteriores y quizás también desactivar la compensación de bordes.


Ten en cuenta también que todos estos ajustes están ahí por algo. Dejar los ajustes por defecto puede estar bien para empezar, pero si no te remangas y experimentas por ti mismo nunca lograrás obtener los mejores resultados. No siempre es fácil dar con los ajustes adecuados a la primera pero si no experimentas no los lograrás nunca, y no es tan difícil una vez puestos manos a la obra


Antes de continuar es necesario comprender cómo funciona el filtro para saber con exactitud qué hace cada uno de los ajustes posibles. Así pues, a continuación explicamos el funcionamiento del filtro

Cómo funciona Deshaker[/b]


Durante la Pass 1 (primera pasada) el filtro "observa" el contenido del vídeo y busca movimientos de cámara comparando diferencias entre un cuadro y el siguiente y buscando dentro de la imagen aquellos píxeles que casi no varían. Este proceso se realiza en varios pasos. En primer lugar se usan imágenes reducidas que son  más rápidas y fáciles de procesar. En este paso se buscan únicamente movimientos generales, no se busca precisión, sino simplemente distinguir entre escenas estáticas y con movimiento. Luego, en diversos passos, se van usando imágenes con el doble de resolución del paso anterior y se empieza a buscar similitudes y diferencias con mayor precisión hasta llegar a las imágenes de tamaño completo. Llegados a este punto Deshaker habrá localizado los valores óptimos para los movimientos basándose en los vectores de movimiento que quedan registrados en el archivo Deshaker.log


Al iniciar el Pass 2 (segunda pasada) se leen los valores escritos en el archivo dew registro y los movimientos de cámara se calculan en función de los valores ahí registrados. El filtro modifica cada una de las imágenes del vídeo en función de estos datos.

Los Ajustes[/b]


Parámetro



Descripción - ¡¡Traducción en progreso!!


Source pixel aspect


(relación de aspecto)


Le indica al filtro cual es la relación de aspecto de los píxeles del vídeo fuente. Es muy importante indicar este parámetro correctamente o aspectos como la rotación no se llevarán a cabo de forma correcta. Puedes indicar cualquier valor de forma manual si los ajustes predeterminados no coinciden con lo que necesitas.


Video type


(tipo de vídeo)


Selecciona entre vídeo progresivo y entrelazado (para entrada y salida) Si el vídeo está entrelazado debes indicar también la domincia de campo. El formato DV, por ejemplo, usas el campo inferior  mientras que la mayoría de otros formatos (incluyendo HDV) usan dominancia del campo superior. Puedes verificar fácilmente este dato echándole un vistazo a los vectores de movimiento en dos campos de una escena con movimiento en el vídeo. Si los vectores apuntan en direcciones contrarias indican, la mayor parte de las veces, que el ajuste de tipo de vídeo ha sido incorrecto.
Camcorder has a rolling shutter
(Cámara con obturador rotativo)
Las cámaras con obturador rotativo no capturan los fotogramas de una sola vez sino que las líneas del fotograma se capturan de manera alterna en instantes consecutivos, registrando imágenes idénticas la mayor parte de las veces, pero en otras ocasiones puede provocar extraños efectos como en el caso de movimientos rápidos horizontales de cámara.Para Deshaker indicarle el uso de obturador rotativo significa que los valores que usará para los parámetros de estabilización (movimiento, rotación y zoom) pueden no mantenerse constantes en un mismo fotograma pudiendo cambiar ligeramente de una línea a otra. Si activas este parámetro  Deshaker permitirá que estos parámetros cambien linearmente en sentido vertical durante la primera pasada. Esto hará que la extracción de estos parámetros tenga mayor fiabilidad y también permitirá a la segunda pasada eliminar las distorsiones del obturador rotativo si mantienes este parámetro activo en esa pasada. Aunque los posibles movimientos de la cámara no son lineales durante la captura de un cuadro esta aproximación suele ser lo bastante buena como para eliminar las distorsiones casi por completo. Aún así recomiendo enfáticamente usar también el estabilizador interno de la cámara si dispone de él, salvo que la grabación sea muy estable; en cuyo caso es muy probable que no usaras Deshaker...

Ten en cuenta que únicamente pueden eliminarse las distorsiones de obturador rotativo causadas por movimiento o vibración. Los algoritmos, además, están optimizados para la Sony HDR-HC1(E) que en el momento de escribir estas líneas es la única cámara con obturador rotativo de la que tengo constancia. Si estás interesado en incluir otro modelo, por favor, ponte en contacto conmigo (sólo en inglés)

No es posible usar el algoritmo de análisis en profundidad (deep analysis) con vídeo de obturador rotativo


Log file


(archivo de registro)


Nombre del archivo de registro que se genera en la primera pasada y que se usa en la segunda.


Append to file


(Añadir al archivo)


Si se marca se añaden datos al log en lugar de sobreescribirlo.


Video output


(Salida de vídeo)


Tipo de vídeo a generar durante la pasada 1 (pass 1). Si seleccionas  verás la imagen anterior con flechas indicando cómo mover los bloques para que coincidan con la imagen de origen actual. Únicamente las flechas blancas se usan para calcular los movimentos, rotación y factor de zoom. Para vídeo entrelazado se muestran los dos campos, el primer campo sobre el último.


Block size


(Tamaño del bloque)


Ancho y alto de los bloques usados durante la comparación de imágenes.


Scale


(Escala)


La escala máxima a usar en la comparación de imágnes. La opción Full (tamaño completo) es la que proporciona mejores resultados, aunque ralentiza mucho el procesado.


Use pixels


(Píxeles a usar)


Cuántos píxeles se usarán realmente en los bloques durante las comparaciones. La opción All (todos) es la mejor aunque ralentiza mucho el procesado.


Color mode


(Modo de color)


La comparación de imágenes puede realizarse en color o en escala de grises. La escala de grises acelera el proceso a costa de perder algo de precisión. Este ajuste no tiene nada que ver con el color obtenido finalmente en el vídeo generado en la segunda pasada (pass 2)


Initial search range


(Rango inicial de búsqueda)


En la escala más reducida este porcentaje proporciona el grado máximo de comparación. El valor Lower (inferior) acelara el proceso


Differential search range


(Rango de búsqueda diferencial)


Al saltar de una escala reducida a una del doble de tamaño el filtro ya cuenta con valores aproximados. El rango de búsqueda diferencial indica cuántos píxeles hacia arriba, abajo, izquieda y derecha analizar mientras se buscan coincidencias. Los valores más bajos aceleran el proceso pero si el vídeo incluye movimientos rápidos o zoom de gan amplitud la búsqueda puede ser incorrecta para algunos bloques.


Discard motion of blocks that have match value less than X


(Descartar movimiento de bloques que coincidan menos que X)


Si el mejor valor coincidente encontrado durante la búsqueda de coincidencias de un determinado bloque es inferior a X este bloque se descarta. Los bloques en escalas mayores que dependan de éste también se descartan. Estos bloques descartados no muestran vector de movimiento en el vídeo resultante de la primera pasada (pass 1).


Discard motion of blocks that have 2nd best match larger than best minus X


(Descartar movimiento de bloques que tienen la 2ª mator coincidencia mayor que el mejor menos X)


Si el segundo mejor valor coincidente encontrado durante la búsqueda de coincidencias de un determinado bloque está cercano al mejor valor coincidente esto quiere decir que la coincidencia encotrada no es muy fiable. También podría indicar que este segundo valor es el correcto. Por ejemplo, en un cielo azul es fácil encontrar coincidencias para todos los valores. El ajuste correcto de este parámetro descarta aquellos poco fiables. Los bloques en escalas mayores que dependan de este bloque también son descartados. Estos bloques descartados no muestran vector de movimiento en el vídeo de salida del pass 1 (primera pasada).


Discard motion of blocks that move more than X pixels in wrong direction.


(Descartar movimiento de bloques con desplazamiento mayor que X píxeles en la dirección contraria)


Cuando se calculan los mejores valores para movimientos, giros y zoom basándose en todos los vectores de movimiento el filtro se encuentra enseguida con bloques que no tienen movimiento y que no encajan bien con el movimiento principal. Si un bloque tiene un vector de movimiento con un distanciamiento mayor de X píxeles se descarta para obtener valores más precisos. Los vectores de movimiento para estos bloques se dibujan en rojo en al vídeo de salida de la primera pasada (pass 1) y no se usan para nada. Puesto que el movimiento, rotación y el zoom se realizan en dos dimensiones es posible obtener muchos de estos bloques que no parecen encajar en el movimiento principal cuando el efecto de perspectiva aumenta. Esto sucede cuando la cámara se ajusta en gran angular y no sólo gira (en cualquier eje) sino que también se mueve. En este caso deberías usar valores X mayores (o quizás limitar el área coincidente a las zonas más distantes. En grandes ampliaciones o cuando la cámara está estacionaria el efecto de perspectivac es bajo y deberías usar valores X pequeños (incluso 1) para descartar el movimiento de objetos, incluso aquellos que se desplazan ligeramente.
Deep analysis if less than X % of vectors are ok
(Análisis en profundidad si menos del X % de vectores son correctos)
Cuando se ajusta al 0%, que es el valor por defeto, no tiene efeto alguno. Para activarlo ajústalo a un 25% aproximadamente para empezar. En ese caso, si menos de un 25% de los vectores encontrados pasan a blanco usando el algoritmo estándar, entra en juego este análisis en profundidad. Realiza un trabajo mucho mejor a la hora de encontrar objetos donde el algoritmo estándar se confundiría y tomaría como referencicas tods objetos separados a la vez, lo que a menudo resulta en muy pocos vectores blancos y valores extraños. Usándose en combinación con el parámetro anterior (Discard motion of blocks that move more than X pixels in wrong direction - Descartar movimiento de bloques con desplazamiento mayor que X píxeles en la dirección contraria) permite controlar la los valores de variación de los de los vectores de localización (normalmente en el fondo) Por ejemplo, los bloques de una persona en movimiento normalmente no se mueven de forma coherente con el fondo (si la cámara está estática) Usando por tanto un valor bajo para descartar movimiento (inferior a 1 por ejemplo) la persona probablemente obtendría pocos vectores blancos y este algoritmo, por tanto, se fijaría únicamente en el fondo, incluso en el caso de que el fondo no ocupe gran parte de la pantalla. Este algoritmo hace un buen trabajo pero es MUY lento, sobretodo en combinación con otros ajustes y dependiendo de la complejidad del vídeo a procesar.


Skip frame if less than X percent of all blocks are ok.


(Saltar cuadros si menos del X % de todos los bloques son correctos)


SI menos que un X % de todos los bloques están bien, es decir, si el resto de bloques no tienen valores aceptables o han sido descartados este bloque se saltaría (ajusta el movimiento y la rotación a 0 y la escala de zoom a 1)


Ignore pixels outside area


(Ignorar píxeles fuera del área)


area se usa durante las coincidencias. Si marcas la opción Let area follow motion (permitir al área seguir movimiento) el área se moverá junto con los vectores de movimiento entre los distintos cuadros. Puedes usarlo si quieres estabilizar un objeto en movimiento en lugar del fondo, pero no tengas demasiadas esperanzas en que salga bien :)


Ignore pixels inside area


(Ignorar píxeles dentro del área)


area no se usa durante las coincidencias
Ignore pixels darker than X % brightnessAlgunas cámaras parecen usar algún tipo de suavizado temporal interno para reducir ruido. Esto significa que el rido restante será muy similar entre dos cuadros consecutivos y puede hacer que Deshaker trabaje incorrectamente. Este problema se acrecenta cuando se usan valores de ganancia altos (al filmar en zonas oscuras) y empeora muchísimo en zonas oscuras. Usando esta opción puedes ignorar los píxeles oscuros durante la búsqueda. El umbral a usar depende de la cámara y de la ganancia empleada. El 15% empleado por defecto para trabajar bien en mis pruebas realizadas a la luz del día pero puede no ser el ideal en tu caso en particular.


Same destination properties as source


(Usar para el destino las mismas propiedades de la fuente


AL marcarla el vídeo de destino tendrá el mismo tamaño y relación de aspecto que el fuente y los dos valores a continuación se ignorarán.


Destination pixel aspect


(Relación de aspecto de destino)


Le indica al filtro que genere el vídeo con una relación de aspecto determinada. Si reproducirás el vídeo en un monitor de ordenador es recomendable usar píxeles cuadrados (square pixels) Puedes indicar cualquier valor si no existe el valor predeterminado que necesitas.


Destination video size


(Tamaño del vídeo de destino)


El tamaño del vídeo de destino tras la segunda pasada (pass 2)
Generate "interlaced progressive" video
(Generar vídeo "progresivo entrelazado")
Deshaker generará el mismo tipo de vídeo que el original (entrelazado/progresivo) pero puedes activar esta opción que transforma el vídeo entrelazado en progresivo duplicanda la tasa de cuadros por segundo. Puesto que VirtualDub no permite cambiar esta tasa se entrelazan en un mismo cuadro de salida dos cuadros progresivos. Así pues para lograr realmente vídeo progresivo debes separa los campos del vídeo posteriormente. Puedes hacer esto con AVISynth y su función SeparateFields (separar campos) Nunca deberías desentrelazar este vídeo de ninguna otra forma más que separando los campos.

La diferencia entre una salida realmente entrelazada y este entrelazado progresivo es que el vídeo tiene el doble de resolución (para hacer un cuadro partiendo de dos) y, más importante, que el campo inferior (lo que podríamos llamar "cuadro" inferior) no se calcula con un salto de línea como en el vídeo entrelazado


Resampling


(Remuestrado)


El algoritmo usado cuando se calcula los píxeles de color de la imagen de origen. Hay que tener en cuenta que ninguno de estos será muy bueno cuando el destino sea muy inferior al origen. Alternativamente puedes añadir un filtro de reducción 2:1 o similar al vídeo una vez que éste haya sido procesado por Deshaker.


Edge compensation


(Compensación de bordes)


Un efecto secundario de la estabilización de un vídeo los bordes negros. Puedes elegir entre no tomar ninguna medida o reducir el tamaño de los bordes en negro aplicando un zoom adaptativo.  La segunda opción determina para cada cuadro cuanto zoom se necesita para evitar bordes negros. Este zoom adicional se suaviza usando el parámetro de suavizado por lo que aún así a veces los bordes todavía siguen siendo visibles. La diferencia entre zoom adaptativo (Adaptive zoom) y Adaptive zoom only (sólo zoom adaptativo) es que el primero aplica el parámetro de suavizado al zoom adaptativo y no usa zoom estabilizador mientras que el segundo es adecuado si no hay zoom en el vídeo. También puedes elegir Fixed zoom (zoom fijo). El filtro ampliará el vídeo lo suficiente para eliminar los bordes negros. Usa un límite de corrección (correction limits ) bajo (esta opción está descrita más adelante) para disminuir el valor del zoom.


Previous and future frames to fill in borders


(Cuadros anteriores y posteriores para rellenar bordes)


Esta opción representa un tipo de compensación de bordes adicional. Cuando el cuadro actual no contiene la información que queremos en el "área del mundo real" se puede buscar en cuadros anteriores y posteriores  y usar esas imágenes en su lugar. Siempre y cuando esa área sea parte del objeto (o fondo) que haya sido estabilizado en la primera pasada (pass 1) esta opción suele funcionar a la perfección. Sin embargo, cuando hay objetos moviéndose en estas áreas puede aparecer algún efecto extraño. En cualquier caso suele ser preferible a un cuadro en negro, así que comiendo encarecidamente usar esta opción. Tan sólo debes asegurarte de recortar cualquier borde del vídeo antes de aplicar Deshaker o el filtro no funcionará correctamente.


Si el cuadro actual es el número 50 el filtro buscará cuadros en el siguiente orden para encontrar los datos de la imagen que necesita: 50, 49, 51, 48, 52, 47, 53, 46, 54 etc así que se usa siempre para cada píxel el cuadro cronológicamente más cercano. Puedes definir cuántos cuadros se almacenarán internamente para esta función. Se suelen obtener mejores resultados cuanto mayor sera este número pero ten en cuenta que cada cuadro necesita aproximadamente unos 1,5 Mbytes de memoria y que buscar los datos de las imágenes en todos estos cuadros puede resultar una tarea lenta y pesada.


Puesto que los filtros de VirtuaDub no puede acceder a cuadros futuros el filtro aplica un pequeño truco. Va leyendo cuadros y detrasa la salida real tantos cuadros como hatas especificado. Este procedimiento provoca algunos problemas fácilmente solucionables si sabes cómo. En primer lugar necesitas retrasar el audio. Puedes hacer esto en el menú Audio/Interleaving de VirtualDub. Mientras se recogen los cuadros un texto en el vídeo resultante te dirá cuantos milisegundos es necesario retrasar el audio. En segundo lugar debes desfasar el marcador final de Virtualdub el mismo número de cuadros o de otro modo los últimos cuadros del vídeo no podrán procesarse. Si no cuentas con suficientes cuadros al final símplemente añádele los de cualquier otro vídeo. Estos cuadros de origen no se usarán para nada. Ten en cuenta que este truco únicamente es válido para la segunda pasada (pass 2). La primera pasada (pass 1) debe llevarse a cabo sin ningún tipo de desfase o vídeos añadidos.
Usa esta función en vídeos con mucho movimiento de cámara y usa la opción Extra zoom factor (factor extra de zoom) a un valor sobre 0.6 y obtendrás un efecto panorámico. Es lento, pero divertido :)
Soft borders
(Suavizado de bordes)
Activando esta función todos los cuadros futuros que Deshaker ha almacenado en la memoria se usarán para calcular los bordes (como método alternativoa a usar simplemente el cuadro más cercano en el tiempo) Para cada píxel se toma una media de los píxeles correspondientes en estos cuadros dándole mayor importancia a aquellos cuadros más cercanmos en el tiempo al cuadro actual.Esta opción también te permitirá hacer las transiciones entre cuadros más suave. El valor de la anchura de la transición indica la distancia desde los bordes a la que esta comenzará. La transición se aplicará también al cuadro actual de modo que se perderá algo de información en el cuadro principal usando esta opción, aunque yo diría que merece la pena. Si no te gusta esta opción indica un valor de 0 (cero) para desactivarla.

Activar el suavizado de bordes (Soft bordes) mejora en gran medida la apariencia de los bores, especialmente cuando hay objetos en movimiento, pero también puede ralentizar mucho el proceso.
Extrapolate colors into border
(Extrapolar colores al borde)
Cuando se activa cualquier píxel de borde negro que no pueda solucionarse de otro modo se reemplazará por un color extrapolado cercano al borde. Esta opción es muy lenta cuando es necesario procesar muchos píxeles y recomiendo encarecidamente usar la opción Previous and future frames to fill in borders (Cuadros anteriores y posteriores para rellenar bordes) en combinación con esta opción.


Extra zoom factor


(Factor extra de zoom)


An additional zoom factor to apply to the video. This can for example be used together with fixed zoom edge compensation to zoom out just enough for the borders to become slightly visible but still remain hidden in the overscan area of the TV. Then you will see more of the video while still not seeing any borders on the TV. Or you can use it to zoom in slightly to get less borders. This setting won't cause another resampling, so using a little extra zoom to finetune your results is perfectly safe, quality wise. (Btw, all output pixels are always resampled directly from the original source pixels exactly once no matter what settings you use. So, no double resampling ever. This includes areas taken from previous or future frames.)


Motion smoothness


(Suavidad de movimiento)


These values determine how smooth the motion will be. You can set a parameter to 0 to turn off the smoothing completely. This can be useful if you don't want to stabilize zoom for example. But you must use a rather high zoom smoothness if you use adaptive zoom as edge compensation, or the video will zoom in and out very fast to avoid the borders. The motion smoothness calculation is not time-based but rather based on frame count, so you'll need to use larger values for interlaced video to achieve the same effect. If you enter -1 as smoothness you will get "infinite smoothness", meaning the camera will appear to be stationary at the position of the first frame that was processed in pass 1. This feature usually doesn't work perfectly, though.


Max. correction limits


(Límites máximos de corrección)


To keep the corrections (that cause the black borders) small during fast pans (for example), you can limit the maximum corrections. Especially when using fixed zoom as edge compensation these settings keep the zoom from being too large. What these settings really do is automatically lower the motion smoothness values in certain parts of the video when it becomes necessary.
A tener en cuenta[/b]


Deshaker funciona mejor para vídeos grabados con altas velocidades de obturación (como mínimo 1/200 seg o similar). En caso contrario puede producirse una pérdida de definición en el vídeo procesado y una menor precisión


Intenta asegurarte siempre que los vectores blancos apunten al fondo de los cuadros para obtener mejores resultados. Es decir, intenta que Deshaker ignore por completo objetos que se muevan en un primer plano. Si los vectores blancos saltan entre diversos objetos entre cuadro y cuadro necesitarás intervenir para lograr un buen resultado. Puedes, por ejemplo, usar la función ignore area (ignorar área) ¡Experimenta tú mismo con otros ajustes!


No olvides definir la relación de aspecto del vídeo. Los vídeos con una resolución de 720x480, 704x480 o 352x240 son NTSC mientras que las resoluciones 720x576, 704x576 or 352x288 se corresponden con el formato PAL.


Si no hay zoom en el vídeo a procesar usa Adaptive zoom only (sólo zoom adaptativo) como edge compensation (compensación de borde) o, si no quieres ninguna compensación, ajusta el parámetro zoom smoothness (suavidad del zoom) a  0. Esto es así porque el estabilizador de zoom stabilizing no puede distinguir entre el zoom provocado por movimientos para acercar físicamente la cámara a un objeto de un zoom meramente óptico. El efecto óptico que se logra en ambos casos es bastante diferente, en especial usando grandes angulares.


A menudo aparecen conflictos con el movimiento de grandes objetos en los vídeos. En estos casos el filtro intenta "seguir" el movimiento del objeto mayor (a menudo el fondo). Se puede usar el ajuste que descarta los bloques que se mueven más de X píxeles en la dirección para controlarlo hasta cierto punto. Un valor bajo fuerza al filtro a seguir únicamente al mayor objeto mientras que valores mayores le hacen seguir el movimiento medio de todos los objetos que no se mueven demasiado en la dirección equivocada. También puedes usar el área de coincidencia de imágenes para controlar qué objetos seguir o intentar activar el deep analysis (análisis en profundidad) que está diseñado específicamente para corregir este problema, a costa de un notable aumento en el tiempo de procesado
Intenta evitar vídeos con mucho zoom o filtros que distorsionen la imagen puesto que dificultarán el trabajo de Deshaker.


Si, como yo, eres un perfeccioniste usa siempre el ajuste más lento para lograr los mejores resultados. Eso sí, ¡ten en cuenta que esta opción es realmente lenta! :)

Interacción con el filtro[/b]


En ocasiones puede ser virtualmente imposible cuadrar dos imágenes consecutivas de forma adecuada o, mejor dicho, que el filtro lo haga como tú quieres. Esto sucede casi siempre cuando las imágenes a procesar tienen muy poco en común o cuando hay un conflicto por el movimiento de grandes objetos (ver 'A tener en cuenta' sobre estas líneas) Para lograr el resultado deseado puedes probar con distintos ajustes durante el pass 1 (primera pasada) en diferentes partes del vídeo (incluso en cuadros individuales) Puedes hacer esto de dos formas:



Usando la opción Append to file (añadir al archivo) para continuar escribiendo en el mismo archivo log de registro. Puedes cambiar entonces los ajustes, revisar algunos cuadros, volver a cambiar, avanzar unos cuadros, etc. El número de los cuadros se escriben en el archivo log de registro de modo que siempre puedes deshacer o modificar los cambios realizados. Si un cuadro aparece repetido en el archivo log de registro se usa el ajuste más reciente para la segunda pasada (pass 2).

    


Puedes editar el archivo log de registro de forma manual. Los valores de cada línea son, de izquierda a derecha:
- Número de cuadro
- Desplazamiento x e y (en píxeles)
- Rotación (en grados)
- Factor de zoom
Cuando "rollin shutter" (obturador rotativo) está activado los cuatro valores de desplazamiento, giro y zoom se repiten; primero para la línea central y luego para la primera línea del cuadro. Puedes borrar las líneas que provoquen un resultado equivocado. Luego, si lo deseas, ajusta el filtro de forma manual. Cuando no hay información sobre un cuadro el filtro deja ese cuadro sin modificar

[/list]
Estabilizando vídeo entrelazado[/b]


Deshaker puede procesar vídeo entrelazado, pero el resultado estará más suavizado que en el caso de vídeo progresivo ya que los campos del vídeo entrelazado son remuestrados individualmente y únicamente representan la mitad de la resolución completa de cada cuadro (ver Conceptos básicos de vídeo digital) Los campos remuestrados son posteriormente re-entrelazados en el vídeo de salida. No tiene sentido intentar detectar píxeles estáticos y tratar de mantenerlos "no-desentrelazados" ya que nunca aplicarías un filtro estabilizador a un vídeo grabado con trípode y que ya es estable y sin trípode es casi imposible encontrar píxeles estáticos. Desentrelazazr con estimación de movimiento puede, en algunos casos, ofrecer un mejor resultado, pero no es probable que intente implementar esta función por el momento.
Para estabilizar vídeo entrelazado con poco movimiento puedes probar el siguiente método:


Usa mi filtro smooth deinterlacer (desentrelazador suave) o cuaqluier otro (como Xesdeeni's AVISynth) para generar vídeo a tamaño completo y 50 ó 60 fps (cuadros por segundo), dependiendo de si el vídeo es PAL o NTSC respectivamente.

    


Úsalo en Deshaker como vídeo progresivo (en dos pasadas).

    


Pasa el vídeo resultante por este script de AVISynth (facilitado por Xesdeeni):

[/list]


AVISource("deshaked.avi")
SeparateFields()
SelectEvery(4, 1, 2)  (or SelectEvery(4, 0, 3) depending on the output field polarity)
Weave()

El vídeo obtenido en el paso 2 tendrá una calidad fantástica para reproducirlo en un ordenador, sin embargo para verlo en un televisor es necesario el paso 3.
#1739
Este artículo se publicó en abril de 2007 y se conserva por motivos de archivo histórico

Autor: Israel Martínez Peñaflor

Esta pequeña guía esta realizada con el fin de ayudar a quienes desean capturar video análogo desde Premiere Pro, Premiere Pro 1.5 o Premiere Pro 2.0, y no consiguen que el mismo reconozca sus tarjetas de captura análogas.


Tengo tres capturadoras análogas: una tarjeta PCI de TV conextan con el chip bt878, entradas S-Video y video compuesto RCA. La otra tarjeta ces la HP DVD Movie Writer dc3000, es USB y tiene entradas video compuesto y audio stero en RCA y S-Video. La tercera es una la Pinnacle Movie Box USB, pero parece que esta marca no es políticamente reconocida por Adobe Premiere.


Adobe Premiere, de fábrica no viene configurado para capturar video análogo, por lo tanto para conseguir que premiere lo haga hay que recurrir a programas de terceros llamados PLUG-IN, hasta ahora el único que conozco es el plugin de la empresa Mainconcep, llamado MainConcept MPEG Pro HD actualemten esta la versión 2.0.


A este respecto es importate mensionar que Premiere Pro 2.0 solo es compatible con la versión MainConcept MPEG Pro HD 2.0


De acuerdo, hechas las aclaraciones vayamos a conseguir el plugin MainConcept MPEG Pro HD 2.0 a la página oficial de mainconcept: http://www.mainconcept.com


Una vez en ella descarguen el plugin.


La instalación es tan sencilla como oprimir un botón, y el programa de instalación hará todo por ustedes.


Una vez instalado vamos a capturar.


Antes de iniciar premiere preparen sus dispositivos análogos, Capturadora, reporductor de cinta VHS, beta, cámara hi8, cámara VHS-C, etc, conecten estos dispositivos correctamente a la tarjeta de captura (si tienen dudas sobre las conexiones les recomiendo el estupendo manual de conexiones que encontrarán en el foro www.videoedicion.org en la sección de documentos: )
1) Una vez verificadas las conexiones ejecutemos Premiere Pro 1.x o 2.0:



2) Vamos al menú archivo y seleccionamos Capturar:



3) Se Mostrará esta ventana de captura :



4) Ahora desplegamos el menú de ajustes haciendo clic en la punta de flecha:



5) Se desplegará la ventana ajustes del proyecto:



6) En la Opción Captura desplegamos y seleccionamos MainConcept Mpeg Pro:



7) Después seleccionamos settings para mostrar las opciones de configuración del plugin:



8) Ahora estamos adentro del plugin, vamos buscar nuestras tarjetas análogas:



9) Desplegamos Video Captura Devices y como ¡école! ahí están mis tarjetas análogas. Como conecte el videomagnetófono VHS (videocasetera VHS) a la conextan entonces selecciono la Conextan Capture:



10) Ahora entramos a setup para configurar las OPCIONES de CAPTURA:



11) Se mostrará la ventana setup y en ella seleccionamos la entrada de video apropiada, en este caso, recordemos que es una tarjeta de TV con capturadora, por lo tanto las opciones son S-Video, Video Tuner (sintonizador de canales TV-radio FM) y Video Compuesto (conectores RCA), en mi caso conecte la videocasetera al video compuesto, lo tanto elijo video compuesto:



12) Ahora vamos e elegir el códec de captura, para ello seleccionamos la pestaña capture, se mostraran todos loscodecs disponibles o instalados en su PC, en mi caso estos son algunos de los que tengo instalados, elijan el de supreferencia, yo capturo en formato DV video encoder, por comodidad durante la edición, ustedes decidan cual usar:



14) Regresamos a la pestaña Video Capture Device y definimos la entrada correcta de audio y cerramos con OK:



15) Finalemte iniciamos la captura análoga desde Premiere Pro, en mi caso Premiere Pro 2.0



Espero que esta sencilla guía les sea de utilidad, si desean aportar algo o realizar alguna corrección a la misma plasmen sus comentarios en :
Israel Martínez Peñaflor
#1740
Segunda entrega de los VideoTutoriales de Falele

Este segundo videotutorial nos acerca al trabajo con chroma key en combustion

Pincha en este enlace para descargar el vídeo a calidad completa (1024 x 640)
- Formato Windows Media Video  - 87 Mbytes -
El spam de este foro está controlado por CleanTalk