Menú

Mostrar Mensajes

Esta sección te permite ver todos los mensajes escritos por este usuario. Ten en cuenta que sólo puedes ver los mensajes escritos en zonas a las que tienes acceso en este momento.

Mostrar Mensajes Menú

Temas - Ramón Cutanda

#1921
Este artículo se publicó originalmente en mayo de 2003 y no se ha actualizado desde entonces
[/b]




¿Por qué un manual acerca de la refrigeración de los equipos?
Si miramos a "corto plazo" en calor reduce el rendimiento del equipo (es más lento) y hace que sea inestable produciendo "cuelgues" y fallos inexplicables. Aunque no te lo creas, no siempre Windows tiene la culpa de que tu ordenador se cuelgue...

A largo plazo reduce DRÁSTICAMENTE la duración de los componentes del equipo. TODOS los componentes electrónicos del equipo producen calor, en mayor o menor medida. Por tanto, hemos de buscar soluciones que mantengan una temperatura aceptable para todos los componentes

Si quieres que tu equipo rinda al 100% y tienes un mínimo de interés en preservar la funcionalidad de sus componentes el máximo tiempo posible, entonces te interesa leer este manual.


¿Qué hay que refrigerar?
Se podría decir que este apartado no es estrictamente necesario, y si eres de los que se aburren leyendo "tocho" puedes pasar a lo que te interesa, lo práctico, el cómo ventilar. Si es así, salta al apartado "Cómo hay que refrigerar" No obstante, creo que es interesante conocer el funcionamiento de los distintos componentes del ordenador y saber qué es lo que produce el calor que generan. Como he dicho, todos los componentes nos van a genera calor, pero no todos lo hacen en la misma medida. Cuanto más potente sea un componete, más calor genera.


Procesador (CPU)
Es, con diferencia, lo que más calor genera de todo el equipo. Si pensamos que los primeros procesadores en refrigerarse (mediante disipador sin ventilador) fueron los 80486 y si tenemos en cuenta la norma antes mencionada (a mayor rendimiento, mas calor), puede que pensemos que a estas alturas de rendimiento los procesadores deberían derretirse de calor. Y es cierto... Los procesadores siguen "aguantando el tipo" por las contínuas mejoras en su estructura que hacen que generen menos calor a pesar de su mayor rendimiento. Un factor decisivo al respecto son las "micras" de fabricación, que hacen referencia a la precisión con la que son fabricados. A menor número de micras más precisión hay y menos calor se genera. Por tanto, a la misma velocidad de reloj, un procesador de "menos micras" calentará menos que uno de más.

Como dato curioso, TODOS los procesadores de una serie tienen el mismo tope de rendimiento, es decir, se fabrican todos IGUAL aunque unos se vendan como más rápidos que otros. Los fabricantes someten los procesadores a pruebas. A los que son inestables a la máxima velocidad posible dada la tecnología de fabricación se les baja la velocidad paso a paso hasta llegar a una velocidad a la que son estables, y esa es la velocidad a la que se venden. Esto es así porque a pesar de que todos los procesadores se fabrican mediante el mismo proceso, divesos factores hacen que unos se calienten más que otros durante su funcionamiento. Ese calor "extra" hacen que se vuelvan inestables a no ser que se les haga funcionar a una velocidad inferior. Si aumentamos ligeramente el voltaje del procesador y lo ventilamos correctamente para que ese voltaje extra no genere calor en exceso, podremos subir la velocidad a ese procesador y mantener el equipo estable. A este proceso se le conoce como "overclocking" o forzado.

Se ve aquí claramente como el calor es un factor DECISIVO en el rendimiento del equipo. Por si alguien está interesado en el overclocking, le aviso de antemano del riesgo que ello conlleva: reduce considerablemente la vida del procesador y anula la garantía del equipo (eso en el mejor de los casos).

Un último aviso: la parte externa de un procesador alcanza entre 40-80º durante unas condiciones normales de funcionamiento. Si no está ventilado correctamente (o se rompe el ventilador) el exceso de temperatura hace que el ordenador se cuelgue y/o se apague en el caso de AMD (y si insistes en usarlo lo fundirás LITERALMENTE) o harás que un PIV reduzca su velocidad a niveles irrisorios pudiendo, además, causar daños irreparables. Cuando un procesador se rompe, lo primero que miran los fabricantes son marcas de exceso de calor y, sin las encuentran, olvídate de que lo cambien gratis por muy en garantía que esté.


Tarjeta gráfica
Hasta la llegada de los procesadores Pentium lo habitual en lo que a gráficos respecta era contar con una tajeta de vídeo de 8 bit,  256 colores y 1 MB de vídeo o 65.53616 colores y 16 bits con hasta 2 Mb de vídeo en el mejor casos. En aquella época la única función de las tajetas era representar puntos y colores. La única función de la memoria gráfica era almacenar el color de cada uno de los puntos de la pantalla. Esa función no era muy exigente y las tarjetas eran bastante sencillas.

Con la llegada de los 24 (y posteriores 32) bits de color y el aumento en la potencia de los procesadores llegaron también las primeras incursiones en el mundo 3D. Realizar escenas en 3D es un proceso MUY exigente que requiere de una enorme cantidad de cálculos. Ni siquiera el Pentium más potente era capaz de procesar con soltura la enorme cantidad de cálculos necesarios. Las aplicaciones de diseños 3D y los videojuegos hicieron que las 3D fueran algo IMPRESCINDIBLE en el mundo de la informática, de modo que alguna solución había que encontrar. Se comenzó a dotar a las tajetas gráficas de un pequeño procesador (GPU - Graphics Processor Unit, o unidad de proceso de gráficos), independiente del procesador central, (CPU - Central Processor Unit, o unidad de proceso central). Dicha GPU estaría encargada de los cálculos 3D más pesados. En el caso de una explosión, por ejemplo, el procesador central se encarga de hacer los cálculos relacionados con la velocidad, dirección y tamaño de cada uno de los miles de objetos implicados en la explosión, mientras que el procesador de la tarjeta de vídeo se encarga de calcular el color, las texturas y las condiciones de iluminación de cada uno de esos objetos.

El desarrollo de las GPU's ha sido IMPRESIONANTE, y hoy día las tarjetas gráficas de gama alta tienen practicamente la misma capacidad de proceso que las CPU, teniendo en cuenta que una GPU se dedica EN EXCLUSIVA a gráficos. Es fácil comprender entonces, que los equipos actuales sean capaces de resprensentar en tiempo real escenas que hace un par de años requerían HORAS de renderizado.

Lo que en este manual nos interesa de todo este desarrollo es que si una GPU alcanza niveles de rendimiento similares a una CPU convencional es también de esperar que genere una cantidad de calor similar. Desde hace ya algún tiempo los fabricantes tienen que instalar disipadores sobre las GPU's. En el caso de tarjetas de gama más alta el disipador va acompañado de un ventilador, llegando a situaciones un tanto rocambolescas como es el caso de mi nVidia FX 5.900 cuyo conjunto dispador-ventilador ocupa el espacio de 2 tarjetas (la AGP + la primera PCI)


Discos duros
¿Porqué se le llama "disco duro" a un disco duro si no se parece en nada a un disco? Bueno... por fuera no, pero por dentro hay varias capas de discos que giran a gran velocidad  y que son cargados/descargados magnéticamente mediante pequeñas descargas eléctricas producidas por un también pequeño cabezal que gira sobre la superficie de los discos. Tanto el motor que hace girar a los discos como la fricción generada por dicho cabezal producen calor. A mayor número de revoluciones (vueltas) por minuto (rpm) más calor se genera. Con el salto de las 5.400 rpm a las 7.200 se ha producido un cosiderable aumento en el calor generado en el disco (no digamos nada ya de los discos de 10.000 rpm) lo que hace que debamos estar atentos a dicha temperatura. La carcasa del disco está diseñada de modo que transmita el calor generado en el interior del disco para que se refrigere en contacto con el aire. Aunque es muy raro que en condiciones normales un disco tenga fallos de escritura/lectura por exceso de calor, un disco que trabaje constantemente a una temperatura elevada verá CONSIDERABLEMENTE acortada su vida últil.




Memorias, placas base y demás tarjetas del equipo
El resto de componentes del equipo también generan calor, pero ni mucho menos a los niveles de CPU, tarjeta de vídeo o disco duro. Si uno de estos componentes no funciona correctamente por exceso de calor es que está defectuoso (o estás en medio del desierto del Gobi a 54º) No obstante, hay que tener en cuenta que aunque su temperatura interna no suele ser problemática, sí que incrementan la temperatura en el interior de la torre. Uno sólo de estos componentes no produce un aumento signtificativo, pero si sumamos el calor de la memoria, tarjeta de sonido, placa base, tarjeta de red y tarjeta capturadora, por ejemplo, sí que tenemos unos grados centígrados adicionales dentro de nuestra torre.


Cómo hay que refrigerar

Antes de nada, quisiera dejar claro la diferencia entre ventilar y disipar. Disipar consiste en la transmisión directa al aire de calor de un componente. Cuanto tu mujer/madre te llama para comer diciéndote que te dejes el ordenador que la sopa se enfría quiere decir, en realidad, que la sopa está disipando su temperatura igualandola a la del aire de la cocina.Ventilar consiste en crear una corriente de aire que refrigere por un lado y desplace el aire caliente por otro. La carcasa de un disco duro disipa calor (transmite el calor interno del disco al ambiente) Pero si no hay una correcta ventilación (corriente de aire) el aire que rodea al disco duro permanercerá caliente, con lo que no lograremos una disipación correcta. Como en el ejemplo de la sopa y la cocina, cuanto más caliente esté el aire que rodea al disco menos calor podrá disipar el disco (por eso en verano la sopa tarda más en enfriarse)

Tal y como hemos visto, todos los componentes de nuestro equipo generan calor dentro de la torre. Nuestros objetivos son dos:

- Disipar y ventilar el calor de los componentes de la manera más eficaz posible
- Ventilar nuestra torre para que el aire que contiene esté siempre a la menor temperatura posible. Cuanto más "frío" haya dentro de la torre más calor se podrá disipar de los componentes.

Pasemos a ver vemos cómo ventilar correctamente cada uno de los componentes de manera individual.


Procesador (CPU)
Aunque hay por ahí diversas soluciones de refrigeración líquida para el procesador, la inmensa mayoría de los "mortales" refrigeramos el procesador por aire. Primero colocamos sobre el procesador un disipador de un material que transmita fácilmente el calor. De ese modo el calor pasa al disipador y el disipador transmite a su vez el calor al aire. Cuanto más calor sea capaz de transmitir el disipador y cuanta mayor sea la superficie en contacto con el aire (de ahí las "aletas" de los disipadores, para aumentar la superficie de contacto con el aire), más refrigerado estará el procesador. No obstante, hace ya mucho que este método es insuficiente  para refrigerar los potentes procesadores actuales. Por eso, además del disipador, se monta sobre el mismo un ventilador que enfríe el disipador soplando aire frío al interior de este y desplazando el aire caliente. Logicamente si en nuestra torre no hay una correcta ventilación, el aire que sople el ventilador no estará frío y la refrigeración será poco efectiva. (ver el apartado 3.3 Torre)

Dos son los aspectos en los que debemos fijarnos a la hora de comprar un dispador-ventilador:

- Material del disipador: hasta donde sé, los de cobre son los que más calor transmiten
- Cantidad de aire que el ventilador puede soplar: Hay una medida para esto, CFM. Un buen ventilador tendrá una capacidad igual o superior a 20 CFM. La capacidad de refrigeración suele estar estrechamente relacionada con la velocidad de giro (en rpm) del ventilador. Las velocidades de giro que ofrecen buena refrigeración están por encima de 5.400 rpm No obstante, ventiladores de más velocidad son cualquier cosa menos silenciosos. Algunos disponen de termostato y ofrecen velocida de giro variable, para que nuestro ventilador sea silencioso cuando la CPU no esté muy caliente y aumente su velocidad de giro (para mejorar la refrigeración) cuando la temperatura de la CPU sube. Ten también en cuenta que la inmensa mayoría de ventiladores tienen rodamientos de bolas. Es conveniente levantar la pegatina del ventilador y echar unas gotitas de aceite una vez cada 2-3 meses. Con eso facilitamos el giro del ventilador  y evitamos un eventual gripaje de los rodamientos. Sabrás que has gripado un ventilador cuando los ventiladores empiezan a hacer un ruido muy intenso que, en un principo,  desaparece  a los pocos minutos de usar el ordenador (cuando con el giro se han calentado)

Algo FUNDAMENTAL para que el disipador cumpla su función correctamente es que éste disponga de una FINA capa de silicona termoconductora en la zona de contacto con el procesador. Cuando unimos metal con metal, dicha unión dista mucho de ser perfecta ya que la porosidad del metal hace que haya poco contacto físico. La función de la silicona termoconductora es la de rellenar los huecos que quedan entre disipador y procesador y que se transmita al dispador todo el calor posible. Para que esto sea así la capa de silicona ha de ser mínima, pero suficiente. Todos los disipadores actuales ya llevan una capa adecuada de fábrica, pero si quitas el disipador (por cualquier motivo) cuida en que cuando vuelvas a ponerlo la silicona sea suficiente y esté en buen estado. Quita la antigua y añade silicona nueva (con el tiempo la silicona se deshace y pierde sus propiedades)




Disco duro
Como he comentado anteriormente, ventilar un disco duro no es estrictamente necesario, pero mejorará la longevidad del mismo. Salvo lo mencionado en el apartado 3.3 Torre, la mejor solución es, a mi juicio, usar disipadores con dos pequeños ventiladores instalados (como en la imágen)

    Hay un problema muy frecuente en la inmensa mayoría de torres, y es la falta de espacio para colocar ventiladores/disipadores en más de un disco duro. O bien instalamos una caja de refrigeración en una bahía de las usadas para CD's/DVD's, o tendremos que elegir cuál ventilar que será aquel que genere más calor. Para decidir esto hemos de tener en cuenta que un disco duro se calienta más cuanto más tiempo esté funcionando. Lo importante no es la cantidad de datos que leemos/escribimos, sino el tiempo continuado de trabajo. Esta decisión no es nada fácil si tenemos en cuenta que es recomendable tener sistema operativo y archivos temporales en discos distintos. El sistema necesita acceder frecuentemente a ambos, de modo que no es necesario calentarse demasiado la cabeza. Refrigera el que quieras...





Torre





  Como hemos visto es esencial tratar de mantener la temperatura en el interior de la torre tan baja como nos sea posible. Para ello hemos de lograr crear una corriente que introduzca aire fresco en la torre y extraiga el aire caliente, para evitar un círculo vicioso en el que los ventiladores internos sólo muevan aire caliente una y otra vez. El aire caliente siempre sube, de modo que todo el calor generado dentro de la torre irá a parar alrededor de la fuente de alimentación, procesador y tarjeta de vídeo, una zona que precisamente nos interesa refrigerar.



La inmensa mayoría de torres disponen bajo la fuente de alimentación de una rejilla a la que poder atornillar un ventilador que soplará en dirección dentro/afuera (núnero 3)  para absorver el aire de la parte superior de la torre y expulsarlo fuera. Es importante cuidar este detalle y no montar el ventilador en sentido fuera/adentro para no invertir el sentido correcto de la corriente de aire.

Además de esta rejilla (número 3), las torres suelen incluir otro lugar en donde anclar un ventilador más. Ese ventilador estará en la parte inferior frontal del equipo, bajo los discos duros (número 1) Eso creará una corriente de aire de abajo/arriba y de delante a atrás introduciendo siempre aire fresco en el equipo y ayudando al aire caliente a que suba arriba, dónde tendremos preparados los ventiladores oportunos para extraer ese aire caliente. Como este segundo ventilador se encuentra justo debajo de los discos duros mataremos dos pájaros de un tiro porque también conseguiremos refrigerarlos sin ningún tipo de ventilador adicional. Estos ventiladores de caja soplan con la suficiente intensidad como para mantener simpre frío el aire situado bajo los discos, de modo que éstos pueden disipar correctamente el calor que generan.

La zona más "peligrosa" es la parte superior-trasera de la torre. Allí se acumula el calor, tanto de la CPU como el producido por el resto de componentes (fuente de alimentación incluída) Como hemos dicho, el aire caliente sube, de modo que en esa zona tendremos la máxima temperatura. Para lograr reducir la temperatura en esa zona tenemos varias alternativas que, lejos de excluirse entre ellas, son complementarias:

Si tu fuente de alimentación es de calidad dispondrá de un ventilador en la parte inferior (número 2 en la imágen) ese ventilador aspira aire de esa zona (que está caliente) y lo expulsa junto con el calor generado por la propia fuente

Los ventiladores 3 y 4 se complementan en la tarea de expulsar aire caliente (teniendo en cuenta que el 4 ocupa una ranura PCI) Como por la parte inferior estamos "empujando" airel fresco externo al interior de la torre y por la parte superior estamos "chupando" aire caliente del interior, el resultado es una corriente de convección que nos mantiene la torre constantemente con aire "fresco", lo que en consecuencia da una temperatura adecuada para los componentes, aún en las más exigentes condiciones de trabajo.





Otros extras de refrigeración
- Fuente de alimentación: No te confundas. El ventilador que hay en la fuente de alimentación NO EXTRAE, en muchos casos, calor del interior de la torre, sino tan sólo el calor que la propia fuente de alimentacicón genera. Asegúrate de que tu fuente incluye un ventilador en la parte inferior (número 2 en la imágen de arriba) para que también te sirva de extractor de aire. Si la fuente es de cobre, como la de la foto, mejor que mejor. Como ya comenté al hablar de los disipadores de la CPU, el cobre es un excelente conductor del calor.

- Módulos de refrigeración de memoria. (número 1 en la siguiente imágen) Valen tanto para la memoria del equipo como para la memoria de las tarjetas gráficas. Al igual que en el caso de los ventiladores de discos duros, estos módulos no son necesarios para el correcto funcionamiento de la memoria, pero contar con ellos hará que nuestro sistema sea más estable (evitando eventuales cuelgues por calor)  y prolongaremos la vida de la misma.

- Cables IDE redondos: (número 2 en la siguiente imágen)  Las torres pueden parecernos muy grandes desde fuera pero si no nos andamos con cuidado todas las tarjetas y cables que hay por dentro interrumpirán la corriente de aire antes mencioniada y aunque montemos los ventiladores mencionados no tendremos una buena refrigeración. Si, como yo, dispones de una tarjeta de vídeo grande, esto dificulta más todavía el paso del aire, de modo que lo cables IDE redondos se hacen casi imprescindibles. Este último problema no debe preocuparte si cuentas con discos Serial ATA ya que el reducido tamaño de sus cables hacen que no supongan apenas estorbo para la corriente de aire.
#1922
AVISO: Este mensaje se publicó originalmente en mayo del 2003 y se conserva únicamente por motivos de archivo histórico

Traducción de Quinurio de la Ayuda oficial del programa

Descargar archivo de Ayuda de Premiere 6 en español

Descargar índice para el archivo de ayuda
#1923


Fuente: pixabay.com

AVISO: Este documento se redactó en 2003 y se conserva por motivos de archivo.


¿Qué componentes necesito para capturar/editar vídeo con el ordenador?

NOTA IMPORTANTE: Si trabajas con vídeo analógico léete, además, el manual de captura de vídeo analógico. Si por el contrario trabajas con DV, léete el manual sobre El formato DV y las tarjetas IEEE 1394 (FireWire).

No he tenido la oportunidad de probar demasiados equipos, así que comentaré por encima los equipos que he probado un poco.


    - EQUIPO 1
* CPU: Pentium II 266 Mhz
* Disco duro:  UDMA/33,  3 GB
* RAM: 32 Mb PC100  (ampliado a 96 posteriormente)
* Tarjeta de vídeo: S3 Virgie DX PCI 4 Mb
* SIN tarjeta capturadora, he trabajado tan sólo con vídeo ya capturado

No diría que queda totalmente desterrado, pero  ni tan siquiera llegarás al vídeo calidad VHS a no ser que hagas todos lo cálculos por hardware, es decir, que tengas capturadora que trabaje en tiempo real, sin mandarle trabajo extra a la CPU y que tu tarjeta de vídeo sea AGP descompresora por hardware de MPEG2 (compatible con DVD's) Aunque no he capturado vídeo, por mi experiencia con otros equipos (y la forma de trabajar con el vídeo ya capturado en este equipo), sé que la potencia del procesador no es suficiente para hacer todos los cálculos el solito.  Por cierto, lo de 32 Mb de RAM es patético, olvidáos de cualquier cosa con menos de 64 Mb como mínimo.


    - EQUIPO 2
* CPU: AMD K6-2 450 Mhz
* Disco duro: UDMA/33, 4 Gb
* RAM: 64 Mb PC133 (ampliado a 128 Mb posteriormente)
* Tarjeta de vídeo: AGP 2X 8Mb
* Tarjeta capturadora: Chip Conexant Bt848 (usado en varias placas)

Con esto ya se puede empezar a trabajar bien, aunque la velocidad del disco duro y de procesador nos pueden poner en aprietos. Requisito INDISPENSABLE, siempre y en todo lugar, pero aquí a raja-tabla es tener el disco duro 100% defragmentado a la hora de hacer la captura. A ser posible, lo mejor es tener una partición dedicada EXCLUSIVAMENTE a las capturas y, una vez hecha la captura, mover el archivo a otra partición y volver a capturar siempre desde una partición vacía. No es hablar por hablar. En un disco duro de esa velocidad esa será, literalemente, la diferencia entre hacer una captura imposible o una captura limpia. Dependiendo de la calidad de la placa, disco duro y capturadora, nos podremos encontrar con la necesidad de capturar siempre con compresión, puesto que el flujo de datos del vídeo sin comprimir puede superar el ancho de banda disponible para que el disco duro lo escriba todo sin pérdida. La máxima calidad queda limitada a  VHS  o VídeoCD (el DVD ni intentarlo...)


    - EQUIPO 3
* CPU: AMD Duron 700 Mhz (overclockeado a 750)
* Disco duro: UDMA/100 20 GB + UDMA/33 4 GB usado para el audio
* RAM: 128 Mb PC133 (ampliado a 384 Mb)
* Tarjeta de vídeo: ATI Rage Pro AGP 2X 8Mb
* Tarjeta capturadora: Pinnacle PCTV Pro (Chip Conexant Bt848)
* Tarjeta de sonido SBPCI 64
* Tarjeta de sonido Onchip AC'97
* Regrabadora de CD's TEAC CD-W54E
* Regrabadora de DVD's Pioneer DVR-A03

Se trabaja cómodamente con calidad VHS y VídeoCD.  El DVD se trabaja sin problemas tanto con vídeo ripeado de un DVD como con vídeo DV transferido a través del puerto FireWire. En cuanto la captura analógica, ee trabajará sin problemas a 352x288 (VCD y VHS) siempre y cuando se tenga el disco duro defragmentado. En cualquier casi, capturar VHS a más resolución supone más problemas y no más calidad (http://www.videoedicion.org/foro/index.php?topic=3076)

- EQUIPO 4

*CPU: AMD XP +1700
* Disco duro: UDMA/100 20 GB + UDMA/133 40 GB
* RAM: 512 MB DDR
* Tarjeta de vídeo: ATI Rage Fury (Xpert@2000)
* Tarjeta capturadora: Pinnacle PCTV Pro (Chip Conexant Bt848)
* Tarjeta Conceptronic FireWire IEEE 1394 (para transferir desde miniDV)
* Tarjetas de sonido SBPCI 64 y Onchip AC'97
* Regrabadora de CD's TEAC CD-W54E
* Regrabadora de DVD's Pioneer DVR-A03

Hace lo mismo que el equipo 3 pero más rápido... Eso quiere decir que si tu equipo es más potente cualquier problema que tengas será de configuración, pero no de hardware

*** IMPORTANTE ****

Ver sección Tarjetas con chips Brooktree/Conexant BT8x8


Gama profesional
Si vas a lo profesional NO ESCATIMES TARJETA CAPTURADORA ni MEMORIA porque a la no tan larga son, más que un gasto, una inversión. Veamos más o menos por dónde irían los tiros:

CPU (procesador): No te comas mucho el coco. La única diferencia NOTABLE entre dos procesadores de 200-300 Mhz de diferencia será el precio. A la hora de usarlos hay componentes que agradecen más el dinero gastado que otros. Compra la 3ª o 4ª CPU más rápida que esté disponible en el momento de hacer la compra

Memoria: Aquí sí que merece la pena un buen gasto. Yo me decantaría por, al menos, 1 GB de memoria DDR 400. Si está muy por las nubes (el precio de la memoria sube y baja como una montaña rusa) compra DDR 333, pero no bajes del GB. Si vas a hacer un uso intensivo de filtros y/o transiciones complejas, entonces amplía algo más (1,5 GB estaría bien)

Tarjeta Capturadora. Más que una "simple" capturadora, lo que necesitas es una tarjeta que capture, aplique filtros y transiciones en tiempo real y que además acelere el proceso de exportación a MPEG-2. No tengo un conocimiento exhaustivo de todas las tarjetas actualmente disponibles, pero sí puedo decirte dos modelos que seguro están a la altura (con la "limitación" de estar "diseñadas" para Premiere)

- Matrox RT 100
http://www.matrox.com/video/es/products/rtx100/home.cfm

- Canopus DVStorm 2
http://www.canopus.com/US/products/dvstorm_2/pm_dvstorm_2.asp

Discos Duros: SCSI son más rápidos, pero MUCHO más caros y, la verdad, no sé si merece la pena pagar la diferencia de precio. Ventilando un disco IDE UDMA/133 7.200 rpm correctamente no deberías tener problemas aunque trabaje hora sí, hora también. La capacidad de transferencia es SOBRADA para trabajar con DV

Tarjeta de vídeo: Las tarjetas anteriormente mencionadas hacen en tiempo real una buena gama de filtros y transiones predefinidos pero, como el desodorante, te "abandona" con transiciones o filtros no estándar (o usando un programa de edición que no sea Premiere). Una buena tarjeta de vídeo que acelere correctamente OpenGL ayudará enormemente. Una ATI Radeon de gama alta puede ser un complemento perfecto, pero si el presupuesto se sale mucho, puedes confonformarte con algo de gama más baja, incluso con alguna nVidia Gforce

Grabadora DVD: La guerra sigue abierta y no hay ningún formato que claramente lleve ventaja. Es por eso que todas las grabadoras actuales graban +R y -R La pregunta actual (Enero 2004) se centra en las grabadoras de doble capa. Tranqui... si quieres grabadora de DVD cómpratela ya y no esperes a la doble capa, que aún le falta un poco (http://www.videoedicion.org//index.php?board=25;action=display;threadid=3439;start=0)

Autor Videoed
#1924
Fíjate en los dos listados que vienen a continuación:
Archivo1    Archivo001
Archivo10    Archivo002
Archivo101    Archivo003
Archivo1001    Archivo004
Archivo11    Archivo005
Archivo111    Archivo006
.    .


    ¿Verdad que el listado de la izquierda no es lo que te  esperabas?  Si ordenas así tus archivos, como en la primera columna, luego lendrás problemas  porque después de 1 no va el 2, sino el 10. Después del 10, no va el 11, sino el 101, etc. Imagina que tienes una lista targa de imágenes con una numeración del tipo de la columna de la derecha y  quieres que esos archivos se reproduzcan en "órden", en el órden que nosotros entedemos (1, 2, 3, 4...) no en el órden que el ordenador aplica (1,10,110 ...) Si tienes muchas fotografías cambiarle el nombre a tantísimos archivos puede ser un calvarios... o no :-) Para eso tenemos la herramienta 1-4a Rename.



Otras opciones del programa son:

       

- Name: Renombrar sólo el nombre
- Extension: Renombrar sólo la extensión
- Whole name. Modifica nombre y extensión

    - First change case to... (en primer lugar cambiar las mayúsculas a...)
· leAve CaSe (dejar como están)
· UPPER CASE (mayúsculas)
· lowe case (minúsculas)
· iNVERT cASE (invertir mayúsculas)
· rAnDOm (aleatorio)

- ...then to (... y luego a )
· leAve CaSe (dejar como están)
· First letter only (sólo la primera letra)
· First (And breaks) - (la primera y tras códigos)
· English Style (la primera de cada palabra)
· Religious style (estilo religioso)s



· unsorted - Sin ordenar
· name - nombre
· extension - extensión
· date&time (oldest first) - fecha y hora, los más antiguos primero
· time, but not date (olderst first) - hora, pero no fecha, los más antiguos primero
· length of name (without extension) - longitud del nombre sin extensión
· day of week (monday-sunday) - día de la semana, de lunes a domingo
· nombre de la ruta (rápido)
· path - ruta
· size - tamaño
· zodiac (capricorn first) - zodiaco, capricornio primero
· separator - separador
· random - aleatorio
· reversed name - órden inverso
· reversed extension - extensión inversa
· first number in name - primer número en el nombre
· first number in extension - primer número en extensión
· length of separator - longitud del separador
· length of whole filename - longitud total del archivo




Si después de leer este manual tienes alguna duda y quieres publicar una pregunta puedes usar el foro de videoedicion.org
http://www.videoedicion.org/foro
Las siguientes categorías del foro están especialmente relacionadas con este manual:

Miscelánea ->  http://www.videoedicion.org/foro/index.php?board=8.0
#1925
    IMPORTANTE: Este artículo se publicó en enero de 2001 y se conserva únicamente por motivos de archivo
    [/b][/size]





    1.Introducción
    Bienvenido a Adobe Premiere. Adobe Premiere sustituye la tradicional mesa de mezclas con dos vídeos conectados y te ofrece la posibilidad de hacer ediciones digitales de tus vídeos caseros (o no tan caseros) lo que incluye transiciones, filtros y muchas más cosas.

    Trabajar con Adobe Premiere supone un proceso similar a realizar una comida. Primero conseguimos los ingredientes (vídeos, fotos, audio, animaciones, etc) Poco a poco, vamos añadiendo los ingredientes (edición), teniendo en cuenta que a algunos de ellos habrá que darles un toque especial  (cambio de formato, filtros, retoque, etc) Finalmente, cuando hayamos mezclado todos los ingredientes, lo dejamos cocer (exportación) y finalmente tendremos el guiso preparado (vídeo final). Después viene lo mejor de todo: servirlo a los comensales que alabarán nuestra comida o, si todavía somos un poco novatos, se levantarán de la mesa "a medio comer" o tendrán una pequeña "indigestión" Como en cualquier comida, el principal ingrediente es el "amor" que se le pone, o dicho de otro modo, la calidad del resultado final está directamente relacionada con el interés y esfuerzo que le dediques a la edición, así que tómatelo con calma y dedícale su tiempo.

    Cualquiera que me conozca sabe que soy un fanático del Premiere ¿Porqué? Porque es un programa abierto que no acaba en el Adobe Premiere que nos queda terminada la instalación. Los programadores dejaron una "puerta abierta". La principal potencia de los productos Adobe es su capacidad de admitir "plug-ins" o añadidos que permiten precisamente eso, añadirle funcionalidades no previstas en la versión inicial. Hay muchas compañías de software dedicadas en exclusiva a diseñar plug-ins para los productos de Adobe (filtros, transiciones, tituladores, compresores, etc)  de modo que, encontrando el plug-in adecuado, podrás hacer cosas que ni te imaginas en la versión estándar.

    Bueno... antes de seguir indicar una cosa. Esta primera parte de Premiere es un auténtico coñazo, lo reconozco, pero hay que saberla. Lo que gusta es conducir, pero si no sabes dónde se mete la llave para arrancar el coche, si no sabes cambiar de marcha, si no sabes por dónde se le echa la gasolina... no vas a llegar muy lejos. Por eso, aunque sea un  poco rollo, antes de ponerte manos a la obra deberías ir paso a paso y dejarlo todo configurado y preparado para poder hacer la edición tranquilamente sin que surgan problemas de esos que nunca sabes cómo solucionar.


    2.¿Qué versión de Adobe Premiere?
    En español solo tenemos la versión 5. La última, la 6, unicamente está disponible en inglés, pero para eso tienes este manual :-) y, si quieres, hay un parche en la sección de descargas para pasarlo a español. Las principales diferencias entre una versión y otra están en que la 5 todavía no maneja cámaras DV ni archivos de audio MPEG Layer-III (mp3 para los amigos) y que se modifica el modo de aplicar los filtros, pero, desde mi punto de vista la principal diferencia está en que, por fin, Premiere 6 admite los plug-ins de After Effects, motivo, al menos para mí, suficiente para usar la 6.


    3.Primer paso: eligiendo proyecto
    La primera vez que usamos Premiere tras el proceso de instalación, aparece una pantalla preguntándonos cómo queremos trabajar. Si estás usando este manual es porque no tienes mucha idea de Premiere, así que te recomendaría usar el método A/B, puesto que es más "intuitivo". Aunque esta pantalla aparecerá tan sólo la primera vez que iniciemos Premiere, si quisiéramos, en un futuro puede cambiarse (Ver 3.2.1 Las pistas de vídeo), de modo que pinchamos en el botón marcado en la imágen (Select A/B Editing - Seleccionar edición A/B) y pasamos al siguiente paso.













    IMPORTANTE: Evitemos confusiones desde el principio. Con el proyecto tan sólo definimos cómo "vemos" nuestro trabajo mientras estamos manos a la obra, pero no vemos el resultado final, tal cual quedará una vez finalizada la edición. Es una especie de "borrador" en el que ir trabajando, pero *NO* es el formato definitivo, lo que vemos en el monitor o ventana de construcción *NO* es, necesariamente, lo que veremos una vez terminada la edición y exportado el vídeo.A la hora de definir el proyecto hemos de valorar más la rapidez por encima de otra consideraciones como la calidad final.

    No obstante, hay dos situaciones en las que *SÍ* es recomendable definir el proyecto con los ajustes que vamos a querer para el formato final
    2. Cuando trabajamos con DV[/list]
    La siguiente pantalla aparecerá cada vez que iniciemos Premiere y en ella decidimos lo que vamos a hacer.



    Si ya teníamos un proyecto a medio y queremos seguir trabajando con él, la opción a elegir será "Open" (abrir), de lo contrario, deberemos elegir cómo va a ser nuestro proyecto (recuerda que, excepto para VHS y DV *NO* tiene NADA que ver con el formato final del vídeo, solo con el modo en que trabajaremos en pantalla)

    Si vas a trabajar con una cámara miniDV la mejor opción será, sin duda, que selecciones un  proyecto DV acorde con tu formato de trabajo. PAL para Europa, NTSC América y Japón, Stándar para 4:3, WideScreen (panorámico) para 16:9. Los números 32 kHz y 48 kHz indican la frecuencia del audio. CONSEJO tanto para grabar con tu videocámara, como para usar Premiere, usa siempre 48 kHz. Si el formato final va a ser DVD, no hará falta cambiar de frecuencia de muestreo y si el destino es VCD / SVCD o derivados, la frecuencia será 44.1 kHz. En cualquier caso, seleccionar 32 kHz supondría tener que aumentar luego la frecuencia final, lo que normalmente empeora la calidad del audio y puede provocar desajuste en la sincronización. El proceso inverso, sin embargo (pasar de 48 a 44.1 kHz), se realiza más comodamente y con mejores resultados.

    Si vas a trabajar con vídeo capturado (da igual que esté capturado que por capturar) entonces lo mejor será elegir la opcion "Custom" (personalizado) y configurar nosotros mismos nuestro proyecto. Sería recomendable que, una vez configurado nuestro proyecto (ver a continuación) guardaramos los ajustes para no tener que introducirlos una y otra vez y poder seleccionar nuestro proyecto directamente desde la pantalla de selección de proyectos. Para ello basta con pinchar en el botón "Save" (guardar) Nos pedirá un nombre y una descripción y, si marcamos la casilla "Include control devide settings" (incluir ajustes del dispositivo de control) se incluirán los ajustes que hayamos definido para controlar una videocámara DV (ver 6.1.1 Ajustando las propiedades de captura del proyecto)


    3.1.General

    • Editing Mode: DV Playback (para trabajar con cámaras DV), AVI for Windows o, de haber instalado los códecs, QuickTime
    • Time Base y Time Display (base de tiempo y visualización de tiempo): Aunque *NO* es lo mismo que los cuadros por segundo (fps o frames per second), no te compliques la vida y ajústala de la misma manera, es decir, 25 para PAL,. 29,97 para NTSC.
    • Playback Settings (sólo para DV o tarjetas capturadora con salida TV)


    - Output:

    NOTA:  Estas opciones afectan a la reproducción desde la línea de tiempo y NO a la exportación, por lo que los ajustes que definamos en el proyecto serán los que Premiere usará para la calidad final

    Lo primero que tengo que decir es que, en el caso de DV, para que esta opción funcione, tu videocámara ha de tener activada la función DV-in. Todas las videocámaras hacen esta funcion, pero las más baratas no la llevan activada de fábrica, aunque se pueden activar mediante algunos trucos (a tu cuenta y riesgo, por supuesto) Consulta la página http://www.imagendv.com/index.html para más información al respecto

    Para poder usar estas opciones con un vídeo, necesitas una capturadora con salida de vídeo compuesto.

    Playback on DV Camcorder/VCR (reproducir en una videocámara DV o vídeo): Es lo que parece, para poder ver vídeo en una fuente externa, esta opción TIENE QUE ESTAR SELECCIONADA (lo está por defecto)
    Playback on Desktop (reproducir en escritorio): Cuando la salida de vídeo está activada desde Premiere se ve la reproducción de la línea de tiempo en la pantalla de la videocámara o en un televisor. Si tienes seleccionada esta opción (Playback on desktop) el vídeo también se verá en el monitor del ordenador. El ordenador tendrá entonces que procesar dos señales, por un lado la que le manda fuera y, por otro, la que muestra en la pantalla del ordenador. Evidentemente doble trabajo supone doble probabilidad de verse mal. Cuando estés grabando el resultado final deselecciona esta opción para conservar recursos y si quieres ver el vídeo utiliza tan sólo la pantalla LCD de la videocámara o el monitor
    Render Scrub output to DV camcorder /VCR (Ver el resultado de los renders en la cámara DV/VCR):  Con esta opción mientras el ordenador hace el render de algo, por ejemplo,de  una transición, un filtro, etc, etc podrás ir viendo el resultado en el televisor o en la pantalla de la videocámara.

    - Audio:
    Por defecto el audio se reproducirá en la fuente externa junto con el vídeo. Si seleccionas además la casilla de abajo también lo oirás por los altavoces del ordenador. Sucede lo mismo que con el vídeo, dejas deseleccionada esta casilla, consumirás menos recursos.


    3.2.Video

    • Compressor (compresor) Aquí  dónde elegimos el códec (compresor) para trabajar en la ventana de construcción (repito, NO para el formato final) Mis recomendaciones son, o bien NO usar (si tenemos espacio y el disco es rápido) o bien usar huffyuv o Ligos Indeo con la opción Quick Compress activada. El botón "Configure" (configurar) nos llevará al menú de configuración del códec que hayamos elegido, diferente en cada caso. Es adecuado que te familiarices con los parámetros de configuración en cualquier códec. Consulta el Manual de Primeros Auxilios y el de compresión
    • Depth (profundidad, en este caso de color): Menos colores significarán peor calida de PRE-visionado, pero mayor rapidez de cálculos. No todos los códecs admiten modificar esta opción.
    • Frame Size: A mayor tamaño, mayor tiempo de cálculo. Sea cual sea el destino final, usa como máximo el tamaño del VCD (352x288 PAL, 320x240 NTSC) Con la mitad de ese tamaño (176x144 PAL o 160x120 NTSC) se consigue una velocidad muy rápida a costa de una calidad notablemente reducida. (Insisto una vez más... esta calidad es solo a la hora de trabajar, no para el resultado final)
    • 4:3 Aspect Ratio: Recomiendo desactivar esta casilla e introducir las dimensiones de nuestro vídeo de forma manual, tomando como base los tamaños de vídeo estándar,(ver tamaños de vídeo)
    • Frame Rate (Velocidad de fotograma) Aunque el estándar son 25 para PAL, 29,97 para NTSC, una tasa menor supondrá mayor velocidad de previos. Hasta 15 fps (frames per second - cuadros por segundos) no hay una notable pérdida de calidad. (de hecho, la tasa de los dibujos animados es esa, de 15 cuadros por segundo) En cualquier caso, el valor del flujo de cuadros del proyecto ha de ser múltiplo par del flujo del vídeo con el que trabajemos
    • Pixel Aspect Ratio: D1/DV PAL o D1/DV NTSC en el caso de trabajar con vídeo DV. Square Pixels (1.0) (píxeles cuadrados) en cualquier otro caso para evitar deformaciones.Ver Relación de Aspecto
    • Quality & Data Rate (Calidad y flujo de datos) Con algunos códecs (compresores ) se activan estas opciones. Si marcamos "Limit data rate" (limitar flujo de datos) limitamos el flujo de datos a la cantidad que le indiquemos. Si marcamos "Recompress Always" las partes del vídeo que superen ese límite, serán recomprimidas hasta no sobrepasar ese límite. En mi opinión, estas opciones no son muy últiles en nuestro proyecto puesto que buscamos rapidez y no perder el tiempo con compresiones y recompresiones.


    3.3.Audio

    • Rate: Frecuencia de muestreo. 48.000 Hz para DV / DVD, 41.100 Hz para VCD / SVCD. A mayor frecuencia., más calidad de audio y más tiempo de procesado
    • Format: Formato del audio. Para calidad CD, 16 bits-Stereo (doble canal) Ocho bits-mono es el formato de menos calidad, menos espacio y más rápido, 16-bits-Stereo el de mejor calidad, más espacioy más lento
    • Compressor (compresor) Para acelerar la edición, lo mejor será dejar el audio sin compresión, a costa de aumentar el tamaño de los previos.
    • Interleave (entrelazado) Este parámetro define la frecuencia con la que el audio se carga en la memoria durante la reproducción desde la línea de tiempo: Valores más alto requieren un menor acceso al disco duro para leer audio a cambio de un mayor consumo de memoria.
    • Enhaced Rate Conversion (Conversión de muestreo mejorada) Si la frecuencia de muestreo del audio de los clips no es la misma que la del proyecto se produce una notable degradación de la calidad en el proceso de transformación. Desde este apartamos podemos elegir una mejora moderada de dicho proceso (Good) o con la máxima calida posible (Best)
    • Use logarithmic audio fades (usar desvanecimientos de audio logarítmicos) Por defecto, Premiere hace las transiciones de audio lineales. A través de esta opción podemos indicarle a premiere que realice cálculos logarítmicos para hacer que las transiciones de audio suenen más naturales, a costa, como siempre, de una mayor tiempo de proceso.
    • Create audio preview files if there are (crear previos de audio si hay)
    - X or more audio tracks (X o más pistas de audio)- X or more filters applied (X o más filtros aplicados)El la edición de vídeo la mayor carga de procesado se la lleva el vídeo, de modo que mientras editamos en la línea de tiempo es frecuente hacer previos de vídeo, pero normalmente el audio se lee directamente y, de realizar algún efecto, se puede hacer "al vuelo", en tiempo real, mientras vamos viendo el proyecto. A través de éstas opciones podremos definir en qué casos se realizarán previos de audio. Cuanto más potente sea nuestro equipo, más podremos "suavizar" estas condiciones.[/list]


    3.4.Keyframes and rendering (Cuadros clave y presentación)



    3.4.1.Rendering options (opciones de presentación)
    • Ignore Video/Audio effects (ignorar efectos de vídeo/audio) Se ignoran los filtros de vídeo/audio a la hora de hacer la representacón del vídeo
    • Ignore Audio Rubber Bands (ignorar tiradores de audio) No se representarán las transiciones de audio.
    • Optimize Stills (optimizar imágenes fijas) Si incluímos una imágen que permanecerá congelada unos segundos, podemos indicarle a Premiere que, en lugar de calcular la misma imágen cuadro a cuadro, lo haga solamente una vez para todos los cuadros en los que aparezca esa misma imágen de forma continuada. Ésta opción es especialmente recomendable al hacer montajes fotográficos.
    • Frame only at markers (representar sólo en marcas) Con esta casilla solo se reprensentarán los puntos en los que hayamos incluído marcas.
    • Preview (previos) (ver 4. Vistas previas)
    - To Screen (a pantalla): Con esta opción veremos los previos tal y como quedarán, pero en caso de que el procesador no pueda realizar todos lo cálculos necesarios en tiempo real, seguiremos viendo cuadro a cuadro el resutado final, pero la tasa de cuadros por segundo se verá reducida, en casos extremos de vídeos muy complejos, hasta 1 cuadro cada varios segundos

    - To RAM (hacia la memoria RAM): Los previos se muestran directamente desde la ventana de construcción 100% en tiempo real. La utilidad de ésta opción dependerá muy directamente de: la potencia de procesado del  equipo, cantidad de memoria disponible,  tamaño de pantalla y los filtros aplicados. Puesto que reproduce en tiempo real, si a Premiere no le da tiempo a realizar todos los cálculos necesarios se producirán saltos y/o degradación de la imágen.

    Con las opciones "To Screen" y "To RAM" podemos seleccionar 1:1, manteniendo las proporciones originales del vídeo,  1:2 para reducir la resolución a la mitad, y con ellos cálculos y tiempo de render, o 1:4 para reducir a un cuarto.

    - To Disk (hacia el disco) Los previos solamente se muestran en pantalla una vez que han finalizado todos los cálculos. Por tanto se calculan primero en tiempo no-real y una vez finalizados los cálculos se reproduce el vídeo en tiempo real y con todos los efectos. Realizar los previos desde el disco tiene dos ventajas: por un lado, esos previos se quedan guardados, de modo que si no acabamos la edición en una sóla sesión, seguiremos tieniendo nuestros previos para otra sesión. Eso a su vez supone la ventaja  que, si exportamos el vídeo en el mismo formato que nuestro proyecto, no hará falta repetir los cálculos.
    • Fields (campos): Para esta opción tendremos en cuenta las consideraciones indicadas sobre vídeo entrelazado
    - Para vídeo con resolución INFERIOR O IGUAL a 288 puntos verticales, selecciona SIEMPRE "No fields" (sin campos, o no entrelazado)
    - Para vídeo DV selecciona SIEMPRE Lower field (campo inferior o campo B)
    - Para otro tipo de vídeo capturado con más de 288 puntos verticales depende EXCLUSIVAMENTE de la tarjeta con la que fue capturado. Si no sabemos cómo capturó esa tarjeta el vídeo no nos queda más remedio que exportar de los dos modos (con "upper field" primero y luego con "lower field") para averiguarlo.


    3.4.2.Keyframing (cuadros clave)
    • Keyframe every X frames (cuadro clave cada X cuadros) Ver Keyframes
    • Add keyframes at markers (añadir cuadros clave en marcadores) Se añade un cuadro clave en los puntos del proyecto en el que hayamos incluído marcadores, independientemente de los demás cuadros clave.
    • Add keyframes at Edits (añadir cuadro clave en ediciones) Añade un cuadro clave entre un clip y otro, independientemente de los demás cuadros clave.


    3.5. Capture (captura)
    (Ver 5. Capturando con Adobe Premiere)


    3.6.Guardando y abriendo proyectos
    Para guardar nuestro proyecto usaremos la opción "File -> Save" (Archivo -> Guardar)Para abrir, normalmente lo haremos desde la pantalla de presentación que sale al iniciar Premiere. También podemos con "File -> Open" (Archivo -> Abrir)

    Podemos decirle a Premiere que guarde el proyecto cada x minutos con la opción "Edit -> Preferencies -> Autosave & Undo -> Automatically save proyects, save every x minutes" (editar -> preferencias -> grabación automática y deshacer -> grabar proyectos automáticamente, guardar cada x minutos)

    UN TRUCO QUE OS PUEDE SALVAR LA VIDA: Ya sé que estas cosas nunca pasan... hasta que pasan. Una vez fui a grabar el archivo y... ¡alehop! justo en el momento en que grababa se fue la luz. Cuando reinicié, el archivo del proyecto estaba corrupto y no podía abrirlo. Más de una semana de trabajo a la basura. No resignándome a la desesperación, me encontré que en la carpeta C:\Archivos de programa\Adobe\Premiere 6.0\Project-Archive se guarda una copia de seguridad de la penúltima vez que grabaste el proyecto, con lo que la pérdida de información es mínima.


    4.Terminología usada en Premiere
    Antes de avanzar, quisiera dejar clara la terminología empleada en Premiere y a la que haré referencias constantes a lo largo de todo el texto. Son conceptos que han de quedar claros para evitar confusiones o malentendidos


    4.1.Import (importar)
    Es un término ya usado en muchas otras aplicaciones, y define el proceso de "añadir" un archivo cualquiera (dentro de la gama que admite Premiere) a nuestro proyecto (ver 5. Importando nuestro material audiovisual a Premiere). Su  función se limita a decirle a Premiere dónde están localizados los archivos con los que vamos a trabajar. Si los cambiamos de sitio nuestro proyecto quedará inservible. Bueno, no totalmente, pero tendremos un "hueco" en las zonas en las que se usaba ese archivo. Si eso sucede, al abrir el proyecto Premiere nos preguntará dónde están los archivos que faltan para poder seguir usándolos con normalidad. Una vez importado un archivo al proyecto no debemos modificar ese archivo JAMÁS fuera de Premiere, so pena de tener que ajustar de nuevo todos los clips en dónde se use ese archivo


    4.2.Project (proyecto)
    Es un archivo muy simple (simple en comparación con los archivos multimedia) que guarda datos tipo "Vamos a trabajar con los vídeos a un tamaño de 352x288 con el compresor Ligos Indeo sin compresión de audio. El proyecto comienza con el vídeo 1, que usaremos del punto 02:24 al 05:23 en la pista núnero dos. Junto con ese vídeo hay una pista de audio de la misma duración que comienza con un fundido desde cero. Al finalizar transición con pista 1..." etc, etc, etc. Por eso decía que un proyecto es algo "simple" porque sólo incluye las instrucciones que introducimos nosotros en la lína de tiempo que es dónde queda definido qué va a ocurrir con cada uno de los clips (archivos de trabajo) que hemos utilizado en ella. El proyecto NO incluye por tanto ningún tipo de archivo adicional, ni de vídeo, ni de audio, ni gráfico. Si tenemos un proyecto, pero no tenemos los archivos con los que lo creamos, no tenemos nada.


    4.3.Clip
    Cada uno de los elementos que se manipulan en la línea de tiempo de Premiere se llama clip. Es decir, los archivos de vídeo, audio, imágenes y títulos son clips. Ahora bien. Es importante entender lo siguiente:

    - Un clip es sólo un clip cuando esté usado en la línea de tiempo
    - Un clip, en sí mismo, no es nada, es un "invento" que nos permite manipular con facilidad archivos originales. Si tenemos un clip en la línea de tiempo y borramos el archivo orignal del que extraímos el clip, no tendremos nada, puesto que el clip es una especie de "acceso directo" al archivo original.


    4.4.TimeLine (línea de tiempo)
    La línea de tiempo es la ventana de trabajo en la que vamos colocando los clips, indicándole a Premiere qué tiene que hacer en cada momento con los distintos archivos que hemos importado. Puesto que la línea de tiempo es la "base" de todo nuestro trabajo, la veremos en profundidad en el apartado La línea de tiempo


    4.5.Preview (vista previa)
    NOTA: Es muy común denominar a éstas vistas prévias "renders" (presentaciones)

    Si añadimos un clip a la línea de tiempo podremos  reproducirlo sin problemas en la ventana de monitor (la "tele" dónde veremos nuestro trabajo mientras estamos "manos a la obra") Sin embargo, cuando apliquemos algún tipo de filtro o transición estaremos creando un vídeo que no existe. El clip 1 existe, ya lo hemos importado. El clip 2 también. Ahora los ponemos en la línea de tiempo y añadimos una transición que mezcle final de uno, comienzo del otro. Esa "transición" no existía anteriormente, luego Premiere tiene que crearla, y eso se lleva su tiempo. El tiempo de cálculo depende de:
    • Complejidad y número del filtros / transiciones
    · Velocidad del procesador· Cantidad de memoria· Tamaño del vídeo y profundidad de color· Si tenemos alguna tarjeta que aplique en tiempo real compresiones y/o filtros y/o transiciones[/list]
    Cuando nuestro equipo no puede satisfacer alguna de las demandas anteriormente descritas, es imposible aplicar los efectos en tiempo real. Las soluciones que aporta Premiere son las vistas en el apartado  Preview (previos)

    Éstas vistas previas se generan utilizando el códec de compresión que hayamos elgido para nuestro proyecto (Ver 3.2 Video) Como dije entonces, y mantengo ahora, nos conviene utilizar un códec rápido para no demorar mucho este proceso (excepto cuando volquemos directamente el vídeo a VHS desde Premiere, ver 3.1 Volcar a vídeo (print to video).


    4.6.Export (exportar)
    Si importar es incluir archivos en nuestro proyecto, exportar es justo lo contrario. Una vez terminado nuestro proyecto, está claro que habrá que darle salida de alguna manera. Con Adobe Premiere 6 podemos hacerlo de cuatro formas distintas.
    • Print to video (volcar a vídeo): Para grabar en VHS
    · Print to tape (volcar a cinta). Para grabar en videocámaras miniDV con entrada de vídeo (DV-in) activada· Export Movie (exportar película): Para grabar el vídeo en formato MOV, AVI, DivX o MPEG y de ahí, probablemente, a un VCD, SVCD o DVD· Save to Web (guardar para la web): Para usar algún formato de streaming o vídeo por internet (y alguna opción más)[/list]
    (ver El último paso: la exportación)


    5.Importando nuestro material audiovisual a Premiere
    Con Premiere trabajaremos cómodamente con imágenes fijas, audio y, por supuesto, vídeo y, como hemos visto, en la mayoría de los casos las características del proyecto serán idependientes, y por tanto direferentes, de las de los elementos audiovisuales con los que trabajemos.

    Los archivos se importan a través de la ventana de proyecto (Ver 1. La ventana de proyecto) y como norma general debemos procurar usar originales de la máxima calidad, puesto que para exportarlos siempre acabaremos comprimiéndolos y, por tanto, reduciéndoles calidad en mayor o menor medida. Trataremos de seguir las siguientes recomendaciones.

    - Video:  De ser posible, hay que evitar trabajar con vídeo comprimido y muy especialmente vídeos MPEG En cuanto al tamaño, lo mejor es trabajar en su justa medida. Si usamos vídeo con menos tamaño que el destino (importar archivos 352x288 para un destino final DVD PAL 720x576, por ejemplo) está claro que perderemos calidad puesto que se tendrán que añadir píxeles que no existen en el vídeo de origen. El proceso contrario tampoco es recomendable. Si tenemos un vídeo 720x576 cuyo destino es un VCD PAL 352x288 está claro que no perderemos calidad, pero mientras que hagamos la edición estaremos calculando un montón de píxeles para las transiciones y filtros que no usaremos en el vídeo final, una pérdida de tiempo bajo mi punto de vista. Eso sin contar por supuesto con todo el espacio extra que necesitamos para trabajar en calidad DVD. Mi recomendación es, por tanto, capturar o usar vídeos del mismo tamaño de salida. De no ser posible, como en el caso de SVCD que no suele venir entre los formatos de captura, entonces sí que recomiendo capturar con el tamaño inmediatamente superior. Es decir, si nuestra capturadora sólo ofrece 352x288 y 720x576 para PAL y queremos hacer un SVCD PAL 480x576 entonces sí, capturaremos a 720x576

    - Audio: Para el audio se puede aplicar las mismas recomendaciones que para el video. Hay que procurar no usar Mp3's de origen ya que presentan de partida una reducción de calidad que al comprimir de nuevo para exportar será más acusada.  Hay que prestar especial atención a las frecuencias de muestreo. Usar un original de 48 kHz de frecuencia para un destino final de 44.1 kHz no supone ningún problema, sin embargo el proceso contrario sí. Se suelen presentar variaciones en la velocidad de reproducción, sonido metálico y/o chasquidos. Al igual que con el vídeo, lo mejor es capturar o usar audio con la misma frecuencia que el destino de salida. Para DV o DVD serán 48.000 Hz, mientras que para VCD / SVCD serán 44.100. DivX puede usar el que sea.
    Si te ves en la situación de tener que pasar un archivo de audio con una frecuencia inferior a una superior, recomiendo usar ssrc (incluye manual de uso)



    - Imágenes: Para las imágenes, en principio, no hay que tener ninguna consideración especial. Por supuesto, cuanta mayor calidad mejor y, si las vamos a usar a pantalla completa, lo mejor será también que tengan el mismo tamaño que el del destino final (VCD, SVCD, DVD) En cuanto a los formatos admitidos están los más comunes: BMP, GIF, JPG, TIFF, TARGA y, por supuestísimo, Adobe Photoshop (.psd) Cuando importamos imágenes de Photoshop con varias capas se nos presenta un cuadro de diálogo que nos da la oportunidad de importar la imágen sin capas "Merge Layers" (fundir capas en una sola perdiendo las transparencias) o bien podemos mantener las transparencias de cada capa importanto las distintas capas una a una lo que quiere decir que si queremos importar una imágen de 4 capas y queremos manipular esas 4 capas por separado, tendremos que abrir ese archivo 4 veces y seleccionar una capa distinta cada vez. El efecto es el mismo que abrir 4 imágenes por separado.


    6.Capturando con Adobe Premiere
    Para capturar vídeo analógico (videocámara o VHS) ni me lo pienso: uso Virtual Dub o AMCap. Sin embargo, sí que me gusta usar Adobe Premiere para las capturas de miniDV. Lo primero que debemos tener en cuenta es que sólo podremos romper la barrera los los 4GB de captura si usamos un sistema operativo con partición NTFS (Windows NT 4.0, 2000 o XP) ¡Ojo! No basta con tener 2000 o XP instalado, si al instalarlo usamos particiones FAT32 (las usadas para Windows 98/ME) no nos vale. Esas particiones tienen un límite para cualquier archivo, incluídos los de vídeo, de 4 GB, lo que limita muchísimo a la hora de capturar. Además, razones técnicas (dígase cuelgues y manejo de memoria) hacen mucho más recomendable usar Windows 2.000 / XP sobre otras versiones.

    Dicho esto, os remito al manual de Virtual Dub si queréis capturar analógico y durante este apartado me referiré tan sólo a la captura desde una videocámara DV, aunque, todo sea dicho, la captura desde una fuente analógica es muy similar a la DV y por tanto, las indicaciones de éste manual servirán también parcialmente para ese tipo de captura


    6.1.Capturando desde videocámara DV
    Una de las principales novedades de Adobe 6 frente a la versión 5 es su capacidad para trabajar con cámaras DV. Como vimos en el apartado 3. Primer paso: eligiendo proyecto Lo primero que deberemos hacer antes siquiera de capturar (aunque se podría hacer desde directamente desde la interfaz de captura) es definir las características de nuestro proyecto. En el caso de DV es LO MÁS FÁCIL DEL MUNDO. Basta con seleccionar el tipo de vídeo de destino (PAL / NTSC, 4:3 / 16:9, Audio 48 kHz / 32 kHz) y todo quedará ajustado.En cuanto al audio, recomiendo usar siempre 48 kHz en la grabación,  captura, y por tanto, también en el proyecto. Excepto para DivX, usemos el destino que usemos, necesitaremos siempre una frecuencia superior (44.1 o 48 kHz) con los problemas que eso acarrea.


    6.1.1.Ajustando las propiedades de captura del proyecto

    Más arriba, cuando vimos cómo ajustar las propiedades de nuestro proyecto nos dejamos pendiente el apartado de captura. Ha llegado la hora de ajustarlo. Puesto que no tenemos ningún dispositivo de captura definido, si iniciáramos la captura por primera vez, Adobe Premiere abriría automáticamente una ventana de configuración. No obstante, iremos paso a paso a esa ventana antes de intentar capturar. Antes de tocar otra cosa, nos limitaremos a ir al menú "Project" (proyecto) y luego a la opción "Project Settings -> Capture"  (ajustes del proyecto -> Captura) Aquí aparecerán distintas opciones dependiendo de nuestro sistema. En nuestro caso, para capturar desde DV deberemos seleccionar "DV IEEE 1394 Capture" en el apartado Device. Si todavía no tenemos conectada la cámara, o si no está encendida aparecerá "Unable to connect to capture driver" (Conexión con el controlador de captura fallida) Es hora de conectar nuestra videocámara.

    Indicar aquí que trabajar con videocámaras DV a través de una tarjeta FireWire es realmente sencillo. Con Windows XP / 2.000 no tendrás que configurar nada. Instala la tarjeta y automáticamente será detectada y configurada por Windows. Lo mismo sucede cuando conectas por primera vez la videocámara. El sistema operativo la reconoce y a partir de ese momento ya está operativa y lista para usar.



    Las opciones que podemos ajustar aquí son:

    - Capture video (capturar vídeo) Si no la seleccionamos no podremos capturar

    - Device Control (control del dispositivo) Con éstas opciones definiremos cómo se comunica Premiere con la videocámara.
    • Preroll Time (Rebobinado previo) Especifica el tiempo que rebobinará la cinta antes de comenzar a reproducir el vídeo en el punto deseado. Ésto se hace así para dar tiempo a la cinta a reproducirse a la velocidad adecuada y con el cabezal correctamente ajustado.
    · Timecode Offset (desfase de código de tiempo): Normalmente no modificaremos esta opción, que corrige un posible desfase entre el contador de la videocámara y el de Premiere, lo que daría lugar a errores en la precisión de los puntos de inicio y final de captura.· Log Using Reel Name (Registrar usando el nombre del rollo) Ver Batch Capture[/list]
    - DV Settings (ajustes DV)
    • During Preview (durante la vista previa)
    - Preview video on desktop (ver vista previa del video en el ordenador) Muestra el vídeo en el ordenador durante las vistas previas- Preview audio on desktop (ver vista previa del audio en el ordenador) Reproduce el audio en el ordenador durante las vistas previas.· During capture- Preview video on desktop (ver vista previa del video en el ordenador) Muestra el vídeo en el ordenador durante la captura- Preview audio on desktop (ver vista previa del audio en el ordenador) Reproduce el audio en el ordenador durante la captura.[/list]
    - Capture Audio (Capturar audio) Desmarcar si no queremos o no necesitamos el audio

    - Report dropped frames (avisar de la pérdida de cuadros)
    - Abort on dropped frames (cancelar si se pierden cuadros)
    - Capture limit  X seconds (Límite de captura X segundos)


    6.1.2.Ajustando las preferencias de captura
    A continuación vamos a modificar las preferencias de captura que se mantienen con todos los proyectos.

    "Edit -> Preferencies -> Scratch discs and device control" (Editar -> preferencias -> Discos de trabajo y controlador de dispositivo"

    - Captured Movies (películas capturadas) Aquí seleccionaremos en qué parte de nuestro disco se almacenarán las capturas. Por defecto aparece "Same as application" (la misma que el programa) Pero eso no nos interesa (consulta el apartado El disco duro dentro de problemas frecuentes de captura) Pinchamos ahí y seleccionamos "Select folder" (seleccionar carpeta) y elegimos la ruta deseada. El lugar elegido quedará indicado justo debajo al lado de "Path" (ruta).

    - Video Previews (vistas previas de video), (ver 4. Vistas previas)  Aunque para la localización de los archivos de las vistas previas no hay que ser tan exigente como para las capturas puesto que su duración es menor y hay menos riesgo de bajada de rendimiento por fragmentación, también ha de ser un lugar de acceso rápido y preferiblemente sin fragmentación. Por defecto aparece la opción "Same as project" (la misma que el proyecto) que podemos cambiar al igual que antes con "Select folder" (elegir carpeta)

    - Audio Previews (vistas previas de audio) Es recomendable tener el vídeo localizado en un disco duro y el audio en otro, aunque el del audio sea un disco duro  lento. De ese modo el sistema puede leer simultáneamente video y audio. De lo contrario, de usar un sólo disco duro, el cabezal tendría que saltar alternadamente de un lado a otro del disco para ir leyendo video / audio. Al igual que la opción anterior, por defecto aparece "Same as project" (la misma que el proyecto) que podremos cambiar con "Select folder" (cambiar carpeta)

    - Device control (control del dispositivo) Con esta opción le indicaremos a Premiere qué cámara tenemos conectada para que se comunique con ella de manera adecuada. Pinchamos en "None" que aparece por defecto, y seleccionamos "DV Device control 2.0" y aparece automáticamente las opciones (el mismo menú que aparece al pinchar sobre el botón "Options" una vez configurada)
    · Video Standar: PAL (Europa) o NTSC (América y Japón)
    · Device Brand (Marca del dispositivo): Aquí elegiremos el fabricante de nuestra cámara. Si no aparece, usaremos "Generic"
    · Device Model: Una vez seleccionada la marca, aparecerá una lista de modelos de ese fabricante. Si no aparece el nuestro, dejarmos "Generic"
    · Timecode Format: Desconozco su función. Mi videocámara tan sólo me deja seleccionar la que aparece en la imágen, y el manual de Premiere tan sólo indica "Elija la opción adecuada para su videocámara"


    6.2.Iniciando la captura
    Una vez ajustados todos los parámetros necesarios vamos a "File -> Capture" Aquí tenemos tres opciones




    6.2.1.Batch capture (captura programada)
    La captura programada, como su nombre sugiere, es una captura "desatendida" en la que le indicamos a Premiere los puntos de inicio y fin de la captura y él sólo va capturando. Esto tiene dos ventajas

    - Por un lado no es necesario que estemos presente durante las capturas
    - Por otro lado, al definir con precisión los archivos con los que trabajaremos (los puntos de inicio y fin en la cinta original), podremos capturarlos primero en un proyecto con  baja resolución para hacer una edición rápida, puesto que serán archivos pequeños y manejables, y una vez terminado el proyecto podremos volver a usar LOS MISMOS PUNTOS de inicio y fin para cada archivo capturado, pero con un proyecto de  una mayor resolución, de manera que aunque hemos trabajado con poca calidad en el proyecto podremos exportar el resultado de nuestra edición con la máxima calidad posible puesto que los clips serán los mismos.

    Para ver como usar este tipo de captura consulta el siguiente apartado, o ve directamente el punto Usando la ventana de tandas (Batch Capture)


    6.2.2.Movie Capture (captura de película)


    Ésta será la opción que utilicemos para capturar vídeo. Puesto que nosotros ya hemos definido las preferencias y propiedades del proyecto, (ver Ajustando las propiedades de captura del proyectoAjustando las preferencias de captura) aparecerá directamente la siguiente pantalla. En realidad aparecerá seleccionada la pestaña "Settings" (ajustes) pero como digo, ya tenemos definidas las preferencias y propiedades de la captura, de modo que pincharemos en la pestaña "Loggin" y pasaremos directamente "a la acción"

    Cuando capturamos desde una cámara DV tenemos varias formas de hacerlo

    1. La más "tradicional" coincidiría con el modo de captura analógico y sería reproducir el vídeo en la videocámara y pichar sobre el botón para iniciar la grabación  y en el botón para detenerla, pero con una cámara DV, eso no "mola"

    2. Desde Premiere podemos controlar la videocámara a nuestro antojo. Si alguna vez has editado vídeo con una mesa de mezclas "tradicional", esto te va a saber a gloria... porque te sentirás en casa. Podemos ir definiendo una serie de puntos "in-out" (inicio-fin) de modo que capturemos tan sólo lo que queremos, y además de una forma desatendida. Es decir, que como le indicamos a Premiere lo que queremos capturar y él maneja la cámara, no es nesario estar presentes durante la captura. Y ésto no sólo es válido para un punto in-out (inicio-fin) sino que podemos definir todos los in-out (inicio-fin) que queramos. Antes de ver cómo hacer ésto, echémosle un ojo a los controles de los que disponemos. Algunos son de sobra conocidos por todos, pero hay otros que quizás los veas en Premiere por primera vez.

    - Retroceso cuadro a cuadro
    - Avance cuadro a cuadro
    - Parada
    - Reproducción
    - Retroceso a cámara lenta
    - Avance a cámara lenta
    - Rebobinado rápido (si pichamos durante la reproducción se avanzará visualizándose la imágen)
    - Avance rápido (si pichamos durante la reproducción se avanzará visualizándose la imágen)
    - Pausa
    - Grabación
    - Set In (marca de inicio)
    - Set out (marca de fin)
    Autor: Ramón Cutanda (videoed)
    Foros para publicación de dudas:
    Si tras la lectura de este documento tienes alguna duda, o quieres preguntar algo, por favor, usa uno de estos foros:
    Adobe Premiere (versiones descatalogadas).
    Adobe Premiere.
    #1926


    Gracias a las novedades incorporadas en la última versión del foro (SMF 2.1) ahora es posible alojar todos nuestros artículos en el propio foro sin necesidad de recurrir a aplicaciones externas como hemos hecho hasta ahora (Wordpress).

    Empezando en este mes de julio vamos a iniciar el traslado de todos los documentos desde el sistema actual (Wordpress) al foro. El proceso es totalmente manual así que se extenderá durante bastantes semanas, ya que hay que recrear todos los artículos uno a uno en el foro y es un proceso bastante lento.

    Algunos documentos básicos de videoedicion.org como las normas de uso ya se trasladaron hace meses. Así, por ejemplo, la dirección antigua de las Normas de uso:

    https://videoedicion.org/documentacion/article/normas-de-uso-de-videoedicionorg

    lleva de forma totalmente automática y transparente a la nueva:

    https://videoedicion.org/foro/acerca-de-videoedicion-org/normas-de-uso-de-videoedicion-org/

    Este traslado tiene varias ventajas:

    • El buscador será ahora común para foro y artículos
    • Los usuarios podrán colaborar de forma sencilla (más info aquí)
    • Solo será necesario mantener y administrar un sistema (el foro) frente a los dos actuales, lo que resulta más sencillo y seguro.

    Espero completar la tarea lo antes posible y que este cambio sea del agrado de todos.

    Un saludo,
    #1927


    En los últimos meses he editado con DaVinci Resolve un vídeo de vacaciones, 9 obras de teatro multicámara, un cortometraje con algunos efectos especiales (máscaras y chroma) y una boda. Aprovechando que para la boda usé una Blackmagic Pocket Cinema 4K actualizada para hacer uso del Blackmagic RAW he decidido publicar este análisis en el que hablo de todo un poco. A continuación tenéis el hilo oficial con el vídeo y la tabla de contenidos:

    https://videoedicion.org/foro/articulos-davinci-resolve/analisis-de-davinci-resolve/
    #1928

    https://www.youtube.com/watch?v=J1Sic1UJJzE

    En este vídeo se tratan muchos temas, así que en lugar de hacer una larga descripción recomiendo leer la siguiente tabla de contenidos. Para acceder a una sección en particular solo tienes que pinchar en el código de tiempo correspondiente
    #1930
    Este miércoles 3 de julio el foro ha tenido comportamientos extraños y hemos tenido que restaurar algunos archivos. Si detectas que algo no funciona con normalidad, por favor, notifícalo aquí. Gracias.
    #1931
    Diferencias entre la versión DaVinci Resolve (versión gratuita) y DaVinci Resolve Studio (269€):

    https://documents.blackmagicdesign.com/es/SupportNotes/DaVinci_Resolve_15_Feature_Comparison.pdf

    • 04:32 Diferencias entre la versión gratuita y Studio
    • 11:26 Sobre las licencias de la versión Studio

    Listas de codecs compatibles con DaVinci Resolve:

    https://documents.blackmagicdesign.com/es/SupportNotes/DaVinci_Resolve_15_Supported_Codec_List.pdf
    #1932
    Abro este hilo, que espero que sea colaborativo, para hacer un listado de todos los plugins OpenFX (OFX) compatibles DaVinci Resolve y Fusion que conozcamos. Cuando alguien añada uno nuevo, actualizaré esta lista.

    Lista actualizada a fecha 15/12/2019

    Los filtros OFX se instalan en las siguientes carpetas para que estén disponibles para todo el sistema.

    En Windows:

    C:\Program Files\Common Files\OFX\Plugins\

    En macOS

    Library/OFX/Plugins

    NewBlueFX


    Red Giant


    BorisFX


    RE:Vision Effects


    dtf


    Digital Anachy


    Frischluft


    Film Convert


    Motiva


    Dual Heights


    FXHome


    ABSoft, NeatLab

    OpenFX-Misc

    #1933
    Empiezo yo, pero os invito a que añadáis los vuestros (si es posible, mejor no repetir, gracias)

    A favor (objetivos):

    • Hay una versión 100% gratuita y que no está especialmente limitada con respeto a la versión Studio de pago (pincha aquí para conocer las diferencias exactas entre la versión gratuita y la Studio en Resolve 15 - a tener en cuenta que desde la versión 17 la versión gratuita también admite trabajos colaborativos)
    • Está disponible para Windows, Mac y Linux, por lo que te no "ata" a ningún equipo en particular y puedes intercambiar proyectos entre distintas plataformas.
    • La licencia Studio tiene un precio muy competitivo teniendo en cuenta la competencia y es vitalicia; es decir, una vez adquirida una licencia nunca más hay que pagar por actualizar a futuras versiones. Es posible, además, tener la licencia activa en dos equipos de forma simultánea.
    • DaVinci Resolve incluye, en un solo producto, todas las herramientas que la mayoría de editores necesitan: un módulo de edición rápida (cut) especialmente diseñado para ediciones sencillas, como noticias o eventos deportivos, editando en pantallas pequeñas y entornos donde el tiempo premia, un módulo de edición completo, efectos especiales y composición con la aplicación Fusion, que antes era independiente pero que ahora está totalmente integrada, gradación de color (el plato fuerte de Resolve) y edición de audio con Fairlight.
    • Está diseñado para aprovechar al máximo la potencia de la CPU y GPU e incluso es compatible con múltiples GPU.

    A favor (subjetivos)

    • Muchas producciones de cine, algunas millonarias, usan DaVinci Resolve. Algunos de los ejemplos más recientes y populares en el momento de escribir estas líneas podrían ser, por citar algunos: edición, gradación y postproducción de la serie de Spide, edición y gradación con Resolve de Jason Bourne, gradación de color y efectos VFX de la serie de la BBC Broken (más info aquí) con Resolve y Fusion, gradación de color con Resolve de Rocketman, Dumbo o Deadpool 2, efectos especiales generados con Fusion en películas como La última gran estrella (más info aquí), la segunda temporada de la serie Legion (más info aquí), la cabecera de la serie Riviera (más info aquí).
    • También videoclips musicales como Dark Matter de Steve Vai han sido editados en su totalidad con Resolve 15 (vídeo aquí).
    • Más proyectos en los que se ha usado Resolve aquí.
    • Incluyo todas estas producciones como algo subjetivo porque la calidad de las mismas puede ser discutible aunque, por otro lado, si producciones de gran presupuesto eligen Resolve, en mi opinión, algo tendrá de bueno...
    • Por el momento he editado con Resolve un vídeo de vacaciones, un cortometraje, 9 obras de teatro multicámara y una boda. Hasta la fecha, Resolve ha cubierto todas mis necesidades y no ha habido nada que haya necesitado y no haya podido hacer. Éste es posiblemente el comentario más subjetivo de todos pero, en mi caso en particular, es motivo sobradamente de peso para seguir editando con Resolve.
    • Otro motivo altamente subjetivo es que es muy rápido adaptarse a editar con Resolve si vienes de otros sistemas. Desde 1998 he editado, principalmente, con Adobe Premiere 4, 5 y 6, Pinnacle/Avid Liquid Edition y Final Cut Pro 6, 7 y X. En mi caso, no tardé más de un par de días en sentirme como en casa.
    • Blackmagic Design está volcado en DaVinci Resolve. Cada versión incluye más y mejores novedades, por lo que cada año se mejora un producto que tal y como está ya es, en mi opinión, excelente.

    En contra (objetivos)

    • Resolve depende, y mucho, de la tarjeta gráfica por lo que solo está disponible para equipos con tarjeta gráfica dedicada (AMD o nVIDIA) y que, además, sean tarjetas "generosas" en cuanto a memoria. Este requisito excluye a la inmensa mayoría de portátiles a excepción de los muy caros de alta gama y muchos equipos "genéricos" de escritorio.
    • Es fácil encontrar cientos de plantillas de composiciones compatibles para After Effects (cabeceras, intros...). Sin embargo, es casi imposible encontrarlas para Fusion
    • DaVinci Resolve y Fusion usan la API de efectos de imagen OpenFX (OFX). Aunque que la oferta de plugins para este ecosistema está creciendo notablemente, todavía es más limitado que los de la competencia; especialmente los de Adobe o Final Cut Pro X. He abierto un hilo aquí para listar todos los conocidos.

    De momento eso es todo, pero iré ampliando si se me ocurre algo más.
    #1934
    Tuve la suerte de que Blackmagic Design me dejara una Pocket Cinema 4K para realizar una prueba. Los astros se alinearon y justo en esas fechas tenía que hacer una boda, así que aproveché la ocasión para grabar el evento con esta cámara. Podéis saber cómo me fue en el siguiente artículo:

    https://videoedicion.org/foro/camaras-de-video/prueba-de-la-blackmagic-design-pocket-cinema-4k-en-una-boda/

    #1935
    Introducción

    BlackmagicDesign-PocketCinema4K.jpg
    El equipo usado

    Antes de empezar, comentar que este artículo está centrado principalmente en mi experiencia de uso con la Blackmagic Design Pocket Cinema 4K ofreciendo una visión práctica en un uso real. En lugar de copiar y pegar toda la lista de aspectos técnicos prefiero proporcionar el enlace a la web oficial de Blackmagic Design:

    https://www.blackmagicdesign.com/es/products/blackmagicpocketcinemacamera

    Dicho esto, vamos al origen de este artículo. Hace unos meses Blackmagic Design me contactó ofreciéndome probar la Pocket Cinema 4K. ¿Y cómo decir que no a una oferta así? Aunque ser el administrador de videoedicion.org me ha ofrecido a lo largo de los años la oportunidad de estar en contacto con diversos productos profesionales, lo cierto es que soy maestro de primaria y que el vídeo digital es una afición, más o menos intensa, pero a la que no me dedico profesionalmente. Es decir, nunca he cobrado por una grabación o edición.

    Estaba encantado de que Blackmagic Design me ofreciera probar la Pocket Cinema 4K pero, además, se dio la circunstancia de que el hijo de unos compañeros de mi colegio se casaba en menos de un mes y usar la Pocket Cinema 4K para la boda sería una oportunidad estupenda para ponerla a prueba. Hace unos años ya hice la boda de la hija de estos mismos compañeros. Aquel vídeo les encantó; así que no dudaron en pedirme de nuevo que me encargara del vídeo de esta nueva boda. He de admitir que sentía cierta presión porque sus expectativas eran muy altas e iba a realizar la boda con una cámara de una gran calidad, pero que apenas sí iba a tener unos días para probar.

    Una última aclaración antes de entrar en harina. Hacía apenas unos meses decidí comprar una nueva cámara de vídeo para mi uso personal. Pasé muchos días deshojando la margarita, y la Pocket Cinema 4K fue una firme candidata; así que os podéis imaginar las ganas que tenía de probarla. Sin embargo, por muchos motivos que no merece la pena contar en este artículo, finalmente adquirí una Canon XC10. Un modelo muy poco habitual pero que me ofreció dos importantes ventajas a la hora de realizar esta boda. La primera es que usa las mismas baterías que mi otra Canon 7D y que la Pocket Cinema, así que disponía, contando la batería proporcionada por BlackMagic, de un total de 9 baterías de los modelos LP-E6 y LP-E6N. Ese "arsenal" de baterías me proporcionaría la tranquilidad de saber que no me quedaría tirado en mitad de la boda por falta de baterías.

    En cuanto al almacenamiento, aunque Backmagic me entregó la cámara con un disco externo de 1TB además de una tarjeta CFast II de 256GB y otra SDXC de 64GB, disponía de otras dos tarjetas CFast de 256 GB para mi Canon XC10. Así que en lo que respecta a baterías y almacenamiento estaba bien cubierto.

    Y dicho todo esto, vayamos al grano.

    La Pocket Cinema 4K y el Blackmagic RAW

    En septiembre del 2018 Blackmagic anunció su nuevo codec Blackmagic RAW (BRAW en adelante). Inicialmente el BRAW solo estaba disponible para la Blackmagic URSA Mini Pro. Pero en marzo de este año (2019), apenas un par de semanas antes de que la cámara llegara a mis manos, Blackmagic publicó la actualización Camera Setup 6.2 que añadió el codec BRAW a la Cinema Pocket 4K. Antes de esa actualización la Pocket Cinema 4K podía grabar en RAW usando el formato CinemaDNG lo que, personalmente, ya me hubiera merecido la pena. Pero las ventajas del BRAW sobre el CinemaDNG, como se detalla en este artículo son apabullantes. Con la publicación del BRAW Blackmagic Design ha eliminado la posibilidad de grabar en CinemaDNG en la Pocket Cinema 4K. Su argumentación ha sido por "motivos de patentes"; algo extraño teniendo en cuenta que el CinemaDNG es un formato abierto. Sea como fuere, y aunque el CinemDNG siguiera estando disponible ¿quién querría usarlo pudiendo grabar en BRAW?

    Hace años que hago todas mis fotografías en RAW y conozco de sobra las ventajas a nivel de calidad de trabajar en en este formato sobre JPEG. Pero, hasta ahora, nunca había tenido la oportunidad de trabajar con vídeo en RAW. Tener la oportunidad de poder probar el BRAW era otro aliciente más que se sumaba a una larga lista de motivos para querer trabajar con la Pocket Cinema 4K.

    Dicho todo esto... ¿a que no adivináis qué fue lo primero que hice en cuanto la Pocket Cinema 4K llegó a mis manos? Pues tirarme como un loco a actualizar la cámara. Cuando ya estaba en mitad del proceso caí en la cuenta que no estaba haciendo capturas de pantalla, ni había probado nada de la cámara salvo encenderla e irme directamente a comprobar la versión del firmware. Ni siquiera me había planteado preguntarle a Blackmagic si "podía" actualizar la cámara. A fin de cuentas no era mía... Pero la actualización ya estaba en proceso y no había marcha atrás.

    Tenéis más detalles sobre el BRAW en el siguiente artículo:

    https://videoedicion.org/foro/articulos-compresion-y-formatos-de-video/blackmagic-raw/

    BMDPC4K_BRAW-Update1.png

    BMDPC4K_BRAW-Update2.png
    Actualización Camera Setup 6.2


    Tarjetas empleadas

    Para la grabación usé, además de la tarjeta CFast proporcionada por BlackMagic Design, una de las dos Cfast de las que dispongo para usar con mi Canon XC10. Me parece relevante comentar que funcionaron sin problema alguno a pesar de tener un precio bastante inferior a otros modelos (unos 85€ por tarjeta):

    Super Talent STT CFAST 256GB Pro Storage Cards (FDM256JMDF)
    http://www.supertalent.com/products/sd_detail.php?sid=263&series=CFast%20Pro

    SuperTalent-FastPro.jpg
    Super Talent STT CFAST 256GB Pro

    Con una resolución UHD (3840 x 2160) pude grabar en BRAW Q0 (calidad constante) o 3:1 (ancho de banda constante) sin saltos tanto en la CFast (400 MB/s según especificaciones del fabricante) como en la SD que me proporcionó BlackMagic Design, de 300MB/s según fabricante.

    Durante diversas pruebas en casa con resolución a DCI 4K (4096 x 2160) la grabación se paraba al usar la máxima calidad posible (BRAW Q0) con tarjeta SD. Con calidades BRAW inferiores no hubo ningún problema ni con la SD ni con la CFast.

    BRAW-Q0.jpg
    Eligiendo BRAW Q0 en el menú de la Pocket Cinema 4K

    Primeras sensaciones

    Hay dos cosas que, nada más tenerla en mis manos, me llamaron la atención por igual. Una de ellas es lo pequeña y manejable que es. A tener en cuenta que tengo manos bastante grandes (mido 190cm) y que seguramente eso tenga mucho que ver. Pero la sentí como hecha a medida desde el primer momento. La segunda es el lujo de pantalla táctil de 5 pulgadas. Solo son necesarios un par de minutos para enamorarte del diseño y no querer despegarte de ella.

    Vamos a lo práctico. Como indiqué en la introducción hay que tener presente que usé esta cámara en una boda, y ese contexto implica prisas e improvisación todo el tiempo. Como dice Antonio Lobato en las carreras de Fórmula 1, en una boda, si parpadeas, te lo piedes. Durante la grabación se confirmaron las primeras buenas sensaciones sobre su diseño y, a los pocos minutos de su uso, era capaz de accionar los distintos botones de manera instintiva. Los dos botones que más utilicé son los de enfoque y exposición. Su ubicación es, simplemente perfecta.

    Los tres botones personalizables de la parte superior también son fácilmente accesible, aunque en este caso debía estirar un poco más los dedos. Posiblemente los usuarios con manos más pequeñás que yo tengan cierta dificultad para llegar. Por defecto, estos botones muestran:

    1. "Color falso", para verificar la exposición de la toma
    2. "Mostrar LUT", para tener una vista previa de la escena aplicando la tabla LUT elegida
    3. "Líneas de guía"

    En mi caso, cambié el botón 2 para que mostrara el asistente de enfoque con líneas de color. No obstante, en la práctica, como explicaré a continuación, apenas pude hacer uso de estas funciones.

    AsistenteEnfoque_BMDPC4K.jpg
    Asistente de enfoque. En rojo las partes correctamente enfocadas

    Otros botones de uso frecuente y fácil acceso son los de ISO, obturación y balance de blancos, combinados con una rueda en la parte superior de la cámada.

    La pantalla cuenta con muy buena luminosidad y sensibilidad al tacto. Además, el diseño de los menús e información en pantalla es muy práctico. La información no es molesta y todas las funciones más habituales están fácilmente accesibles. También es posible "limpiar" la pantalla de toda información y obtener una imagen "limpia" con el simple gesto de deslizar el dedo hacia arriba de la pantalla; recuperando de nuevo todas las ayudas visuales volviendo a deslizar, pero esta vez hacia abajo. Quizás se echa en falta algo más de personalización de los menús o de la información a mostrar en la pantalla, pero es más una preferencia que una necesidad real.

    Enfoque

    El enfoque fue mi gran caballo de batalla durante toda la grabación y el "culpable" de que algunos planos no salieran todo lo bien de hubieran debido. La Pocket Cinema 4K cuenta con autofoco, pero no con seguimiento continuo. Esto fue una faena para mí porque era la primera vez que grababa una boda sin atofoco continuo y me encontré que había muchos planos en los que usaba la ampliación máxima del zoom y, por lo tanto, tenía un estrecho margen de profundidad de campo. A nada que los protagonistas se movían unos centímetros quedaban fuera de foco. Esto supuso un estrés enorme que impidió que me pudiera concentrar en otros aspectos importantes de la grabación.

    Durante mis pruebas previas a la boda, en la tranquilidad de mi casa, pude comprobar que el enfonque es muy rápido y que funciona bien incluso en situaciones de poca luz. Pero cometí el error de hacer esas pruebas enfocando a objetos estáticos. Durante la boda el enfoque automático no funcionó bien. Y no porque la cámara enfocara peor en la boda que en mi casa. El problema es que, mientras la cámara trataba de enfocar, los protagonistas se movían impidiendo que la cámara terminara de hacer un enfoque preciso. En muchas ocasiones logré un buen enfoque pero, décimas de segundos después, ya no era válido y había que reenfocar. La necesidad de estar constantemente reenfocando fue, con diferencia, lo peor de grabar una boda con la Pocke Cinema 4K aunque, claro, este problema no es exclusivo de esta cámara sino que sucederá igual con cualquier cámara que no cuente con seguimiento de enfoque. Usar una mayor apertura podría haber mitigado algo este problema, pero durante la práctica totalidad de la grabación la luz era un bien escaso y, además, no hubiera logrado el efecto bokeh deseado en muchas ocasiones.

    Exposición e ISO

    La exposición fue otra de las cosas que funcionó bien durante las pruebas en mi casa pero que no dio tan buen resultado en la grabación real, y gran parte de la culpa la tiene todo el estrés generado con el enfoque. Estoy bastante convencido de que si pudiera volver a grabar con la Pocket Cinema 4K lograría resultados mucho mejores pero, jugándomelo todo a una carta, acumulé varios errores.

    El primero de ellos fue elegir el modo de rango dinámico "Film" (película) y no aplicarle una LUT de previsualización. Como indiqué anteriormente, disponía de un botón personalizado para mostrar si la exposición era correcta. Mi intención era usar esa medición objetiva en cada plano en lugar de dejarme llevar por mi percepción subjetiva mirando una pantalla, que además, no conocía bien. Una vez más, en las pruebas tranquilas en casa todo funcionó estupendamente. Sin embargo, en la grabación real, como he comentado antes, estaba tan estresando re-enfocando todo el tiempo que no tenía tiempo físico de comprobar si la exposición de la escena era correcta.

    AsistenteExposicion_BMDPC4K.jpg
    Asistente a la exposición. En rojo sobre expuesto. En azul subexpuesto.

    Lo que terminé haciendo fue eligir la zona de encuadre que más me interesaba y usando el botón "Iris" para que la cámara midiera la luz y realizara la exposición según esa medición. Al no haberle aplicado una tabla LUT a la previsualización en pantalla (error de novato), daba la sensación de que todas las escenas estaban subexpuestas, pero confié en que la cámara haría bien su trabajo. Durante la revisión del material grabado pude comprobar, para mi horror, que había escenas claramente subexpuestas.

    Afortunadamente, realizar la grabación en BRAW me ofreció la flexibilidad de poder olvidarme de los ajustes de ISO y balance de blancos.

    Estabilización

    La cámara, como comenté al principio, es tremendamente manejable e invita a la movilidad. Sin embargo, es IMPOSIBLE realizar planos en movimiento con un mínimo de estabilidad ni aún contando con un objetivo con IS como el Lumix G Vario 12-35/F2.8 facilitado con la cámara. Eso implica que para poder obtener planos estables en los que haya movimiento es imperativo usar algún tipo de steadycam durante la grabación o será inevitable estabilizarlos en post.

    Para esta boda, decidí comprar un estabilizador. Como no me dedico al vídeo de forma profesional y no suelo hacer este tipo de grabaciones a menudo, pues compré uno "asequible". De nuevo, durante las prácticas en casa funcionó decentemente. Sin embargo, en la práctica resultó totalmente inservible. En primer lugar porque añadía mucho peso al conjunto y físicamente era agotador. En segundo lugar porque el enorme apéndice en la parte inferior de la cámara limitaba mucho los movimientos y los hacía más torpes. Por esos dos motivos finalmente me la jugué y realicé numerosos movimientos cámara en mano. Durante la grabación la cosa no parecía tan mal. Pero luego, durante la edición, la mayoría de planos resultaron absolutamente inservibles sin aplicarles estabilización.

    Dentro de unos días publicaré un análisis en vídeo de DaVinci Resolve 16 y, en ese vídeo, habrá un apartado para el estabilizador. Pero adelanto que, aunque es bueno, no hace milagros y, en algunas escenas, el precio a pagar por estabilizar son pequeños artefactos que hacen que los movimientos sean algo artificales. Muchas de las personas que han visto el vídeo me comentan que no lo notan; pero para mí son claramente evidentes.

    Baterías

    ¡Ah! Las baterías...

    Como comenté en la introducción, para la grabación de la boda disponía de las siguientes 9 baterías:

    • DSK, proporcionada por BlackMagic Design con la Pocket Cinema 4K: 7.4V 1800mAh 13.3Wh.
    • Canon LP-E6N original de mi XC10: 7.2V 1865mAh 14Wh.
    • Baxxtar LP-E6 7.2V 2040mAh 14.6Wh (x2)
    • ChiliPower CP-E6 (LP-E6) 7.4V 1850mAh 13.7Wh
    • Powerextra LP-E6 7.4v 2600mAh 19.2Wh (x2). Con esta batería la cámara reconocía solo el 71% de carga a pesar de hacer cargas completas.
    • Blumax LP-E6 1800mAh 13.32Wh. Con esta batería la cámara reconocía un 53% de carga a pesar de tener la batería completamente cargada.
    • Battery Pack 7.4V 200mAh 14.8Wh. Con esta batería la cámara no indicaba un porcentaje numérico, sino solo un gráfico aproximado.

    La escena más larga que grabé fue la del baile nupcial, con un duración total de 4 minutos y 6 segundos. Cuando empecé la grabación de ese plano la cámara mostraba una carga de poco más de un 60%. Casi al final de la toma vi el indicador de la batería en rojo mostrando un 18% de carga. Poco después de finalizar la grabación de ese plano la carga se "recuperó" hasta un 40%. Aunque no recuerdo qué batería estaba usando en ese momento, intenté usar siempre, por orden de preferencia, la suministrada por Blackmagic Design (DSK 7.4V 1800mAh 13.3Wh) la original de mi Canon XC10 (7.2V 1865mAh 14Wh) o alguna de las Baxxtar LP-E6 7.2V 2040mAh 14.6Wh, así que es prácticamente seguro que en el momento de la grabación de ese plano usara alguna de esas.

    Las duración de cada batería es realmente impredecible dependiendo de muchos factores pero, en mi caso, resultó más que evidente que con los ajustes usados (resolución UHD en formato de grabación BRAW Q0 en tarjetas CFast) es imposible realizar grabaciones medianamente largas, existiendo un alto riesgo de quedarte tirado por encima de los 6-8 minutos de grabación continuada con una misma batería.

    Durante el NAB 2019 en abril de este año Blackmagic Design presentó una empuñadora para la Pocket Cinema 4K que, según se anunció, estará disponible a partir de agosto y que permitirá sustituir la batería LP-E6 original por dos baterías de la serie L para extender la autonomía de la cámara hasta 2 horas según Blackmagic Design; aunque eso, claro, habrá que comprobarlo en un uso real.

    https://www.blackmagicdesign.com/es/media/release/20190408-08

    Revisando lo grabado

    Algo que me parece imperdonable es que en el modo de reproducción, para revisar los clips grabados, ¡no es posible borrar ninguno! Si existe la forma de borrar clips, yo al menos fui absolutamente incapaz de averiguar cómo hacerlo. Esta limitación me parece incomprensible porque borrar los clips innecesarios ayuda, por un lado, a liberar espacio en los medios de almacenamiento. Por otro, ayuda a agilizar la edición. Especialmente en los viajes, suelo aprovechar los tiempos muertos en transporte para revisar todo lo que he grabado borrando todo lo que no necesito. De ese modo, cuando voy a editar, ya sé que el 90% de los clips, salvando algunos en los que dudo, son aprovechables. Pero, como digo, en la Pocket Cinema 4K no se pueden borrar clips individuales, solo formatear la tarjeta.

    ¡Arréglalo en post!

    En el siguiente análisis en vídeo podéis ver el proceso que seguí para solucionar los problemas de exposición y estabilización:

    https://videoedicion.org/foro/articulos-davinci-resolve/analisis-de-davinci-resolve/

    Y después de todo el estrés de la grabación llega, claro, la hora de la edición y comprobar si la calidad final cumplía con las altas expectativas que tenía sobre en la Pocket Cinema 4K y el formato BRAW, y muy especialmente comparándola con mi Canon XC10.

    Como ya comenté anteriormente, una de las grandes decepciones que me llevé al revisar el metraje grabado fue comprobar que los planos cámara en mano son totalmente inservibles. Mi intención, desde el primer momento, era exportar en HD, así que en ese sentido tenía una cierta tranquilidad porque en todo momento tuve cuidado de respetar márgenes en los encuadres para cuando fuera necesario recortar para estabilizar o hacer alguna ampliación. Elegí el formato UHD (3840 x 2160) en lugar del DCI 4K (4096 x 2160) porque, a pesar de contar con una generosa cantidad de almacenamiento, al ser la primera vez que grababa con la Pocket Cinema 4K, y más en un formato como el Q0 que es impredecible en cuanto al espacio usado, quería asegurarme de contar con la tranquilidad de saber que no me quedaría sin espacio. Aprovecho para mencionar que finalmente grabé un total de 2 horas 13 minutos repartidos en 339 clips de vídeo UHD 3840 x 2160 en BRAW Q5 que ocuparon un total de 302 GB por lo que la media total fue de 38,75 MB/s.

    También pude comprobar, horrorizado, que había subexpuesto la mayoría de planos. ¿Cómo había sido posible? En primer lugar, cometí el error de novato de grabar en rango dinámico film sin activar la tabla LUT correspondiente para la vista previa en la cámara, lo que me impidió tener una vista real de lo que estaba grabando. En segundo lugar, es evidente que no medí la luz correctamente. El plan "A" era comprobar la exposición de cada plano con el modo de "color falso". Para ello había definido esta función en uno de los tres botones personalizables de la parte superior. En la práctica, y como ya comenté, estuve tan agobiado con el enfoque que acabé "confiando" en la medición de luz de la cámara. Siempre hacía zoom hacia la zona de la imagen que más interesaba exponer, por ejemplo las caras de los novios, y luego usaba el botón de exposición de la cámara confiando en que todo saldría bien. Lamentablemente no fue así y ya no dispongo de la cámara para comprobar en qué fallé y cómo evitar esos problemas de subexposición.

    En cualquier caso, el daño ya estaba hecho y llegaba la hora de ver cuánto podría "rascar" del BRAW para recuperar esos planos subexpuestos. Pude rescatar muchísimo pero el precio a pagar fue un elevado ruido claramente apreciable. Afortunadamente el filtro de eliminación de ruido cromático de Davinci Resolve 16 Studio vino al rescate. Y hago mención explícita a la palabra "Studio" porque este filtro no está disponible en la versión gratuita. No diré que hizo milagros; pero casi. Evidentemente, nunca se puede abusar de este tipo de filtros, pero aplicándolo con toda la mesura y mi mejor criterio posibles, pude, finalmente salvar los muebles.

    Conclusiones finales

    Durante la grabación me obsesioné con el enfoque. Durante la edición me obsesioné con corregir mis fallos de exposición. El caso es que durante todo el proceso no llegué a disfrutar realmente de la Pocket Cinema 4K. Sin embargo, cuando ya había hecho la mayoría de correcciones y ajustes y estaba próximo a finalizar el vídeo, empecé a disfrutar de lo que veía. La calidad de la imagen es realmente espectacular muy por encima de los vídeos que había editado hasta la fecha; especialmente en los pocos planos que estaban bien expuestos. Curiosamente, y a pesar de contar con más color original del que había tenido nunca en una grabación, me apeteció dejar la primera parte del vídeo en blanco y negro. El resultado fue muy safisfactorio con negros muy profundos y muchísimo detalle en cada plano siendo una de las partes del vídeo que más ha gustado a las personas que lo han visto.

    En el cómputo global me siento muy satisfecho del resultado final a pesar de ser consciente de que podría haber sido mucho mejor. Dada la enorme cantidad de artículos de análisis "fríos" que hay sobre esta cámara, la mayoría centrados en fichas técnicas y algunas pruebas aisladas, he querido centrarme en mi experiencia como usuario en un proyecto real.

    Como aficionado al vídeo, la Pocket Cinema 4K me parece, simplemente, un sueño hecho realidad. Por un precio asequible para cualquier aficionado es posible disfrutar de una cámara profesional de calidad cinematográfica que abre todo un mundo de posibilidades creativas a la hora de grabar eventos, cortometrajes o documentales... Es pequeña, discreta, manejable, cómoda, permite usar una amplia gama de objetivos MFT, dispone de una pantalla enorme, los menús son fácilmente accesibles, están bien organizados y ofrecen un satisfactorio nivel de personalización. Si no fuera por la duración de sus baterías y por la falta de enfoque continuo la cambiaría, sin dudarlo, por mi actual XC10. La empuñadura que estará disponible en agosto mejorará, sin duda, su autonomía. Pero, como resulta evidente, esa empuñadura también aumentará el peso de la cámara y está por ver cómo afecta a la ergonomía de uso.

    Blackmagic Design ha hecho un trabajo excelente con esta cámara y la inclusión del BRAW no ha hecho sino aumentar todavía más la calidad que podrás arrancar de cada toma.
    #1936
    En el siguiente artículo analizamos el codec Blackmagic RAW:

    https://videoedicion.org/foro/articulos-compresion-y-formatos-de-video/blackmagic-raw/

    Artículo actualizado. Añadidos los apartados Pruebas de grabación en una Pocket Cinema 4K y Resultados en una prueba real

    Este artículo, además, estrena un nuevo tipo de foro dedicado a artículos:

    https://videoedicion.org/foro/acerca-de-videoedicion-org/foros-dedicados-a-articulos/

    N
    #1937
    Artículo actualizado. Añadidos los apartados Pruebas de grabación en una Pocket Cinema 4K y Resultados en una prueba real

    ¿Qué es un formato RAW?

    RAW significa "crudo" en inglés. Grabar en RAW permite registrar la señal original que llega al sensor, preservando así el 100% de la calidad que la cámara es capaz de ofrecer. Si no se graba en RAW, la máxima calidad que se puede obtener de la mayoría de cámaras de gama media-alta es vídeo con profunidad de color de 10-bits con submuestreo de color 4:2:2. Ese submuestro, por sí solo, implica ignorar el 50% del color que llega al sensor. A ese submuestreo hay que añadirle, además, la compresión con pérdida que se produce dentro de la propia cámara, aunque afortunadamente en la actualidad hay muchos codecs que permiten reducir notablemente el tamaño de los archivos sin una notable pérdida visual.

    Cuando un vídeo no se va a gradar y se va a reproducir tal cual sale de la cámara el submuestreo 4:2:2 no es realmente un problema. El ojo humano es mucho más sensible a la luminosidad que al color, con el resultado que esa pérdida de color es realmente inapreciable. El problema llega cuando queremos manipular el color; jugar con él haciendo gradaciones y personalizando el aspecto de la imagen. Ahí es cuando empiezan los cálculos matemáticos y el redondeo y dónde cada cambio en la imagen añade pérdidas de calidad sumativas. Es como cuando se hace una fotocopia. Si la fotocopiadora es buena, es difícil distinguir la primera copia del original. Pero conforme se van haciendo copias de 2ª, 3ª, 4ª generación, etc, esas pérdidas acumulativas son cada vez más evidentes. Por eso, en el mundo del vídeo profesional es importante contar con originales de la máxima calidad aún en aquellos casos en los que visualmente no sea posible apreciar la ganancia con respecto a originales de mayor compresión (pérdida) y menor tamaño. Es, por tanto, al finalizar el proceso de gradación de color, cuando las diferencias entre usar o no formatos RAW son más evidentes.

    Historia de los formatos RAW

    La primera empresa en darle un empuje serio al formato RAW en vídeo fue Red Digital Cinema con su primera cámara, la Red One, lanzada en el 2007. El principal problema es que RED RAW es un formato propietario solo disponible para cámaras RED. Lo mismo que sucede con otros formatos propietarios como ARRIRAW o Cinema RAW Light de Canon. Poco después de la aparación de la Red One y RED DAW, Adobe impulsó el desarrollo de CinemaDNG, un códec abierto basado en el formato DNG (negativo digital) que ya había desarrollado para fotografía, pero adaptando su uso para vídeo. Una de las principales desventajas del CinemaDNG es que no es un formato de vídeo "real", sino que se genera un archivo de imagen por cada fotograma. De modo que si grabas un minuto de vídeo a 60 fotogramas se generan 3.600 archivos.

    En abril de 2018 Apple lanzó sus nuevos codecs ProRes RAW y ProRes RAW HQ que ofrecen una importantísima reducción en el tamaño de los archivos y facilitan la edición. Sin embargo, ProRes RAW es un formato propietario y, unque Apple ha llegado a acuerdo con diversos fabricantes de cámaras y grabadores externos, en el momento de escribir estas líneas (junio de 2019) solo Final Cut Pro X (FCPX) puede editar ProRes RAW de forma nativa.

    Y llegamos a septiembre de 2018. Apenas unos meses tras la presentación de ProRes RAW, Blackmagic anunció su nuevo codec Blackmagic RAW (BRAW en adelante). Pero a diferencia de Apple, junto con el codec Blackmagic ofrece un kit de desarrollo (SDK) abierto para todos los desarrolladores y sistemas operativos (Linux, macOS y Windows). Inicialmente Blackmagic RAW solo estaba disponible para la videocámara Blackmagic Design URSA Mini Pro, pero en marzo de este año (2019) Blackmagic publicó la actualización Blackmagic Camera Setup 6.2 que añadió el codec Blackmagic Raw a la Cinema Pocket 4K. Con la publicación del BRAW, Blackmagic Design ha eliminado la posibilidad de grabar en CinemaDNG. La explicación a esa desaparición ha sido por "motivos de patentes"; algo extraño teniendo en cuenta que el CinemaDNG es un formato abierto. Pero las ventajas del BRAW sobre el CinemaDNG son tan apabullantes que aunque el CinemDNG siguiera estando disponible en la Pocket Cinema 4K ¿quién querría usarlo pudiendo grabar en BRAW?

    Enorme reducción en el ancho de banda.

    BRAW está disponible en dos variantes: una de calidad constante (Q0 y Q5), pero con tamaño final de archivo variable, y otra con un ancho de banda (bitrate) fijo con el que es posible predecir el tamaño de archivo en función del tiempo de grabación. Sin embargo, con un bitrate fijo las escenas más complejas sufren algo de pérdida de calidad. En la variante de ancho de banda fijo es posible elegir entre diversos niveles de compresión, desde 3:1 con el que se obtiene la máxima calidad, al 12:1 con el que se logran los archivos más pequeños. En la siguiente tabla, realizada por Blacmagic Design, se pueden comprobar los distintos anchos de banda necesarios en función de la variante elegida.

    BRAW-bitrate.png
    Fuente: Blackmagic Design

    Los requisitos de ancho de banda durante la grabación con BRAW se han reducido tanto que ahora es posible grabar en vídeo RAW con resolución 4K usando tarjetas SD en lugar de las mucho más caras CFast. Eso sí, debemos asegurarnos de que las tarjetas SD que usemos sean lo bastante rápidas. Para grabar BRAW en 4K necesitaremos tarjetas SD de tipo UHS-II. La velocidad necesaria oscila entre los 34 MB/s del formato con más compresión (BRAW 12:1) a un máximo de 274 MB/S en Q0, pasando por los 135 MB/s fijos del BRAW 3:1.

    En el siguiente enlace es posible consultar las diferentes tarjetas y discos recomendados por Blackmagic Design para los distintos formatos

    https://www.blackmagicdesign.com/es/support/faq/59025

    Pruebas de grabación en una Pocket Cinema 4K

    Blackmagic Design me facilitó una Pocket Cinema 4K con la que grabé una boda, así que pude usarla en un entorno de pruebas real. Además de la tarjeta CFast proporcionada por BlackMagic Design, usé una de las dos Cfast de las que dispongo para usar con mi Canon XC10. Me parece relevante comentar que funcionaron sin problema alguno a pesar de tener un precio bastante inferior a otros modelos (unos 85€ por tarjeta):

    Super Talent STT CFAST 256GB Pro Storage Cards (FDM256JMDF)

    http://www.supertalent.com/products/sd_detail.php?sid=263&series=CFast%20Pro

    Usando resolución UHD (3840 x 2160) pude grabar en BRAW Q0 (calidad constante) o 3:1 (ancho de banda constante) sin saltos tanto en la CFast (400 MB/s según especificaciones del fabricante) como en la SD que me proporcionó BlackMagic Design, de 300MB/s según fabricante.

    Durante diversas pruebas en casa con resolución a DCI 4K (4096 x 2160) la grabación se paraba al usar la máxima calidad posible (BRAW Q0) con tarjeta SD. Con calidades BRAW inferiores no hubo ningún problema ni con la SD ni con la CFast.

    Finalmente grabé un total de 2 horas 13 minutos repartidos en 339 clips de vídeo UHD 3840 x 2160 en BRAW Q5 que ocuparon un total de 302 GB por lo que la media total fue de 38,75 MB/s.

    Mejora del rendimiento en la edición

    Una de las claves del BRAW en cuanto a la mejora de rendimiento durante la edición es que el proceso de interpolación cromática (demosaicing en inglés), que permite convertir los datos en "crudo" del sensor en una una señal de vídeo convencional, se lleva a cabo en la propia cámara, liberando así al ordenador de tener que realizar ese proceso adicional durante la edición. Editar BRAW es, por tanto, una tarea mucho menos intensiva que hacerlo con otros codecs RAW. Otra ventaja no tan obvia es que al realizar este proceso en la propia cámara, BRAW optimiza la información a almacenar dentro del archivo en función de las capacidades reales del sensor de la cámara empleada. BRAW está, además, optimizado para aprovechar la capacidad multi-núcleo de la CPU (procesador), así como de las funciones AVX, AVX2 y SSE4.1 cuando están disponibles. No solo eso, también ofrece soporte para aceleración mediante GPU (tarjeta gráfica) en entornos Apple Metal, CUDA y OpenCL y permite usar múltiples tarjetas gráficas de forma simultánea.

    Resultados en una prueba real

    Puse a prueba el BRAW durante la edición de una boda que grabé en UHD 3840 x 2160 en BRAW Q0 con la Pocket Cinema 4K. El equipo empleado fue el siguiente:

    • Procesador: Intel Core i7-7700K con refrigeración líquida y overclocking a 4,8 GHz
    • Plaba base: MSI MS-7A78
    • Memoria: 64 GBytes, 4 x GSkill F4-2400C15-16GVR
    • Tarjeta gráfica: NVIDIA GeForce GTX 1080 con 8 GBytes de memoria GDDR5X
    • Almacenamiento: Samsung NVMe PCIe SSD Controller de 1TB para sistema operativo y originales de la edición + Crucial CT512MX100SSD1 de 512 GB para cache, temporales y renders.

    A excepción de la gestión del color y algún pequeño retoque, la edición fue sencilla, usando únicamente una pista de vídeo. Para reproducir esta única pista de vídeo no fue necesario generar proxies ni reducir la calidad de reproducción. A tener en cuenta que aunque grabé en 50p, el proyecto lo configuré en 25p por si hacía alguna cámara lenta. La reproducción con los originales fue siempre fluida. Solo muy de vez en cuando había alguna pequeña desincronización con el audio que, pausando y soltando pausa, se solucionaba. No diré que tuve estas desincronizaciones de este tipo en todas las sesiones de trabajo, pero sí que las experimenté un número suficiente de veces como para que merezca la pena mencionarlo. Además de la boda, durante los últimos meses he editado 6 obras de teatro y un cortometraje con Resolve 16 usando vídeo 4K y HD de mi Canon XC10 y no he tenido ninguno de esos parones, así que supongo que probablemente esos fueran causados por los archivos BRAW.

    Pude realizar todas las gradaciones primarias y secundarias en tiempo real, lo que fue una auténtica gozada y agilizó muchísimo la edición. Tuve que estabilizar la práctica totalidad de los planos en movimiento. El análisis necesario para dicha estabilización no fue en tiempo real, pero sí lo bastante rápido para que fuera solo "molesto" y no desesperante. Los procesos más intensos y que acumularon tiempos de espera fueron las modificación en la velocidad de reproducción (cámara lenta) y la suavización de ruido. Cada uno de estos procesos, por sí solo, no supuso un gran retraso en la fluidez de trabajo. Sin embargo, conforme avanzaba la edición y un plano acumulaba dos o más de estos procesos los tiempos de espera fueron aumentando, aunque la velocidad de trabajo fue bastante buena en todo momento.

    Tras la publicación de este artículo me pondré a trabajar en un análisis en vídeo de Resolve 16. En él podrá verse exactamente a lo que me refiero.

    Metadatos

    BRAW ofrece la máxima flexibilidad posible a la hora de usar archivos .braw gracias a un extenso juego de metadados que se almacenan en un archivo adjunto o sidecar. Estos metadatos permiten modificar los ajustes globales, para todo el clip tales como la corrección gamma, o a nivel de fotograma como el balance de blancos, temperatura de color, exposición, ISO o tamaño de salida y formato de píxeles. Esta flexibilidad permite realizar cambios en la visualización de los archivos sin modificar para nada los archivos originales.

    BRAW: bueno, bonito y barato ¿dónde está la trampa?

    Pues hay dos. La primera es que, como ya se ha mencionado, en el momento de escribir estas líneas (junio de 2019) solo hay dos cámaras capaces de grabar en BRAW: la URSA Mini Pro por un lado y la Pocket Cinema 4K por otro; las dos de Blackmagic Design. Y de momento no hay tampoco ningún grabador externo capaz de grabar en BRAW.

    La segunda limitación es que, también de momento, los archivos BRAW solo se pueden abrir y editar de forma nativa con Davinci Resolve. Aunque sí que hay un reproductor oficial de archivos .braw para macOS, no hay versión para Windows ni Linux. No obstante, el plugin BRAW Studio, desarrollado por Autokroma, ya permite importar archivos BRAW en Adobe Premiere, tanto en su versión de Windows como para macOS. Y hablando de macOS, es altamente improbable que Apple, tras haber desarrollado ProRes RAW específicamente para Final Cut Pro X (FCPX), le abra la puerta a la competencia. En macOS, la aplicación EditReady 2 desarrollada por Divergent Media ya es compatible con BRAW, aunque los formatos de salida están limitados a H.264 y diversas variantes de DNxHR y Apple ProRes. No se puede convertir, sin embargo, a ningún formato RAW, por lo que la conversión de los archivos BRAW, aunque los hará compatibles con cualquier editor, provará que se pierdan las ventajas de editar con el contenido original.

    Que no cunda el pánico...

    A la hora de valorar las limitaciones actuales de BRAW hay dos aspectos importantes a tener en cuenta. El primero de ellos es que gracias a que el SDK de BRAW es abierto y accesible a cualquier desarrollador es de esperar que poco a poco el ecosistema de productos de hardware y software compatibles con BRAW se expanda. Y dadas las enormes ventajas de BRAW sería lógico que así sea.

    Por otro lado, y aunque todavía pasen unos meses antes de que los distintos editores de vídeo acepten el BRAW, tener que editar con Davinci Resolve no es "tan malo". En primer lugar poque, siendo gratuito, Davinci Resolve sigue siendo uno de los referentes en lo que a la gradación de color se refiere y, además, desde sus últimas versiones cuenta con un editor cada vez más potente y flexible. Y por si todo eso fuera poco, también incluye en la misma aplicación el software de composición Fusion y de edición de audio Fairlight. Y no olvidemos que la versión Studio, con funciones adicionales, solo cuesta 269€ y, una vez adquirida una licencia, es válida para dos equipos de forma simultánea y es vitalicia, incluyendo todas las actualizaciones futuras de DaVinci Resolve que Blackmagic Design lance en el futuro.

    Si quieres saber más sobre la experiencia de editar con BRAW sigue atento a videoedicion.org ya que en los próximos días publicaré un análisis en vídeo sobre DaVinci Resolve 16 y su comportamiento con archivos BRAW generados con una Pocket Cinema 4K.
    #1938
    Desde finales de junio de 2019 hemos empezado añadir, en algunos foros, una subcategoría llamada "Artículos". Esos subforos son especiales por los siguientes motivos:

    • Han sustituido a los artículos que, hasta ese momento, estaban publicados en la sección de Documentación y que estaban basados en Wordpress.

    • Al contrario de lo que sucedía anteriormente, que el sistema de Documentación era de acceso exclusivo del administrador, cualquier usuario podrá iniciar un artículo en esos subforos. No obstante, los mensajes publicados en esos foros estarán moderados. Cuando se escriba un mensaje (artículo) en uno de esos foros no se publicará directamente, sino que quedarán ocultos a la espera de la aprobación del administrador para que sean visibles.

    • Uno de los motivos de usar ahora el foro para publicar artículos es que, gracias al nuevo sistema de adjuntos, es muy sencillo insertar imágenes en los textos.

    • En los foros de artículos solo podrán iniciarse temas EXPLICATIVOS del tipo tutoriales, guías, análisis... Por ese motivo los temas publicados en los foros de artículos con dudas o preguntas serán movidos al foro correspondiente.

    • En los foros de artículos no solo se admiten nuevos mensajes. También es posible  trasladar hilos ya creados en algún otro foro. Si crees que un hilo ya creado debería formar parte de algún foro de artículo, solo tienes que reportarlo y comunicarlo.
       
    • Esos artículos, al ser en realidad temas de foro "normales y corrientes", permitirán respuestas. En las respuestas  será posible plantear dudas y ampliar la información inicial ofrecida en el tema.

    • Esos temas solo se podrán agradecer públicamente con el botón "Me gusta", quedando prohibido la publicación de respuestas que solo incluyan agradecimiento. El motivo es que se pretende que esos artículos ofrezcan información lo más útil posible y si hay muchos mensajes solo de "gracias" es fácil que preguntas y respuestas de interés queden poco visibles ocultas entre una larga lista de agradecimientos. Si alquien quiere enviar unas palabras de agradecimiento al autor siempre puede contactarle mediante la mensajería privada.


    Esperamos que estos nuevos foros sean de utilidad.
    El spam de este foro está controlado por CleanTalk