PUBLICIDAD

Welcome to videoedicion.org (v8.3). Please login or sign up.

28 de Marzo de 2024, 19:08:47

Login with username, password and session length

Temas Recientes

479 Visitantes, 0 Usuarios

Compra y colabora

Si usas estos banners para hacer tus compras, recibiremos una pequeña comisión. ¡Gracias por colaborar!


 




Código VID15 para
un 15% en planes anuales


Introducción al sonido

Iniciado por Ramón Cutanda, 11 de Agosto de 2006, 10:23:36

Tema anterior - Siguiente tema

Alejandro Pérez

[/b]

INTRODUCCIÓN

Voy a ser honesto: Mi carrera se llama Comunicación Audiovisual. Pero de Audio tiene más bien poco. Sin embargo no me importaba, yo entré por lo otro.Nunca me había interesado especialmente el sonido, sólo por las voces, lo suficiente como para tener unas nociones básicas. Pero un día me tocó ser técnico de sonido en un cortometraje y metí la pata hasta el fondo. Posteriormente fui aprendiendo detalles de gente que me ayudó a solucionar el estropicio.

Meses más tarde me ofrecieron el puesto de montador de otro corto, una versión redux de un cortometraje cuya versión original había fallado precisamente por el sonido y por eso se repetía. Volví a informarme de ciertos aspectos que debía tener en cuenta.

Con el tiempo he ido conociendo a gente de doblaje y a técnicos de sonido que me han ayudado mucho en mis pesquisas. He aprendido desde conceptos prácticos y rápidos hasta visiones teóricas y globales de la situación actual. A todos ellos les agradezco todo lo que he descubierto en relativamente poco tiempo y lo que les falta por enseñarme.

Uno de estos descubrimientos ha sido la Psicoacústica, una ciencia relativamente nueva que estudia los efectos psicológicos del sonido. Gran parte de lo que sigue está basado en las investigaciones que muchos profesionales han hecho en su nombre.

Sonido: Definición

El sonido es la vibración de un medio elastico, bien sea gaseoso, liquido o solido. Cuando nos referimos al sonido audible por el oido humano, estamos hablando de la sensacion detectada por nuestro oido, que producen las rapidas variaciones de presion en el aire por encima y por debajo de un valor estatico. Este valor estatico nos lo da la presion atmosferica (alrededor de 100.000 pascals) el cual tiene unas variaciones pequeñas y de forma muy lenta, tal y como se puede comprobar en un barometro.

(tomado de http://personal.redestb.es/azpiroz/)




ELEMENTOS DEL SONIDO PARA ESTUDIANTES DE IMAGEN: COMPARACIÓN ENTRE IMAGEN Y SONIDO


Ha hecho falta una digitalización del sonido para poder comparar el fenómeno visual con el auditivo. La primera digitalización de sonido tuvo lugar en los Laboratorios Bell de Nueva York en la década de los 70. Me he permitido esbozar una comparación, hasta cierto punto, de los elementos característicos de la imagen con los del sonido que sirve como introducción:- "Punto" equivale a "muestra". Una muestra es un registro de sonido que en teoría puede llegar a ser infinitamente pequeño. En la captación de sonido se recoge una cantidad determinada de muestras por segundo.

- "Línea" equivale a "ciclo sinusoidal". Un ciclo sinusoidal es un conjunto de muestras regular, con un ascenso y un descenso partiendo de cero y llegando a cero. Al igual que líneas curvas, puede haber variaciones en la curva gráfica que muestra un ciclo sinusoidal.

- "Plano" equivale a "tono sinusoidal continuado". Un tono sinusoidal continuado no se da en la naturaleza: es un pitido constante. Si un plano puede formarse por un conjunto de líneas asignadas una junto a otra, puede surgir el concepto de plano. Pero es una aproximación muy, muy vaga. Otra posibilidad es descartar la existencia del plano y considerar que el "tono sinusoidal continuado" es la línea y que el punto es "el ciclo sinusoidal", descartando la muestra como elemento cognitivo en un primer momento, hasta que se agrupa con otros. Sin duda aquí encontramos la mayor laguna de toda la comparativa.

- "Color" equivale a "frecuencia". Grave o agudo equivale por lo tanto a tonos fríos o calientes. El color puede producir sensaciones igual que el tono.

- "Luminancia" equivale a "intensidad" o volumen. Posiblemente es la equivalencia más clara de todas.

- "Trama" equivale a "trama", porque el concepto es el mismo. La velocidad de registro de muestras determina  la calidad definitiva del sonido. Existen sistemas de registro tanto analógicos como digitales con las mismas consecuencias que en el tratamiento de imágenes. Por lo tanto podemos decir que el grano fotográfico equivale muy fielmente a la cantidad de detalle de un disco, y el pixel equivale a una muestra.

-  "Textura" equivale a "armónicos". Sin duda la mayor satisfacción al crear esta comparativa ha sido observar cómo los equivalentes visuales de los componentes de la textura gráfica son los mismos que los equivalentes sonoros de los armónicos. Puede considerarse todo un éxito. Los armónicos son las variaciones en los ciclos que permiten crean las auténticas formas sonoras: Timbres de voz, armonías, etc. Se aplican al plano, si aceptamos que éste es un tono sinusoidal continuado, y son la combinación de frecuencia y luminancia.

Otras comparaciones:

-  Nitidez: Existe una zona en el espectro auditivo que podemos considerar de más nitidez que el resto. Es también la parte que más llama nuestra atención, como los colores calientes. Es la zona de los 1.000 hz, como veremos más adelante. Si se oyen sonidos a diferentes frecuencias, las que se acerquen más a ésta son las que se oirán mejor. Se puede considerar que hay una tendencia natural a distinguir en ella la forma y desechar el resto como fondo.

-  Movimiento y secuencialidad: El sonido es una vibración que depende enteramente del tiempo para su percepción, por lo que podemos decir que no existe sin movimiento, al contrario que la imagen fija. Y como no podemos trasladar el concepto de imagen fija al sonido, tampoco podemos hacerlo con la secuencialidad.

-  Línea sugerida/movimiento sugerido: El hecho de que una reproducción pueda surgir de un número de muestras y que éstas formen tonos similares los que percibimos en la realidad supone un movimiento sugerido. Sin embargo debemos recordar que no existe el no-movimiento. En cuanto a las líneas sugeridas, es interesante el hecho de que si nosotros tocamos la escala en un piano podemos imaginar el tono que viene a continuación y también formamos una continuidad interna de los medios tonos si se toca lo suficientemente deprisa. Podemos ver más detalles sobre aspectos sugeridos del sonido y otros aspectos de la Psicoacústica, más adelante.

-  Ritmo: Sin duda queda claro que el ritmo en el ámbito del sonido es equivalente a una repetición de elementos en un esquema. No es que aporte temporalidad como en una imagen fija, sino que la refuerza.




LAS TRES DIMENSIONES


El concepto de tridimensionalidad requiere más atención que el resto de los anteriores. Para empezar, la representación gráfica de un registro de sonido es bidimensional. Pero esto no supone que una fuente de sonido sea bidimensional. Por definición, el origen de un sonido se encuentra en un solo lugar, aunque puede haber muchos orígenes de un sonido juntos o el sonido puede rebotar y distribuirse antes de llegar al perceptor.Una señal mono corresponde a un punto determinado de ese plano espacial en el que percibimos datos. Estos son por ejemplo, las radios antiguas de un solo altavoz.

Nuestra escucha es biaural. Tenemos dos pabellones auditivos distribuidos a cada lado de la cabeza. Esta escucha biaural tiene como característica que podemos determinar desde qué ángulo del mismo plano se produce un sonido. Un ejemplo realmente interesante es escuchar un CD estéreo de música rock con los altavoces adecuadamente orientados. Nosotros oímos dos fuentes de sonido, pero somos capaces de reconocer que el cantante se encuentra en el centro, el guitarrista a la izquierda y el bajista a la derecha. Esto se debe a que recomponemos desde nuestros dos receptores un universo tridimensional, de una manera abrumadoramente similar a la visión estereoscópica.
Es más, podemos determinar si alguien está delante o detrás gracias a muy complejos cálculos inconscientes. Nuestras orejas están orientadas algo más hacia adelante, y la percepción contrastada de los oídos de una fuente detrás de nosotros no es exactamente igual a la de delante. Este reconocimiento se ve apoyado porque no vemos al sujeto, por leves movimientos de cabeza, etc.
Otro aspecto de nuestra percepción tridimensional es la falta de capacidad de determinar la altura a la que oímos. No podemos reconocer si nos hablan desde abajo o desde arriba. Otros animales, como los gatos, tienen orejas móviles, y esto supone una facultad para percibir el origen exacto del sonido. Es evidente que a ellos les hace más falta que a nosotros, por constitución física, alimentación y costumbres vitales.

Volvamos a las fuentes de sonido. El reconstruir los orígenes de las fuentes en un disco en estéreo es una simulación, una sensación acústica, no es real. De hecho, es tan real como una película tridimensional. Los sistemas Surround son una simulación también. Luego veremos la historia de su evolución más detalladamente. Por ahora debemos tener en cuenta que más altavoces no aportan más realidad. Ni siquiera si estuviese un cine tapiado con altavoces sincronizados para ofrecer sonido desde todos los puntos posibles sería completamente real. Además, hay que tener en cuenta que estos sistemas, con los Laboratorios Dolby a la cabeza, no buscan tanto la realidad, sino más bien la espectacularidad.




HISTORIA DE LA BANDA SONORA


Los inicios del cine sonoro son bien conocidos y muy similares a los inicios del cine mudo, por lo que no nos vamos a centrar en ellos. Pero sí vamos a tener en cuenta que en ambos casos se consideraron al principio como poco interesantes para el gran público, sino simplemente interesantes a un nivel científico, acabaron siendo aclamados por los espectadores.También vamos a tener en cuenta otra similitud fascinante: Actualmente el sistema de reproducción tanto del sonido como de las imágenes en un cine son prácticamente similares a como fueron en sus inicios, pero con algunos cambios, como veremos más adelante.

La pista de sonido óptico analógico tradicional es una banda opaca situada junto a la imagen en la película. Son una expresión gráfica del audio, unas pistas transparentes cuya anchura varía de acuerdo con las variaciones del sonido. Al pasar la película, un haz de luz atraviesa las pistas, y una célula fotoeléctrica convierte la luz en una señal eléctrica que conserva una variación similar. La señal eléctrica se procesa y se amplía hasta convertirla en el código que los altavoces reproducen.

A finales de los años 20 se multiplicaron las salas que incorporaban la posibilidad de reproducir este sonido, es más, crecieron a un ritmo excesivo, porque se produjeron constantes avances que no se incorporaron a las salas, porque éstas ya acababan de invertir en la nueva tecnología. Un ejemplo se dio con los altavoces, que mejoraron a toda velocidad, optimizados para salas más grandes y para más frecuencias, y a los técnicos de sonido les asaltó una duda: Si debían optimizar el sonido para los nuevos altavoces o para los antiguos. Como dos versiones de una película eran poco rentables, hubo que sacrificar los progresos de calidad durante bastante tiempo.

En los años 30 se produjo una estandarización de los sistemas de sonido y los propietarios de los cines empezaron a equipar las salas con los medios más adecuados a lo que ofrecían los estándares en la producción cinematográfica, porque sabían a qué atenerse. El resultado fue un esquema de grabación y reproducción que hizo posible que casi todas las películas sonaran aceptablemente en cualquier cine del mundo. El problema fue que el esquema carecía de flexibilidad para incorporar mejoras que superaran las limitaciones existentes en la época. Y esta situación se prolongó una década más.

A principios de los 50, la industra cinematográfica buscó también en el sonido una mejora sustancial del terrible y conocido competidor que acechaba: el televisor. Se introdujo una banda magnética para el sonido, que curiosamente fue un descubrimiento muy relacionado con la propia televisión y sus sistemas electrónicos de transmisión y almacenamiento de datos. Después de imprimir la imagen, se aplicaban estrechas bandas de un material basado en óxido de hierro, la banda magnética en sí. En los estudios se grababa en tiempo real en las bandas magnéticas y supuso un avance significativo  que proporcionaba una fidelidad muy superior a la del sonido óptico convencional.

Además se permitió la reproducción de sonido multicanal, la voz de los actores se escuchaba desde varias fuentes, izquierda, centro o derecha según aparecieran éstos en pantalla. Esto fue un gran realce a los sistemas panorámicos visuales que surgieron por las mismas razones. Y no sólo con las voces, se logró un mayor realismo en el apartado musical, los efectos especiales de sonido resultaban mucho más creíbles, también desde la parte trasera de las salas. Los principales sistemas de sonido que se crearon son el denominado Todd-AO de 70mm con seis canales y el conocido CinemaScope de 35 mm con cuatro.

Sin embargo pasaron los años y el sonido magnético, que durante las décadas anteriores floreció con las superproducciones de inmenso realismo e integración, sufrió una grave crisis en los 70. Un declive generalizado acechó a la industria y hubo que recortar gastos. El resultado fue la vuelta al sonido mono y óptico de baja fidelidad.

En ese momento de crisis fue una resolución muy inteligente: la cabeza lectora de sonido óptico era conocida, económica y sencilla, y también resultan rentables los modos de captación, transporte y mantenimiento del sonido, a lo que hay que añadir que el soporte es el mismo que el de la imagen sin añadidos de ningún tipo. Por su parte la banda magnética cayó en desuso y quedó relegada a estrenos y grandes películas en sólo unas pocas salas. Los rodajes de grandes producciones se seguían grabando con la mayor calidad posible, pero sólo se hacían contadas copias con esa calidad, mientras que se optimizaba la calidad de la banda óptica en mono; por supuesto, hasta los evidentes límites que ésta tiene. Curiosamente muchos hogares disfrutaban en aquellos momentos de los sistemas de alta fidelidad, con mucha mayor calidad que las salas de cine.

Durante los 80 la industria estaba viviendo una recuperación financiera y se hizo necesario un modo de volver de algún modo a la calidad de hacia 30 años. Surgieron los sistemas multicanal para algunas películas importantes. El gran avance fue la investigación de Laboratorios Dolby de un formato de sonido estéreo para películas de 35 mm, cuyo nombre es conocido por todos nosotros: Dolby Stereo. En el espacio ocupado por la pista convencional óptica mono hay dos pistas que no sólo contienen información de canales izquierdo y derecho como en sonido estéreo doméstico, sino que también contienen codificada la información para un tercer canal de pantalla (central) y un canal envolvente para sonidos de ambiente y efectos especiales.

Este formato no sólo permitió usar el sonido multicanal sino que también mejoró la calidad del propio audio y supuso un gran avance en cuanto al diseño de la banda sonora: Los sistemas tenían (y tienen) códigos para ser comprendidos por lectores novedosos, pero también pueden ser asimilados por lectores antiguos para reproducir el sonido sin las ventajas adicionales. Esto supone que no es necesario cambiar el sistema reproducción sonora de un cine cada vez que surge una innovación.

En cuanto a la fidelidad, hubo muchas técnicas que la mejoraban, tanto en reproducción como en grabación. Lo principales fueron la reducción del ruido Dolby A, que elimina el soplo y el sonido de fritura, característicos del sonido óptico, y la ecualización de los altavoces para ajustar el sonido del sistema a una curva de respuesta estándar. Como resultado, las películas Dolby Stereo podían reproducirse en los cines instalando procesadores Dolby, con una respuesta en frecuencia mucho más amplia y una distorsión mucho mejor que las películas convencionales. Otra ventaja del formato Dolby es que las bandas de sonido se imprimen simultáneamente con la imagen, al igual que en las anteriores películas mono. De este modo, el coste de las copias ópticas con cuatro canales no es mayor que el de las mono, y mucho menor que el de las magnéticas. El resultado, aún en los 80, fue la capacidad multicanal equivalente al de las películas magnéticas de 35 mm, que enseguida quedaron obsoletas, con una mayor fidelidad, mayor fiabilidad y menor coste.

En 1986, los Laboratoriso Dloby introdujeron un nuevo proceso de grabación denominado Dolby Spectral Recording. Como sistema de reducción de ruido era un sistema de codificación-decodificación simétrico usado tanto en grabación como en reproducción. Alcanzaba una reducción de ruido equivalente al doble que el sistema Dolby A. Las bandas de sonido óptico de 35 mm tratadas con Dolby SR en lugar de Dolby A no sólo sonaban excelentemente en los cines con los nuevos procesadores SR, sino que también se podían reproducir satisfactoriamente en todos los cines con Dolby Stereo. Esto llevó a la situación actual en que prácticamente todas las copias con sonido analógico tengan el formato Dolby SR.

El siguiente desarrollo de Laboratorios Dolby (que ya se había convertido en la máxima autoridad en el campo del diseño de pistas de audio) fue presentado en 1992 y pasaba ya al sistema digital. El Dolby Digital consta de una banda de sonido óptica compuesta por seis canales digitales, además de una banda analógica de cuatro canales SR. Todo ello en una película de 35 mm. Este formato fue otro avance significativo en el sonido cinematográfico que permitía cinco canales independientes (izquierdo, central, derecho, Surround izquierdo y Surround derecho) y un sexto canal para efectos de baja frecuencia (los bajos de una orquesta, golpes, temblores de tierra y todos los sonidos que precisen de un refuerzo en este campo). Además de seis canales, el formato Dolby Digital proporciona una gran capacidad dinámica, amplia respuesta en todas las frecuencias, baja distorsión y la inmunidad al desgaste similar a las películas actuales de celuloide. Hoy es el formato digital más conocido, con el que se han realizado un mayor número de películas y el que más cines de todo el mundo tienen instalado.

El último avance del sistema Dolby ha sido el Dolby Digital Surround EX, que, como su propio nombre indica, añade una pista Surround extra al Dolby digital. Este canal se reproduce por los altavoces Surround de la pared trasera de las salas. Surgió en 1999 y ha sido un recurso muy solicitado para dotar de más espectacularidad a las producciones de Hollywood.




LA MÚSICA


Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre música diegética; aquella que pertenece al mundo de los personajes (por ejemplo, en una escena de baile en una película de los años 50, la música de la orquesta que toca en la sala) y la música no diegética: la que existe fuera del mundo de los personajes, y por tanto ellos no la pueden oír.Aunque la función principal de la música diegética es la de suministrar apoyo y coherencia a aquello que se nos muestra en la imagen el hecho de hacerla necesaria puede ir ligado a unas intenciones más complejas del realizador (y no olvidemos que los grandes realizadores consiguen subvertir esta dicotomía -una música diegética se funde en una no diegética; un personaje comenta la no diegética...-). Sea o no necesaria, la música de una producción audiovisual puede cumplir alguna de las siguientes funciones:

-  Suministrar información: la letra de una canción puede explicarnos cosas que pasan, sentimientos de los personajes, etc.; también el estilo musical nos puede informar de la época y el lugar en el que se desarrolla la acción.
- Captar la atención del espectador: a base de golpes orquestales, fanfarrias, sintonías de programas
- Establecer el ritmo: de la edición de la imagen o del diálogo.
- Mantener el flujo y la continuidad de la acción: la persistencia de una música suavizará cortes abruptos, rupturas de raccord visual.

Existen determinados formatos musicales destinados a cumplir funciones específicas:

- Sintonía: caracteriza inequívocamente un programa o producción audiovisual; avisa de su inicio o final.
- Ráfaga: fragmento de música sin otra finalidad que la de introducir variación o distracción sonora.
- Cortinilla: fragmento breve utilizado para delimitar y separar secciones de una misma producción.
- Fondo o ambiente: música incidental, que suele ir mezclada con diálogos o efectos importantes, y que contribuye a mantener una continuidad anímica o estructural.
- Banda Sonora: suele identificarse como tal la banda musical pero incluye también la banda de efectos y la de diálogos.

Pero lo más importante de la música es que diga algo. La música sugiere. Es un hecho innegable. Es más, por eso existe. Como imagen auditiva que es, trae recuerdos de otras imágenes o de sentimientos. Vamos a observar aquí algunos de ellos en una configuración sinfónica:

- Los timbales y percusiones con gran presencia de frecuencias graves y sobre tonos, depende del ritmo, si son movimientos vivos, denotan cierta tensión, angustia en algunos casos; en un ritmo medio, le dan un aire de heroicidad, de gesta, y muy lentos, dan cierto aire de solemnidad.
- La familia de cuerda (violín, viola, chelo y contrabajo) se utiliza para conferir tonos románticos, apasionados o melancólicos.
- La familia de madera (oboe, fagot) suele conferir tonos intimistas.
- Los metales (trompetas, trombón de varas etc.) denotan ritmo, acción.
- El piano es siempre un elemento para denotar soledad.
- El flautín denota infancia y candidez.
- La guitarra española presta siempre un aire latino.

Todo esto es cuidadosamente analizado por el compositor de una obra junto al director de la película. Un autor puede dejar una voz femenina con poca carga instrumental en el momento en que hable una mujer en una secuencia romántica y volver a ella (violines, etc.) cuando habla la voz masculina. No se solapan y así se continúa con el aspecto romántico que proporcionaba la voz femenina.




LOS EFECTOS DE SONIDO


Un efecto de sonido puede considerarse como cualquier reproducción de auditiva que trate de acompañar a la acción y proporcionar realismo a una producción audiovisual. Los efectos pueden representar objetos, movimientos en el espacio o en el tiempo, estados emocionales, procesos de pensamiento, contacto físico entre objetos, escenarios, entidades irreales, etc. Éstas son los diferentes tipos que hay, según su origen:- Efectos originales: Son los procedentes de las tomas de sonido directo o sonido de producción. Estos efectos pueden ir en sincronía con determinadas imágenes o ser independientes de ellas, si bien su origen sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la grabación de sonidos originales hay que conseguirlos con la máxima nitidez sonora posible Los efectos originales tienen los inconvenientes de que es difícil hallar lugares lo suficientemente tranquilos y silenciosos que garanticen una buena grabación, y que muchos eventos naturales son poco controlables y difícilmente repetibles. Por todo ello los efectos originales a menudo requieren de algún tipo de procesado posterior antes de incluirlos en la banda sonora.

- Efectos de sala: Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden cuando se doblan diálogos o se graban en directo. En general los efectos de sala acostumbran a ser pasos, roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc., y para su grabación los estudios disponen de suelos de superficie variable. Efectos típicos de sala son los pasos de un caballo creados a partir de golpear cocos contra un suelo de tierra o de grava, la lluvia creada a partir de volcar tierra sobre un papel situado encima del micrófono, los sonidos de comida friéndose creados a partir de poner trapos mojados sobre una superficie ardiente, los truenos creados a base de sacudir un globo lleno de perdigones o bolitas de plomo, o el fuego creado arrugando papel celofán. Los efectos de sala no siempre tienen que ser lo que definitivamente vaya a sonar: posteriormente pueden procesarse o acumularse unos sobre otros hasta conseguir el tipo de sonido que mejor se adecue.

- Efectos de colecciones o de bibliotecas: Las colecciones en discos son el recurso más utilizado a la hora de construir la banda sonora de una producción audiovisual. Suelen venderse en sitios especializados y están organizadas temáticamente con categorías tales como transporte, naturaleza, domésticos, electrónicos, exteriores, humanos, etc.

- Efectos electrónicos o sintéticos: Oskar Fischinger desarrolló técnicas que consistían en la manipulación de la pista óptica de la película, pintándola a mano, por ejemplo. Ya en los años 50 algunos creadores de efectos de sonido construyeron máquinas especiales para generar determinados tipos de efectos, y también son de aquella época los primeros sonidos verdaderamente sintéticos. No obstante, hasta los años 70 los sintetizadores y otros dispositivos electrónicos no empezaron a funcionar a gran escala. Además empezó a utilizarse el denominado Sampler, que es un sistema electrónico para colocar efectos en tiempo real. Éstos están almacenados en una base de datos y se insertan adecuadamente. En España, el mejor ejemplo que tenemos es Crónicas Marcianas.

Los sonidos pueden ser naturales, es decir, que el efecto sea el sonido del mismo objeto que lo ha producido o falseado, a esto se lo denomina "sonido característico". Es una imitación del objeto que está sonando. Un sonido característico puede reconocerse, pero no es el original de la fuente sonora sino aquél que se supone, o que se supone que el oyente puede suponer, que ha de tener la fuente sonora.

La deformación o imitación de un sonido característico se hace con el fin de intensificar el impacto sobre el espectador. Un ejemplo muy interesante ocurrió en USA: durante muchos años todos los anuncios de automóviles utilizaban el mismo sonido, el de un Deussenberg del 35, debido a que su timbre no enmascaraba las voces de los locutores y realmente "parecía un coche"; para el oyente especialmente si no era demasiado entendido en sonidos de coches el efecto utilizado era apropiado, aunque no fuera el que correspondía en realidad al coche que se promocionaba.

Los sonidos tienen distintas funciones en las producciones audiovisuales:

- Sonidos objetivos: aquellos que suenan a consecuencia de la aparición de la imagen de un objeto que emite el sonido. Un sonido objetivo suena como se supone que sonará el objeto que aparece en la imagen (no necesariamente suena exactamente como lo hace en la realidad).
- Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de los personajes, sin que necesariamente el objeto productor del sonido aparezca en la imagen.

- Sonidos descriptivos: aquellos que no representan a ningún objeto de los que aparecen en la imagen, sino que son abstracciones o idealizaciones de los sonidos supuestamente originales (aquellos que podríamos escuchar). Podemos considerarlos como sonidos metafóricos.




VOZ Y OÍDO


Está claro que el oído humano está hecho para recibir voces humanas por encima de cualquier otro sonido, si bien existen sonidos vitales distintos a los humanos que es imprescindible conocer y percibir. Un hombre de hace 300.000 años necesitaba reconocer el paso de un conejo cuando le oía. Era algo necesario para comer. Nosotros no, pero sí podemos llegar a reconocer portazos o cristales rotos, por ejemplo. La educación de la voz nos puede llegar a dar la posibilidad de distinguir a diferentes personas según la fuerza con la que pisan al andar. Unas personas pueden escuchar una pisada, otras pueden reconocer una pisada masculina de un hombre con sobrepeso.Una ventaja importante que tiene la investigación de la voz humana dentro de los parámetros de investigación del sonido es que ha sido muy estudiada gracias al interés publicitario, con el que se ha llegado a muchas conclusiones y descubrimientos fascinantes.

Los límites auditivos se encuentran entre los 60 hz y los 18.000 hz. Nosotros oímos en escala logarítmica, y encontramos más diferencia tonal entre los 60 y los 80 hz que entre los 10.000 y los 10.020. Por otro lado, la mencionada educación del oído en nuestra sociedad ha impuesto a nuestra educación inconsciente una limitación mayor: entre los 80 y los 16.000. Esto significa que nosotros no oímos, a no ser que tengamos nuestra escucha educada, una frecuencia mayor de 16.000, o que sí la oímos, pero no le prestamos atención, como cuando descartamos el ruido de fondo de una zona transitada. Una prueba fehaciente de esto es que los tubos de imagen de televisores y monitores emiten constantemente un pitido a 16000 hz que nosotros no escuchamos. Sin embargo sí podemos llegar a asociar una sensación extraña en nuestro oído con la presencia de una televisión encendida. El standard auditivo comercial se encuentra en mayores franjas: 20 y 20.000. Estos son también los límites que tienen nuestros altavoces comunes.

Como se ha adelantado antes, tendemos a fijarnos más en una zona del espectro sonoro. Ésta se encuentra alrededor de los 1.000 hz (entre los 300 y los 3000) y es precisamente la frecuentada por la voz humana, que aunque tiene un timbre distinto para cada individuo, es general en esa zona. Tampoco es casualidad que, si hacemos una escala logarítmica entre 20 y 20.000 nos encontremos con que 1.000 se encuentre en la mitad.

Los hombres y las mujeres tienen amplitudes de voz ligeramente distintas, tanto denotativa como connotativamente. Esto nos hace reconocer una voz masculina haciendo un falsete, por ejemplo. El timbre masculino tiende a estar entre los 300 y los 2.000, el femenino entre los 500 y los 3.000.

Como ejemplo de connotación, vamos a utilizar uno de los resultados que nos han proporcionado las investigaciones del sector publicitario. En él se mantiene la teoría de que la voz masculina tiene mayor poder de convicción que la femenina, y ésta tiene mayor capacidad de ensoñación. Ésta es la razón de que haya más locutores masculinos que femeninos, pero también es un motivo para que las mujeres tengan un espacio determinado reservado dentro de la publicidad igualmente importante. Y por supuesto puede haber excepciones según los locutores. Elías Rodríguez (anuncios de estrenos de Disney) y Marta Angelat (anuncio de McDonald's en respuesta al conflicto de las vacas locas durante la crisis del sector) son dos ejemplos que contradicen esta regla.

Una cualidad interesante de la escucha humana es la dificultad de separar sonidos integrados. Se ha demostrado que los perros reconocen mucho mejor los sonidos, es más, si oyen un coche, pueden diseccionar todas las partes de su motor. Nosotros no podemos hacer eso a no ser que nos centremos en analizar sonidos concretos durante tiempo prolongado, y con cada nuevo sonido hay que aprender de cero (no es lo mismo el sonido de un coche que el de una orquesta). Este efecto puede deberse a que nosotros asociamos el conjunto de sonidos simultáneos de un coche a la imagen de un coche.

Otro aspecto muy interesante es el del timbre del oído. Cada oído es distinto, una persona no oye lo mismo que otra, escuchamos con diferentes matices. Algunas frecuencias tienen más intensidad que otras, aunque ciertamente sí percibimos de un modo muy similar. Esto puede llevar al fascinante ejemplo de que un imitador resulte más creíble para unas personas que para otras.




POSIBILIDADES DE TRATAMIENTO DEL SONIDO
Antes de adentrarnos en las posibilidades que ofrece el control de unas muestras de audio y su tratamiento expresivo, vamos a tener en cuenta algunos recursos básicos que posibilitan el tratamiento: El efecto de reverberación, los procesos dinámicos y la ecualización.El efecto de reverberación consiste en copiar una muestra del espectro de sonido y repetirla. Existen varios parámetros que se pueden cambiar, entre ellos el tiempo que tarda en repetirse, el volumen que tiene la nueva repetición, etc. Este es posiblemente el efecto más importante del procesado de sonido. Es relativamente simple y rápido de tratar y está muy estudiado. La reproducción electrónica produce unos efectos similares a los de la naturaleza, en la que el ejemplo más claro que se puede encontrar es el del eco: Decimos algo en voz alta y se nos repite más bajo y con rasgos ligeramente distintos hasta desaparecer. Existe otro parámetro importante: La naturaleza de reflexión de sonido de la superficie en que rebota. Pero pronto veremos más utilidades de este efecto.
Algunos modos de transformar el timbre basadas en retardo:- El efecto Flanger es un filtrado periódico (en forma de peine) de una serie de frecuencias determinadas por el tiempo de retardo, aunque explicarlo con palabras es poco efectivo. El origen del Flanger es mecánico: si al grabar una cinta en un magnetofón presionamos con el dedo de vez en cuando y con fuerza variable la bobina que entrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos simultáneamente en 2 magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido característico del efecto de flanger. El flanger proporciona efectos más llamativos cuanto más rico, armónicamente hablando, sea el sonido.- Chorus se utiliza para engrosar la señal, o para simular la existencia de varios instrumentos sonando al unísono. Se simula la imperfección de un coro. En esta situación, un intérprete puede atacar con cierto retraso y desafinar ligeramente respecto a otro intérprete; eso es lo que se trata de simular, de manera compacta. Su funcionamiento es similar al del flanger (sólo que la señal que sale se filtra y se realimenta).Las transformaciones de dinámica se refieren al control del volumen y a la relación de volumen entre la señal y el ruido. Esto supone no simplemente oír con más o menos intensidad, sino que ofrece numerosas posibilidades:- Los denominados compresores dotan de intensidad a las frecuencias de menor volumen y restan a las de mayor volumen. Esto produce más fuerza a la hora de trasmitir susurros, por ejemplo, y hacen que el volumen total sea uniforme.
- Las puertas de ruido eliminan las muestras de audio de menor intensidad. Estos filtros sirven para eliminar los sonidos indeseables a partir un umbral mínimo de ruido y resultan especialmente útiles.
- Los limitadores consisten en que la intensidad del sonido no suba de las cotas fijadas para que no se oigan muestras más altas de lo deseable. También tiene mucha utilidad.
- La normalización consiste en limitar la señal de audio y hacer que el resto del espectro se adapte a este límite. Si se pone un límite por arriba, todo el sonido se ajustará proporcionalmente. Se utiliza para que una obra prolongada o una emisión mantenga la misma intensidad constantemente.
- Los extensores realizan la función contraria a los compresores: bajan las frecuencias bajas y suben las altas.

La ecualización consiste en modificar alterar la señal mediante tres parámetros: Se elige la frecuencia que se va a alterar, se elige la anchura de banda por encima y por debajo de esa frecuencia y se decide cuánto se amplifica o atenúa. El efecto resulta en un realzado de unas partes de una obra. Podemos cambiar una pieza musical grabada dando más fuerza a los bajos y menos a los agudos sin alterar el volumen, porque lo subimos en una parte y lo bajamos en otra.

En muchas mesas de mezclas analógicas de sonido podemos encontrar una serie de filtros que tienen una función similar a la ecualización:

- Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central eliminando el resto. Sirve para elminar fragmentos pequeños de ruido.
- Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte eliminando el resto. Sirve para eliminar agudos.
- Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo, el filtro de 80/100 Hz que habitualmente llevan las mesas de mezcla) eliminando el resto. Sirve para eliminar tonos graves.
- Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia central. Sirve para aislar un sonido concreto.
- Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte, pero sin ser tan abruptos como los pasa-altos y pasa-bajos (los controles de graves y agudos de los amplificadores domésticos y algunas secciones de los ecualizadores de las mesas de mezclas suelen ser de este tipo).

La mayoría de filtros analógicos o digitales adicionales a los anteriores consisten en combinaciones más o menos complicadas de los mismos.




UTILIDAD DEL TRATAMIENTO DEL SONIDO
Ya que nuestra mayor nitidez se encuentra en la franja en que percibimos las voces, hay que tener especial cuidado al tratarlas. Muchas formas de tratamiento y grabación pierden calidad y se hacen notar en este margen. Por lo tanto hay que tratar de mantener su calidad e incluso mejorarla.En el mundo del sonido existen equivalentes a los encuadres visuales. El concepto de planos sonoros se refiere a las relaciones existentes entre las diversas fuentes que coexisten en una banda sonora, es decir, las diferentes voces, la música y los efectos.
Hay cuatro tipos de planos básicos:- El narrador: Son las voces en off que buscan cercanía al espectador. Se utiliza mucho el efecto de compresión y se le dota de más intensidad que al resto. La sensación resultante consiste en que sentimos que quien nos habla se encuentra cerca. Ésta es la función principal de los compresores mencionados antes: Cuando oímos más altas las frecuencias de poca intensidad, nos invade la sensación de que nos hablan muy de cerca. Las voces susurrantes salen muy reforzadas con este sistema. El locutor y actor de doblaje que más la utiliza en España es sin duda Salvador Vidal.- El primer plano: Cuando vemos a alguien en pantalla y debe ser el centro de atención también debe tratarse con fuerza su muestra de audio. Es la voz del protagonista manteniendo una conversación. El mezclador debe tener cuidado de que sea a él a quien se oiga principalmente, aunque haya otros sonidos de fondo. Por supuesto, también la música puede estar en primer plano.- El segundo plano: Es un concepto difícil de explicar. No es lo que llama la atención pero se oye. Puede ser una conversación en secundaria a la que no prestamos atención (o no debemos). Gosford Park muestra numerosos ejemplos. Otro caso interesante ocurre Parque Jurásico, cuando se visita la celda de los velocirraptores. Se utiliza como recurso expresivo dando un segundo plano a los personajes que están en primer plano y se va cediendo la atención a otros. También sirve de ejemplo el sonido de un televisor que no es el centro de atención. Literalmente, lo oímos en segundo plano.- El tercer plano: Consiste en el conjunto de sonidos que no tiene una relevancia especial, el ejemplo más ilustrativo es el de gente en un bar hablando sin que nos demos cuenta de qué dicen.

Hay otros aspectos que tienen que tenerse en cuenta. Uno de ellos es la ambientación. Existen diferencias entre un espacio abierto y un espacio cerrado tanto en el tratamiento de la fotografía como en el del audio. Mientras, generalmente, la voz en un espacio abierto suena natural, en un espacio cerrado suena reverberada dependiendo de los materiales y la arquitectura del entorno. Existen diferentes modelos de reverberación para cada situación. Incluso los hay prefijados para habitaciones, grandes salones, etc.

Otras situaciones en las que el efecto de reverberación se utiliza es para dotar de importancia a un personaje. Dios, como personaje en obras audiovisuales, ha tenido reverberación casi siempre que se ha representado en el cine. Incluso es digno de tener en cuenta el caso de El Show de Truman: Ed Harris (tanto en versión original como aquí, doblado por Salvador Vidal) susurra al final de la película a Truman. La reverberación con que le oye Jim Carrey es inmensa, y se ve un plano del cielo gigantesco, ante las palabras "soy el creador". Luego oímos la continuación de la frase "...del programa de televisión que llena de esperanza y felicidad a millones de personas". Esta parte es más digna de un dios paródico, y la reverberación desaparece, porque vemos a Ed Harris hablando por un micrófono.

Un problema que no se puede solucionar es deshacer este efecto. Si se graba con un chromakey simulando un espacio abierto, hay que tener mucho cuidado de no dejar que se grabe la reverberación de la sala azul, porque actualmente es imposible de deshacer.

También hay casos en los que las convenciones han dejado atrás el realismo. En las telecomedias no hay reverberación, porque originalmente se graban ante el público. Se ha comprobado en un anuncio de Páginas Amarillas que el efecto no es adecuado. El intento de simular una sitcom americana se desvanece por culpa del tratamiento del sonido en esta campaña.

La ecualización se utiliza mucho para restar calidad. Esto es un recurso expresivo también importante en algunos casos: Mediante esta técnica se simulan llamadas telefónicas, voces en la radio, etc. No sólo tiene esta función expresiva, también tiene una función correctiva, porque ayuda a disminuir partes no deseables. Pero lo interesante es tratar la música con este sistema. Si se realza una parte de alta frecuencia del espectro, se da más brillo, si se realzan los bajos, quedan tonos más sombríos. Nótese una vez más que se utilizan expresiones típicas de las imágenes visuales.

Para las voces también se aprovecha este sistema, realzando graves en los hombres, agudos en las mujeres y los niños o cualquier aspecto que los realizadores pretendan manipular, por ejemplo, si queremos que una persona se oiga en un segundo plano a través de una pared con suficiente calidad pero con algo de dificultad para que se le entienda.

Otro asunto digno de mención es la forma de solapar música con voz. Para que la música no impida escuchar un diálogo se limita el volumen, se normaliza y luego se ecualiza reduciendo su fuerza en la zona de los 1.000 hz. El resultado es que las voces se entienden mejor, porque el oyente no tiene obstáculos que impidan reconocer bien la parte que capta nítida en el espectro, mientras que de fondo, nunca mejor dicho, se escucha la composición musical.




RUIDO Y SILENCIO


El ruido es uno de los pocos conceptos del mundo de la imagen que inmediatamente recuerdan al aspecto sonoro más que al visual.En la Teoría de la Comunicación se considera ruido al exceso de información o a la información no deseada. Esta definición es perfectamente aplicable al sonido. La forma en que el ruido se plasma en el audio es en ondas de sonido adicionales que dificultan o molestan en mensaje.

Existen varios tipos de ruido: El ruido electrónico, el ruido de cinta y el ruido de fondo.

El ruido electrónico es el que se genera durante el procesado electrónico en los sistemas de tratamiento de sonido. Generalmente los aparatos están preparados para producir el menor ruido posible, y en el mundo del tratamiento digital el ruido tiende a ser mínimo.

No es así en los grabadores de cinta. En este grupo se incluye todo tipo de ruidos producidos por la grabación, el propio motor de la grabadora, etc. Además pertenecen a él los ruidos inseparables de una película, como ocurre con las viejas películas deterioradas.

Ya hemos visto que existen métodos para eliminar este ruido, la puerta de ruido tiende a ser eficaz, además se puede registrar un ruido concreto en un momento de silencio de la cinta y casi extirparlo del resto mediante la inversión de fase. Se sabe que una muestra de audio que se solapa con una versión invertida de sí misma se anula igual que si ponemos un negativo de un fotolito con la misma imagen. Si lo que se hace es coger una muestra de supuesto silencio con ruido y restarlo de todo un fragmento de audio posterior con voces y música, el ruido desaparece con relativa facilidad. Resulta impresionante usar este recurso para eliminar todo tipo de voces o sonidos que no interesan. Y cada día se investiga más este apartado el mundo del filtrado. Pero hay que tener en cuenta que este ruido puede ser demasiado parecido a algún sonido que nos interesa. El sonido /s/ entra generalmente en conflicto con los filtrados de audio.

De cualquier manera, el ruido de fondo es habitual y característico en las películas. No es lo mismo grabar un momento de silencio en un parque que en un sótano. Es más, si eliminamos ese ruido, el resultado es irreal. Debe haber un ruido a no ser que se pretendan dar unas circunstancias concretas.

El silencio podemos entenderlo como un tipo de sonido especial. Su uso dosificado puede generar expectación, o un gran impacto emotivo cuando el desarrollo lógico de la escena hace esperar un sonido fuerte.

Un tratamiento objetivo del silencio es la ausencia real de sonido en la narración cuando no hay imagen que justifique un ruido.

El tratamiento subjetivo es utilizar el silencio para crear un ambiente emocional concreto. Además de generar expectación o de contrastar escenas o mensajes visuales puede llegar a comunicar situaciones de desolación, muerte, emociones desagradables... pero también tranquilidad o distanciamiento.

Matrix es una de las pocas películas que se han hecho con fragmentos sin absolutamente nada de ruido. La sala blanca completamente vacía donde se encuentran los dos protagonistas pretende resultar falsa, increíble, y lo consigue mediante diálogos completamente limpios de ruido y silencios absolutos.

En otros casos resulta interesante la necesidad de buscar un ruido de fondo para dar más credibilidad. Esto ocurre con la restauración de los clásicos y en ocasiones, con nuevos doblajes que se hacen de ellos. Si la música contiene un ruido concreto, debe tenerse cuidado de que las nuevas voces no contrasten con ellas, y debe añadirse un ruido que no se sume al original pero que tenga el suficiente nivel para ser reconocido.




FUTURO


Actualmente se está trabajando en muchas posibilidades que algún día verán la luz (u oirán el sonido) en la grabación, producción, y reproducción con posibilidades fascinantes. Los límites que se tienen ahora están desapareciendo porque se centran en campos como la velocidad de transmisión de datos, que progresan a pasos agigantados.Ya es posible crear voces virtuales y alterar las existentes, pero sólo son experimentos de laboratorio con muy poca salida comercial, de momento. Warner Bros trató hace años de reproducir la voz del desaparecido Mel Blanc (actor que dio voz a todo el elenco animado de la compañía) para un especial de los Loney Tunes y lo consiguió, utilizando a un actor distinto y tras una enorme inversión. George Lucas trató que el La Amenaza Fantasma tuviese un doblaje automático para cada idioma utilizando los registros de sus actores originales, pero desechó la idea porque los resultados quedaban demasiado planos y sin vida.

En el mundo del audio digital hay un dogma: Todo es matemáticamente posible.Dentro de unos años veremos un nuevo mundo de posibilidades creativas:

- Síntesis de voz partiendo de cero
- Variación del timbre de voz de una grabación
- Sonido real en tres dimensiones
- Posibilidad de rejuvenecer y envejecer voces
- Emisiones de radio digital en Surround
- Música sintética en Surround.
- Estándares de grabación de DVDs audio en 5:1 con cotas de calidad y capacidades nunca vistas.

Pero quizás lo más fascinante es que la otra gran máxima del mundo del sonido es que va 10 años por delante del vídeo. ¿Quiere decir esto que, si hoy podemos reproducir la voz de Humphrey Bogart, dentro de 10 años podremos reproducir su rostro? Sin duda, sí.

Bibliografía:
SONIDO PROFESIONAL, CLEMENTE TRIBALDOS, EDIT PARANINFO 1993
SONORIZACION DE PELICULAS, LB NERONSKY, ED BOIXAREU 1975
ECNICA DE SONIDO CINEMATOGRAFICO, RAMON ROSELLO, EDITORIAL FORJA 1981
EL SONIDO, JJ MATRAS, ED ATENEO 1979
REFUERZO DE SONIDO, MICHAEL ROBERTS, ED PARANINFO 1997
AUDIO PROFESIONAL, GUY MALGORN, ED PARANINFO 1998

Técnicos consultados:
ANDRÉS F. AGUERRI
EDUARDO GUTIÉRREZ ROJAS
PEDRO GLEZ. DEL VALLE
JUAN CÓRCOLES
JUAN ANTONIO IBÁÑEZ
SERGIO P. FIGUEROLA

Páginas web visitadas:
http://www.galeon.com/audiosonido/audiosonidoh.html
http://www.audiotest.org/
http://filmsound.studienet.org/ 
http://filmsound.studienet.org/
http://www.free-n-cool.com/freecsnd.html/
http://personal.redestb.es/azpiroz/
http://www.eldoblaje.com/

Autor Alejandro Pérez (http://www.thehardmenpath.com)

Respuesta rápida

Advertencia: No se ha publicado ninguna respuesta a este tema desde hace 365 días como mínimo.
A menos que estés seguro de que quieres responder, por favor, considera el empezar un nuevo tema.

Nombre:
Correo electrónico:
Atajos: ALT+S para publicar/enviar o ALT+P para previsualizar

PUBLICIDAD

El spam de este foro está controlado por CleanTalk