1. Introducción
2. Elementos del
sonido para estudiantes de imágen: Comparación entre
imágen y sonido
3. Las tres dimensiones
4. Historia de la banda
sonora
5. La música
6. Los efectos de sonido
7. Voz y oído
8. Posibilidades de
tratamiento del sonido
9. Utilidad del
tratamiento del sonido
10. Ruido y silencio
11. Futuro
1. INTRODUCCIÓN
Voy a ser honesto: Mi carrera se llama
Comunicación Audiovisual. Pero de Audio tiene más bien
poco. Sin embargo no me importaba, yo entré por lo otro.
Nunca me había interesado especialmente
el sonido, sólo por las voces, lo suficiente como para tener
unas nociones básicas. Pero un día me tocó ser
técnico de sonido en un cortometraje y metí la pata hasta
el fondo. Posteriormente fui aprendiendo detalles de gente que me
ayudó a solucionar el estropicio.
Meses más tarde me ofrecieron el puesto
de montador de otro corto, una versión redux de un cortometraje
cuya versión original había fallado precisamente por el
sonido y por eso se repetía. Volví a informarme de
ciertos
aspectos que debía tener en cuenta.
Con el tiempo he ido conociendo a gente de doblaje y
a técnicos de sonido que me han ayudado mucho en mis pesquisas.
He aprendido desde conceptos prácticos y rápidos hasta
visiones teóricas y globales de la situación actual. A
todos ellos les agradezco todo lo que he descubierto en relativamente
poco tiempo y
lo que les falta por enseñarme.
Uno de estos descubrimientos ha sido la
Psicoacústica, una ciencia relativamente nueva que estudia los
efectos psicológicos del sonido. Gran parte de lo que sigue
está basado en las investigaciones que muchos profesionales han
hecho en su nombre.
Sonido: Definición
El sonido es la vibración de un medio
elastico, bien sea gaseoso, liquido o solido. Cuando nos referimos al
sonido audible por el oido humano, estamos hablando de la sensacion
detectada por nuestro oido, que producen las rapidas variaciones de
presion en el aire por encima y por debajo de un valor estatico. Este
valor estatico nos lo da la presion atmosferica (alrededor de 100.000
pascals) el cual tiene unas variaciones pequeñas y de forma muy
lenta, tal y como se puede comprobar en un barometro.
(tomado de http://personal.redestb.es/azpiroz/)
2. ELEMENTOS
DEL SONIDO PARA ESTUDIANTES DE IMAGEN: COMPARACIÓN ENTRE IMAGEN
Y SONIDO
Ha hecho falta una digitalización del sonido para poder comparar
el fenómeno visual con el auditivo. La primera
digitalización de sonido tuvo lugar en los Laboratorios Bell de
Nueva York en la década de los 70. Me he permitido esbozar una
comparación, hasta cierto punto, de los elementos
característicos de la imagen con los del sonido que sirve como
introducción:
- "Punto" equivale a "muestra". Una muestra es un registro de
sonido que en teoría puede llegar a ser infinitamente
pequeño. En la captación de sonido se recoge una cantidad
determinada de muestras por segundo.
- "Línea" equivale a "ciclo sinusoidal". Un ciclo
sinusoidal es un conjunto de muestras regular, con un ascenso y un
descenso partiendo de cero y llegando a cero. Al igual que
líneas curvas, puede haber variaciones en la curva
gráfica que muestra un ciclo sinusoidal.
- "Plano" equivale a "tono sinusoidal continuado". Un tono
sinusoidal continuado no se da en la naturaleza: es un pitido
constante. Si un plano puede formarse por un conjunto de líneas
asignadas una junto a otra, puede surgir el concepto de plano. Pero es
una aproximación muy, muy vaga. Otra posibilidad es descartar la
existencia del plano y considerar que el "tono sinusoidal continuado"
es la línea y que el punto es "el ciclo sinusoidal", descartando
la muestra como elemento cognitivo en
un primer momento, hasta que se agrupa con otros. Sin duda aquí
encontramos la mayor laguna de toda la comparativa.
- "Color" equivale a "frecuencia". Grave o agudo equivale por lo
tanto a tonos fríos o calientes. El color puede producir
sensaciones igual que el tono.
- "Luminancia" equivale a "intensidad" o volumen. Posiblemente es
la equivalencia más clara de todas.
- "Trama" equivale a "trama", porque el concepto es el mismo. La
velocidad de registro de muestras determina la calidad definitiva
del sonido. Existen sistemas de registro tanto analógicos como
digitales con las mismas consecuencias que en el tratamiento de
imágenes. Por lo tanto podemos decir que el grano
fotográfico equivale muy fielmente a la cantidad de detalle de
un disco, y el pixel equivale a una muestra.
- "Textura" equivale a "armónicos". Sin duda la mayor
satisfacción al crear esta comparativa ha sido observar
cómo los equivalentes visuales de los componentes de la textura
gráfica son los mismos que los equivalentes sonoros de los
armónicos. Puede considerarse todo un éxito. Los
armónicos son las variaciones en los ciclos que permiten crean
las auténticas formas sonoras: Timbres de voz, armonías,
etc. Se aplican al plano, si aceptamos que éste es un tono
sinusoidal continuado, y son la combinación de frecuencia y
luminancia.
Otras comparaciones:
- Nitidez: Existe una zona en el espectro auditivo que podemos
considerar de más nitidez que el resto. Es también la
parte que más llama nuestra atención, como los colores
calientes. Es la zona de los 1.000 hz, como veremos más
adelante. Si se oyen sonidos a diferentes frecuencias, las que se
acerquen más a ésta son las que se oirán mejor. Se
puede considerar que hay una tendencia natural a distinguir en ella la
forma y desechar el resto como fondo.
- Movimiento y secuencialidad: El sonido es una vibración
que depende enteramente del tiempo para su percepción, por lo
que podemos decir que no existe sin movimiento, al contrario que la
imagen fija. Y como no podemos trasladar el concepto de imagen fija al
sonido, tampoco podemos hacerlo con la secuencialidad.
- Línea sugerida/movimiento sugerido: El hecho de que una
reproducción pueda surgir de un número de muestras y que
éstas formen tonos similares los que percibimos en la realidad
supone un movimiento sugerido. Sin embargo debemos recordar que no
existe el no-movimiento. En cuanto a las líneas sugeridas, es
interesante el hecho de que si nosotros tocamos la escala en un piano
podemos imaginar el tono que viene a continuación y
también formamos una continuidad interna de los medios tonos si
se toca lo suficientemente deprisa. Podemos ver más detalles
sobre aspectos sugeridos del sonido y otros aspectos de la
Psicoacústica, más adelante.
- Ritmo: Sin duda queda claro que el ritmo en el ámbito
del sonido es equivalente a una repetición de elementos en un
esquema. No es que aporte temporalidad como en una imagen fija, sino
que la refuerza.
3. LAS TRES DIMENSIONES
El concepto de tridimensionalidad requiere
más atención que el resto de los anteriores. Para
empezar, la representación gráfica de un registro de
sonido es bidimensional. Pero esto no supone que una fuente de sonido
sea bidimensional. Por definición, el origen de un sonido se
encuentra en un solo lugar, aunque puede haber muchos orígenes
de un sonido juntos o el sonido puede rebotar y distribuirse
antes de llegar al perceptor.
Una señal mono corresponde a un punto
determinado de ese plano espacial en el que percibimos datos. Estos son
por ejemplo, las radios antiguas de un solo altavoz.
Nuestra escucha es biaural. Tenemos dos pabellones
auditivos distribuidos a cada lado de la cabeza. Esta escucha biaural
tiene como característica que podemos determinar desde
qué
ángulo del mismo plano se produce un sonido. Un ejemplo
realmente
interesante es escuchar un CD estéreo de música rock con
los altavoces adecuadamente orientados. Nosotros oímos dos
fuentes
de sonido, pero somos capaces de reconocer que el cantante se encuentra
en el centro, el guitarrista a la izquierda y el bajista a la derecha.
Esto se debe a que recomponemos desde nuestros dos receptores un
universo
tridimensional, de una manera abrumadoramente similar a la
visión estereoscópica.
Es más, podemos determinar si alguien
está delante o detrás gracias a muy complejos
cálculos inconscientes. Nuestras orejas están orientadas
algo más hacia adelante, y la percepción contrastada de
los oídos de una fuente detrás de nosotros no es
exactamente igual a la de delante. Este reconocimiento se ve apoyado
porque no vemos al sujeto, por leves movimientos de cabeza, etc.
Otro aspecto de nuestra percepción tridimensional es la falta de
capacidad de determinar la altura a la que oímos. No podemos
reconocer si nos hablan desde abajo o desde arriba. Otros animales,
como los gatos, tienen orejas móviles, y esto supone una
facultad para percibir
el origen exacto del sonido. Es evidente que a ellos les hace
más
falta que a nosotros, por constitución física,
alimentación y costumbres vitales.
Volvamos a las fuentes de sonido. El reconstruir los
orígenes de las fuentes en un disco en estéreo es una
simulación, una sensación acústica, no es real. De
hecho, es tan real como una película tridimensional. Los
sistemas Surround son una simulación también. Luego
veremos la historia de su evolución más detalladamente.
Por ahora debemos tener en cuenta que más altavoces no aportan
más realidad. Ni
siquiera si estuviese un cine tapiado con altavoces sincronizados para
ofrecer sonido desde todos los puntos posibles sería
completamente
real. Además, hay que tener en cuenta que estos sistemas, con
los
Laboratorios Dolby a la cabeza, no buscan tanto la realidad, sino
más
bien la espectacularidad.
4. HISTORIA DE LA
BANDA SONORA
Los inicios del cine sonoro son bien conocidos
y muy similares a los inicios del cine mudo, por lo que no nos vamos a
centrar en ellos. Pero sí vamos a tener en cuenta que en ambos
casos
se consideraron al principio como poco interesantes para el gran
público,
sino simplemente interesantes a un nivel científico, acabaron
siendo aclamados por los espectadores.
También vamos a tener en cuenta otra
similitud fascinante: Actualmente el sistema de reproducción
tanto del sonido como de las imágenes en un cine son
prácticamente similares a como fueron en sus inicios, pero con
algunos cambios, como veremos más adelante.
La pista de sonido óptico analógico
tradicional es una banda opaca situada junto a la imagen en la
película. Son una expresión gráfica del audio,
unas pistas transparentes cuya anchura varía de acuerdo con las
variaciones del sonido. Al pasar la película, un haz de luz
atraviesa las pistas, y una célula fotoeléctrica
convierte la luz en una señal eléctrica que conserva una
variación similar. La señal eléctrica se procesa y
se amplía hasta convertirla en el código que los
altavoces reproducen.
A finales de los años 20 se multiplicaron las
salas que incorporaban la posibilidad de reproducir este sonido, es
más, crecieron a un ritmo excesivo, porque se produjeron
constantes avances que no se incorporaron a las salas, porque
éstas ya acababan de invertir en la nueva tecnología. Un
ejemplo se dio con los altavoces, que mejoraron a toda velocidad,
optimizados para salas más grandes y para más
frecuencias, y a los técnicos de sonido les asaltó una
duda: Si debían optimizar el sonido para los nuevos altavoces o
para los antiguos. Como dos versiones de una película eran poco
rentables, hubo que sacrificar los progresos de calidad durante
bastante tiempo.
En los años 30 se produjo una
estandarización de los sistemas de sonido y los propietarios de
los cines empezaron a equipar las salas con los medios más
adecuados a lo que ofrecían los estándares en la
producción cinematográfica, porque sabían a
qué atenerse. El resultado fue un esquema de grabación y
reproducción que hizo posible que casi todas las
películas sonaran aceptablemente en cualquier cine del mundo. El
problema fue que el esquema carecía de flexibilidad para
incorporar mejoras que superaran las limitaciones existentes en la
época. Y esta situación se prolongó una
década más.
A principios de los 50, la industra
cinematográfica buscó también en el sonido una
mejora sustancial del terrible y conocido competidor que acechaba: el
televisor. Se introdujo una banda magnética para el sonido, que
curiosamente fue un descubrimiento muy relacionado con la propia
televisión y sus sistemas electrónicos de
transmisión y almacenamiento de datos. Después de
imprimir la imagen, se aplicaban estrechas bandas de un material basado
en óxido de hierro, la banda magnética en sí. En
los estudios se grababa en tiempo real en las bandas magnéticas
y supuso un avance significativo que proporcionaba una fidelidad
muy superior a la del sonido óptico convencional.
Además se permitió la
reproducción de sonido multicanal, la voz de los actores se
escuchaba desde varias fuentes, izquierda, centro o derecha
según aparecieran éstos en pantalla. Esto fue un gran
realce a los sistemas panorámicos visuales que
surgieron por las mismas razones. Y no sólo con las voces, se
logró un mayor realismo en el apartado musical, los efectos
especiales de sonido resultaban mucho más creíbles,
también desde la parte trasera de las salas. Los principales
sistemas de sonido que se crearon
son el denominado Todd-AO de 70mm con seis canales y el conocido
CinemaScope de 35 mm con cuatro.
Sin embargo pasaron los años y el sonido
magnético, que durante las décadas anteriores
floreció con las superproducciones de inmenso realismo e
integración, sufrió una grave crisis en los 70. Un
declive generalizado acechó a la industria
y hubo que recortar gastos. El resultado fue la vuelta al sonido mono y
óptico de baja fidelidad.
En ese momento de crisis fue una resolución
muy inteligente: la cabeza lectora de sonido óptico era
conocida, económica y sencilla, y también resultan
rentables los modos de captación, transporte y mantenimiento del
sonido, a lo que hay que añadir que el soporte es el mismo que
el de la imagen sin añadidos de ningún tipo. Por su parte
la banda magnética cayó en desuso y quedó relegada
a estrenos y grandes películas en sólo unas pocas salas.
Los rodajes de grandes producciones se
seguían grabando con la mayor calidad posible, pero sólo
se hacían contadas copias con esa calidad, mientras que se
optimizaba
la calidad de la banda óptica en mono; por supuesto, hasta los
evidentes
límites que ésta tiene. Curiosamente muchos hogares
disfrutaban
en aquellos momentos de los sistemas de alta fidelidad, con mucha mayor
calidad que las salas de cine.
Durante los 80 la industria estaba viviendo una
recuperación financiera y se hizo necesario un modo de volver de
algún modo a la calidad de hacia 30 años. Surgieron los
sistemas multicanal para algunas películas importantes. El gran
avance fue la investigación de Laboratorios Dolby de un formato
de sonido estéreo para películas de 35 mm, cuyo nombre es
conocido por todos nosotros: Dolby Stereo. En el espacio ocupado por la
pista convencional óptica mono hay dos pistas que no sólo
contienen información de canales
izquierdo y derecho como en sonido estéreo doméstico,
sino
que también contienen codificada la información para un
tercer
canal de pantalla (central) y un canal envolvente para sonidos de
ambiente
y efectos especiales.
Este formato no sólo permitió usar el
sonido multicanal sino que también mejoró la calidad
del propio audio y supuso un gran avance en cuanto al diseño de
la banda sonora: Los sistemas tenían (y tienen) códigos
para ser comprendidos por lectores novedosos, pero también
pueden
ser asimilados por lectores antiguos para reproducir el sonido sin las
ventajas adicionales. Esto supone que no es necesario cambiar el
sistema
reproducción sonora de un cine cada vez que surge una
innovación.
En cuanto a la fidelidad, hubo muchas
técnicas que la mejoraban, tanto en reproducción como en
grabación. Lo principales fueron la reducción del ruido
Dolby A, que elimina el soplo y el sonido de fritura,
característicos del sonido óptico, y la
ecualización de los altavoces para ajustar el sonido del sistema
a una curva de respuesta estándar. Como resultado, las
películas Dolby Stereo podían reproducirse en los cines
instalando procesadores Dolby, con una respuesta en frecuencia mucho
más amplia y una distorsión mucho mejor que las
películas convencionales. Otra ventaja del formato Dolby es que
las bandas de sonido se imprimen simultáneamente con la imagen,
al igual que en las anteriores películas mono. De este modo, el
coste de las copias ópticas con cuatro canales no es mayor que
el de las mono, y mucho menor que el de las magnéticas. El
resultado, aún en los 80, fue la capacidad multicanal
equivalente al de las películas magnéticas de 35 mm, que
enseguida quedaron obsoletas, con una mayor fidelidad, mayor fiabilidad
y menor coste.
En 1986, los Laboratoriso Dloby introdujeron un
nuevo proceso de grabación denominado Dolby Spectral Recording.
Como sistema de reducción de ruido era un sistema de
codificación-decodificación simétrico usado tanto
en grabación como en reproducción. Alcanzaba una
reducción de ruido equivalente al doble que el sistema Dolby A.
Las bandas de sonido óptico de 35 mm tratadas con Dolby SR en
lugar de Dolby A no sólo sonaban excelentemente en los cines con
los nuevos procesadores SR, sino que también se podían
reproducir satisfactoriamente en todos los cines con Dolby Stereo. Esto
llevó a la situación actual en que prácticamente
todas las copias con sonido analógico tengan el formato Dolby
SR.
El siguiente desarrollo de Laboratorios Dolby (que
ya se había convertido en la máxima autoridad en el campo
del diseño de pistas de audio) fue presentado en 1992 y pasaba
ya
al sistema digital. El Dolby Digital consta de una banda de sonido
óptica compuesta por seis canales digitales, además de
una banda analógica de cuatro canales SR. Todo ello en una
película de 35 mm. Este formato fue otro avance significativo en
el sonido cinematográfico que permitía cinco canales
independientes (izquierdo, central, derecho, Surround izquierdo y
Surround derecho) y un sexto canal para efectos de baja frecuencia (los
bajos de una orquesta, golpes, temblores de tierra y todos los sonidos
que precisen de un refuerzo en este campo). Además de seis
canales, el formato Dolby Digital proporciona una gran capacidad
dinámica, amplia respuesta en todas las frecuencias, baja
distorsión y la inmunidad al desgaste similar a las
películas actuales de celuloide. Hoy es el formato digital
más conocido, con el que se han realizado un mayor número
de películas y el que más cines de todo el
mundo tienen instalado.
El último avance del sistema Dolby ha sido el
Dolby Digital Surround EX, que, como su propio nombre indica,
añade una pista Surround extra al Dolby digital. Este canal se
reproduce por
los altavoces Surround de la pared trasera de las salas. Surgió
en 1999 y ha sido un recurso muy solicitado para dotar de más
espectacularidad a las producciones de Hollywood.
5. LA MÚSICA
Las funciones de la música varían
según sea su origen. En este sentido diferenciamos entre
música diegética; aquella que pertenece al mundo de los
personajes (por ejemplo, en una escena de baile en una película
de los años 50, la música de la orquesta que toca en la
sala) y la música no diegética: la que existe fuera del
mundo de los personajes, y por tanto ellos no la pueden oír.
Aunque la función principal de la
música diegética es la de suministrar apoyo y coherencia
a aquello que se nos muestra en la imagen el hecho de hacerla necesaria
puede ir ligado a unas intenciones más complejas del realizador
(y no olvidemos que los grandes realizadores consiguen subvertir esta
dicotomía -una música diegética se funde en una no
diegética; un personaje comenta la no diegética...-). Sea
o no necesaria, la música de una producción audiovisual
puede cumplir alguna de las siguientes funciones:
- Suministrar información: la letra de una canción
puede explicarnos cosas que pasan, sentimientos de los personajes,
etc.; también el estilo musical nos puede informar de la
época y el lugar en el que se desarrolla la acción.
- Captar la atención del espectador: a base de golpes
orquestales, fanfarrias, sintonías de programas
- Establecer el ritmo: de la edición de la imagen o del
diálogo.
- Mantener el flujo y la continuidad de la acción: la
persistencia de una música suavizará cortes abruptos,
rupturas
de raccord visual.
Existen determinados formatos musicales destinados a
cumplir funciones específicas:
- Sintonía: caracteriza inequívocamente un programa
o producción audiovisual; avisa de su inicio o final.
- Ráfaga: fragmento de música sin otra finalidad que
la de introducir variación o distracción sonora.
- Cortinilla: fragmento breve utilizado para delimitar y separar
secciones de una misma producción.
- Fondo o ambiente: música incidental, que suele ir
mezclada con diálogos o efectos importantes, y que contribuye a
mantener una continuidad anímica o estructural.
- Banda Sonora: suele identificarse como tal la banda musical pero
incluye también la banda de efectos y la de diálogos.
Pero lo más importante de la música es
que diga algo. La música sugiere. Es un hecho innegable. Es
más, por eso existe. Como imagen auditiva que es, trae recuerdos
de otras imágenes o de sentimientos. Vamos a observar
aquí algunos de ellos en una configuración
sinfónica:
- Los timbales y percusiones con gran presencia de frecuencias
graves y sobre tonos, depende del ritmo, si son movimientos vivos,
denotan cierta tensión, angustia en algunos casos; en un ritmo
medio, le dan un aire de heroicidad, de gesta, y muy lentos, dan cierto
aire de solemnidad.
- La familia de cuerda (violín, viola, chelo y contrabajo)
se utiliza para conferir tonos románticos, apasionados o
melancólicos.
- La familia de madera (oboe, fagot) suele conferir tonos
intimistas.
- Los metales (trompetas, trombón de varas etc.) denotan
ritmo, acción.
- El piano es siempre un elemento para denotar soledad.
- El flautín denota infancia y candidez.
- La guitarra española presta siempre un aire latino.
Todo esto es cuidadosamente analizado por el
compositor de una obra junto al director de la película. Un
autor puede dejar una voz femenina con poca carga instrumental en el
momento en que hable una mujer en una secuencia romántica y
volver a ella (violines, etc.) cuando habla la voz masculina. No se
solapan y así se continúa con el aspecto romántico
que proporcionaba la voz femenina.
6. LOS EFECTOS DE
SONIDO
Un efecto de sonido puede considerarse como
cualquier reproducción de auditiva que trate de acompañar
a la acción y proporcionar realismo a una producción
audiovisual. Los efectos pueden representar objetos, movimientos en el
espacio o en el tiempo, estados emocionales, procesos de pensamiento,
contacto físico entre objetos, escenarios, entidades irreales,
etc. Éstas son los diferentes tipos que hay, según su
origen:
- Efectos originales: Son los procedentes de las tomas de
sonido directo o sonido de producción. Estos efectos pueden ir
en sincronía con determinadas imágenes o ser
independientes de ellas, si bien su origen sigue siendo los lugares del
rodaje. Cuando la planificación de la producción
establece la grabación de sonidos originales hay que
conseguirlos con la máxima nitidez
sonora posible Los efectos originales tienen los inconvenientes de que
es
difícil hallar lugares lo suficientemente tranquilos y
silenciosos
que garanticen una buena grabación, y que muchos eventos
naturales
son poco controlables y difícilmente repetibles. Por todo ello
los
efectos originales a menudo requieren de algún tipo de procesado
posterior antes de incluirlos en la banda sonora.
- Efectos de sala: Son sonidos que reemplazan los sonidos de
ambiente y los efectos que se pierden cuando se doblan diálogos
o se graban en directo. En general los efectos de sala acostumbran a
ser
pasos, roces de ropa, ruidos domésticos, puertas que se abren y
se cierran, etc., y para su grabación los estudios disponen de
suelos
de superficie variable. Efectos típicos de sala son los pasos de
un caballo creados a partir de golpear cocos contra un suelo de tierra
o
de grava, la lluvia creada a partir de volcar tierra sobre un papel
situado
encima del micrófono, los sonidos de comida friéndose
creados
a partir de poner trapos mojados sobre una superficie ardiente, los
truenos
creados a base de sacudir un globo lleno de perdigones o bolitas de
plomo,
o el fuego creado arrugando papel celofán. Los efectos de sala
no
siempre tienen que ser lo que definitivamente vaya a sonar:
posteriormente
pueden procesarse o acumularse unos sobre otros hasta conseguir el tipo
de sonido que mejor se adecue.
- Efectos de colecciones o de bibliotecas: Las colecciones
en discos son el recurso más utilizado a la hora de construir la
banda sonora de una producción audiovisual. Suelen venderse en
sitios especializados y están organizadas temáticamente
con categorías tales como transporte, naturaleza,
domésticos, electrónicos, exteriores, humanos, etc.
- Efectos electrónicos o sintéticos: Oskar
Fischinger desarrolló técnicas que consistían en
la manipulación de la pista óptica de la película,
pintándola a mano, por ejemplo. Ya en los años 50 algunos
creadores de efectos de sonido construyeron máquinas especiales
para generar determinados tipos de efectos, y también son de
aquella época los primeros sonidos verdaderamente
sintéticos. No obstante, hasta los años 70 los
sintetizadores y otros dispositivos electrónicos no empezaron a
funcionar a gran escala. Además empezó a utilizarse el
denominado Sampler, que es un sistema electrónico para colocar
efectos
en tiempo real. Éstos están almacenados en una base de
datos
y se insertan adecuadamente. En España, el mejor ejemplo que
tenemos
es Crónicas Marcianas.
Los sonidos pueden ser naturales, es decir, que el
efecto sea el sonido del mismo objeto que lo ha producido o falseado, a
esto se lo denomina "sonido característico". Es una
imitación del objeto que está sonando. Un sonido
característico puede reconocerse, pero no es el original de la
fuente sonora sino aquél que se supone, o que se supone que el
oyente puede suponer, que ha de tener la fuente sonora.
La deformación o imitación de un
sonido característico se hace con el fin de intensificar el
impacto
sobre el espectador. Un ejemplo muy interesante ocurrió en USA:
durante muchos años todos los anuncios de automóviles
utilizaban el mismo sonido, el de un Deussenberg del 35, debido a que
su timbre no enmascaraba las voces de los locutores y realmente
"parecía un coche";
para el oyente especialmente si no era demasiado entendido en sonidos
de
coches el efecto utilizado era apropiado, aunque no fuera el que
correspondía en realidad al coche que se promocionaba.
Los sonidos tienen distintas funciones en las producciones
audiovisuales:
- Sonidos objetivos: aquellos que suenan a consecuencia de la
aparición de la imagen de un objeto que emite el sonido. Un
sonido objetivo suena como se supone que sonará el objeto que
aparece en la imagen (no necesariamente suena exactamente como lo hace
en la realidad).
- Sonidos subjetivos: aquellos que apoyan una situación
anímica o emocional de la trama o de los personajes, sin que
necesariamente el objeto productor del sonido aparezca en la imagen.
- Sonidos descriptivos: aquellos que no representan a
ningún objeto de los que aparecen en la imagen, sino que son
abstracciones o idealizaciones de los sonidos supuestamente originales
(aquellos que podríamos escuchar). Podemos considerarlos como
sonidos metafóricos.
7. VOZ Y OÍDO
Está claro que el oído humano
está hecho para recibir voces humanas por encima de cualquier
otro sonido, si bien existen sonidos vitales distintos a los humanos
que es imprescindible conocer y percibir. Un hombre de hace 300.000
años necesitaba reconocer el paso de un conejo cuando le
oía. Era algo necesario para comer. Nosotros no, pero sí
podemos llegar a reconocer portazos o cristales rotos, por ejemplo. La
educación de la voz nos puede llegar a dar la posibilidad de
distinguir a diferentes personas según la fuerza con la que
pisan al andar. Unas personas pueden escuchar una pisada, otras pueden
reconocer una pisada masculina de un hombre con sobrepeso.
Una ventaja importante que tiene la
investigación de la voz humana dentro de los parámetros
de investigación del sonido es que ha sido muy estudiada gracias
al interés publicitario, con el que se ha llegado a muchas
conclusiones y descubrimientos fascinantes.
Los límites auditivos se encuentran entre los
60 hz y los 18.000 hz. Nosotros oímos en escala
logarítmica, y encontramos más diferencia tonal entre los
60 y los 80 hz que
entre los 10.000 y los 10.020. Por otro lado, la mencionada
educación del oído en nuestra sociedad ha impuesto a
nuestra educación inconsciente una limitación mayor:
entre los 80 y los 16.000. Esto significa que nosotros no oímos,
a no ser que tengamos nuestra escucha educada, una frecuencia mayor de
16.000, o que sí la oímos, pero no le prestamos
atención, como cuando descartamos el ruido de fondo de una zona
transitada. Una prueba fehaciente de esto es que los tubos de imagen de
televisores y monitores emiten constantemente un pitido a 16000 hz que
nosotros no escuchamos. Sin embargo sí podemos llegar a asociar
una sensación extraña en nuestro oído con la
presencia de una televisión encendida. El standard auditivo
comercial se encuentra en mayores franjas: 20 y 20.000. Estos son
también los límites que tienen nuestros altavoces comunes.
Como se ha adelantado antes, tendemos a fijarnos
más en una zona del espectro sonoro. Ésta se encuentra
alrededor de los 1.000 hz (entre los 300 y los 3000) y es precisamente
la frecuentada por la voz humana, que aunque tiene un timbre distinto
para cada individuo, es general en esa zona. Tampoco es casualidad que,
si hacemos una escala logarítmica entre 20 y 20.000 nos
encontremos con que 1.000 se encuentre en la mitad.
Los hombres y las mujeres tienen amplitudes de
voz ligeramente distintas, tanto denotativa como connotativamente. Esto
nos hace reconocer una voz masculina haciendo un falsete, por ejemplo.
El timbre masculino tiende a estar entre los 300 y los 2.000, el
femenino
entre los 500 y los 3.000.
Como ejemplo de connotación, vamos a utilizar
uno de los resultados que nos han proporcionado las investigaciones del
sector publicitario. En él se mantiene la teoría de que
la voz masculina tiene mayor poder de convicción que la
femenina, y
ésta tiene mayor capacidad de ensoñación.
Ésta
es la razón de que haya más locutores masculinos que
femeninos,
pero también es un motivo para que las mujeres tengan un espacio
determinado reservado dentro de la publicidad igualmente importante. Y
por
supuesto puede haber excepciones según los locutores.
Elías
Rodríguez (anuncios de estrenos de Disney) y Marta Angelat
(anuncio
de McDonald's en respuesta al conflicto de las vacas locas durante la
crisis
del sector) son dos ejemplos que contradicen esta regla.
Una cualidad interesante de la escucha humana es la
dificultad de separar sonidos integrados. Se ha demostrado que los
perros reconocen mucho mejor los sonidos, es más, si oyen un
coche,
pueden diseccionar todas las partes de su motor. Nosotros no podemos
hacer
eso a no ser que nos centremos en analizar sonidos concretos durante
tiempo prolongado, y con cada nuevo sonido hay que aprender de cero (no
es lo mismo el sonido de un coche que el de una orquesta). Este efecto
puede deberse a que nosotros asociamos el conjunto de sonidos
simultáneos de un coche a la imagen de un coche.
Otro aspecto muy interesante es el del timbre del
oído. Cada oído es distinto, una persona no oye lo mismo
que otra, escuchamos con diferentes matices. Algunas frecuencias tienen
más intensidad que otras, aunque ciertamente sí
percibimos de un modo muy similar. Esto puede llevar al fascinante
ejemplo de que un imitador resulte más creíble para unas
personas que para otras.
8. POSIBILIDADES
DE TRATAMIENTO DEL SONIDO
Antes de adentrarnos en las posibilidades que ofrece
el control de unas muestras de audio y su tratamiento expresivo, vamos
a tener en cuenta algunos recursos básicos que posibilitan el
tratamiento: El efecto de reverberación, los procesos
dinámicos y la ecualización.
El efecto de reverberación consiste en copiar
una muestra del espectro de sonido y repetirla. Existen varios
parámetros que se pueden cambiar, entre ellos el tiempo que
tarda en repetirse, el volumen que tiene la nueva repetición,
etc. Este es posiblemente el efecto más importante del procesado
de sonido. Es relativamente simple y rápido de tratar y
está muy estudiado. La reproducción electrónica
produce unos efectos similares a los de la naturaleza, en la que el
ejemplo más claro que se puede encontrar es el del eco: Decimos
algo en voz alta y se nos repite más bajo y con rasgos
ligeramente distintos hasta desaparecer. Existe otro parámetro
importante: La naturaleza de reflexión de sonido de la
superficie en que rebota. Pero pronto veremos más utilidades de
este efecto.
Algunos modos de transformar el timbre basadas en retardo:
- El efecto Flanger es un filtrado periódico (en forma de
peine) de una serie de frecuencias determinadas por el tiempo de
retardo, aunque explicarlo con palabras es poco efectivo. El origen del
Flanger
es mecánico: si al grabar una cinta en un magnetofón
presionamos con el dedo de vez en cuando y con fuerza variable la
bobina que entrega cinta originamos micro-frenazos que alteran la
señal original.
Si grabamos simultáneamente en 2 magnetofones, y en uno
aplicamos
el "flanging" manual mientras que en el otro no, generaremos el barrido
característico del efecto de flanger. El flanger proporciona
efectos
más llamativos cuanto más rico, armónicamente
hablando,
sea el sonido.
- Chorus se utiliza para engrosar la señal, o para simular
la existencia de varios instrumentos sonando al unísono. Se
simula la imperfección de un coro. En esta situación, un
intérprete puede atacar con cierto retraso y desafinar
ligeramente respecto a otro intérprete; eso es lo que se trata
de simular, de manera compacta. Su funcionamiento es similar al del
flanger (sólo que la señal que sale se filtra y se
realimenta).
Las transformaciones de dinámica se refieren al control del
volumen y a la relación de volumen entre la señal y el
ruido. Esto supone no simplemente oír con más o menos
intensidad, sino que ofrece numerosas posibilidades:
- Los denominados compresores dotan de intensidad a las
frecuencias de menor volumen y restan a las de mayor volumen. Esto
produce más fuerza a la hora de trasmitir susurros, por ejemplo,
y hacen que el volumen total sea uniforme.
- Las puertas de ruido eliminan las muestras de audio de menor
intensidad. Estos filtros sirven para eliminar los sonidos indeseables
a partir un umbral mínimo de ruido y resultan especialmente
útiles.
- Los limitadores consisten en que la intensidad del sonido no
suba de las cotas fijadas para que no se oigan muestras más
altas de lo deseable. También tiene mucha utilidad.
- La normalización consiste en limitar la señal de
audio y hacer que el resto del espectro se adapte a este límite.
Si se pone un límite por arriba, todo el sonido se
ajustará proporcionalmente. Se utiliza para que una obra
prolongada o una emisión mantenga la misma intensidad
constantemente.
- Los extensores realizan la función contraria a los
compresores: bajan las frecuencias bajas y suben las altas.
La ecualización consiste en modificar alterar
la señal mediante tres parámetros: Se elige la frecuencia
que se va a alterar, se elige la anchura de banda por encima y por
debajo de esa frecuencia y se decide cuánto se amplifica o
atenúa. El efecto resulta en un realzado de unas partes de una
obra. Podemos cambiar una pieza musical grabada dando más fuerza
a los bajos y menos a los agudos sin alterar el volumen, porque lo
subimos en una parte y lo bajamos en otra.
En muchas mesas de mezclas analógicas de
sonido podemos encontrar una serie de filtros que tienen una
función similar a la ecualización:
- Pasa-banda: dejan intacta la señal que se halle en torno
a una determinada frecuencia central eliminando el resto. Sirve para
elminar fragmentos pequeños de ruido.
- Pasa-bajos: dejan intacta la señal que exista por debajo
de una determinada frecuencia de corte eliminando el resto. Sirve para
eliminar agudos.
- Pasa-altos: dejan intacta la señal que exista por encima
de una determinada frecuencia de corte (por ejemplo, el filtro de
80/100 Hz que habitualmente llevan las mesas de mezcla) eliminando el
resto. Sirve para eliminar tonos graves.
- Filtros de rechazo de banda o notch: eliminan la señal
que se halle en torno a una determinada frecuencia central. Sirve para
aislar un sonido concreto.
- Filtros en escalón o shelving: atenúan o
amplifican la señal a partir de una determinada frecuencia de
corte, pero sin ser tan abruptos como los pasa-altos y pasa-bajos (los
controles de graves y agudos de los amplificadores domésticos y
algunas secciones de los ecualizadores de las mesas de mezclas suelen
ser de este tipo).
La mayoría de filtros analógicos
o digitales adicionales a los anteriores consisten en combinaciones
más o menos complicadas de los mismos.
9.
UTILIDAD DEL TRATAMIENTO DEL SONIDO
Ya que nuestra mayor nitidez se encuentra en la
franja en que percibimos las voces, hay que tener especial cuidado al
tratarlas. Muchas formas de tratamiento y grabación pierden
calidad y se hacen notar en este margen. Por lo tanto hay que tratar de
mantener su calidad e incluso mejorarla.
En el mundo del sonido existen equivalentes a los
encuadres visuales. El concepto de planos sonoros se refiere a las
relaciones existentes entre las diversas fuentes que coexisten en una
banda sonora, es decir, las diferentes voces, la música y los
efectos.
Hay cuatro tipos de planos básicos:
- El narrador: Son las voces en off que buscan
cercanía al espectador. Se utiliza mucho el efecto de
compresión y se le dota de más intensidad que al resto.
La sensación resultante consiste en que sentimos que quien nos
habla se encuentra cerca. Ésta es la función principal de
los compresores mencionados antes: Cuando oímos más altas
las frecuencias de poca intensidad, nos invade la sensación de
que nos hablan muy de cerca. Las voces susurrantes salen muy reforzadas
con este sistema. El locutor y actor de doblaje que más la
utiliza en España es sin duda Salvador Vidal.
- El primer plano: Cuando vemos a alguien en pantalla
y debe ser el centro de atención también debe tratarse
con
fuerza su muestra de audio. Es la voz del protagonista manteniendo una
conversación. El mezclador debe tener cuidado de que sea a
él a quien se oiga principalmente, aunque haya otros sonidos de
fondo. Por supuesto, también la música puede estar en
primer plano.
- El segundo plano: Es un concepto difícil de
explicar. No es lo que llama la atención pero se oye. Puede ser
una conversación en secundaria a la que no prestamos
atención (o no debemos). Gosford Park muestra numerosos
ejemplos. Otro caso interesante ocurre Parque Jurásico, cuando
se visita la celda de los velocirraptores. Se utiliza como recurso
expresivo dando un segundo plano a los personajes que están en
primer plano y se va cediendo la atención a otros.
También sirve de ejemplo el sonido de un televisor que no es el
centro de atención. Literalmente, lo oímos en segundo
plano.
- El tercer plano: Consiste en el conjunto de sonidos
que no tiene una relevancia especial, el ejemplo más ilustrativo
es el de gente en un bar hablando sin que nos demos cuenta de
qué
dicen.
Hay otros aspectos que tienen que tenerse en cuenta.
Uno de ellos es la ambientación. Existen diferencias entre un
espacio abierto y un espacio cerrado tanto en el tratamiento de la
fotografía como en el del audio. Mientras, generalmente, la voz
en un espacio abierto suena natural, en un espacio cerrado suena
reverberada dependiendo de los materiales y la arquitectura del
entorno. Existen diferentes modelos de reverberación para cada
situación. Incluso los hay prefijados para habitaciones, grandes
salones, etc.
Otras situaciones en las que el efecto de
reverberación se utiliza es para dotar de importancia a un
personaje. Dios, como personaje en obras audiovisuales, ha tenido
reverberación casi siempre que se ha representado en el cine.
Incluso es digno de tener en cuenta el caso de El Show de Truman: Ed
Harris (tanto en versión original como aquí, doblado por
Salvador Vidal) susurra al final de la película a Truman. La
reverberación con que le oye Jim Carrey es inmensa, y se ve
un plano del cielo gigantesco, ante las palabras "soy el creador".
Luego
oímos la continuación de la frase "...del programa de
televisión que llena de esperanza y felicidad a millones de
personas". Esta parte
es más digna de un dios paródico, y la
reverberación desaparece, porque vemos a Ed Harris hablando por
un micrófono.
Un problema que no se puede solucionar es deshacer
este efecto. Si se graba con un chromakey simulando un espacio abierto,
hay que tener mucho cuidado de no dejar que se grabe la
reverberación de la sala azul, porque actualmente es imposible
de deshacer.
También hay casos en los que las convenciones
han dejado atrás el realismo. En las telecomedias no hay
reverberación, porque originalmente se graban ante el
público. Se ha comprobado en un anuncio de Páginas
Amarillas que el efecto no es adecuado. El intento de simular una
sitcom americana se desvanece por culpa del tratamiento del sonido en
esta campaña.
La ecualización se utiliza mucho para restar
calidad. Esto es un recurso expresivo también importante en
algunos casos: Mediante esta técnica se simulan llamadas
telefónicas, voces en la radio, etc. No sólo tiene esta
función expresiva, también tiene una función
correctiva, porque ayuda a disminuir partes no deseables. Pero lo
interesante es tratar la música con este sistema. Si se realza
una parte de alta frecuencia del espectro, se da más brillo, si
se realzan los bajos, quedan tonos más sombríos.
Nótese una vez más que se utilizan expresiones
típicas de las imágenes visuales.
Para las voces también se aprovecha este
sistema, realzando graves en los hombres, agudos en las mujeres y los
niños o cualquier aspecto que los realizadores pretendan
manipular, por ejemplo, si queremos que una persona se oiga en un
segundo plano a través de una pared con suficiente calidad pero
con algo de dificultad para que se le entienda.
Otro asunto digno de mención es la forma de solapar
música con voz. Para que la música no impida escuchar un
diálogo se limita el volumen, se normaliza y luego se ecualiza
reduciendo su fuerza en la zona de los 1.000 hz. El resultado es que
las voces se entienden mejor, porque el oyente no tiene
obstáculos que impidan reconocer bien
la parte que capta nítida en el espectro, mientras que de fondo,
nunca mejor dicho, se escucha la composición musical.
10. RUIDO Y SILENCIO
El ruido es uno de los pocos conceptos del mundo de
la imagen que inmediatamente recuerdan al aspecto sonoro más
que al visual.
En la Teoría de la Comunicación se
considera ruido al exceso de información o a la
información no deseada. Esta definición es perfectamente
aplicable al sonido. La forma en que el ruido se plasma en el audio es
en ondas de sonido adicionales que dificultan o molestan en mensaje.
Existen varios tipos de ruido: El ruido
electrónico, el ruido de cinta y el ruido de fondo.
El ruido electrónico es el que se genera
durante el procesado electrónico en los sistemas de tratamiento
de sonido. Generalmente los aparatos están preparados para
producir el menor ruido posible, y en el mundo del tratamiento digital
el ruido tiende
a ser mínimo.
No es así en los grabadores de cinta. En este
grupo se incluye todo tipo de ruidos producidos por la
grabación, el propio motor de la grabadora, etc. Además
pertenecen a él los ruidos inseparables de una película,
como ocurre con las viejas películas deterioradas.
Ya hemos visto que existen métodos para
eliminar este ruido, la puerta de ruido tiende a ser eficaz,
además
se puede registrar un ruido concreto en un momento de silencio de la
cinta
y casi extirparlo del resto mediante la inversión de fase. Se
sabe
que una muestra de audio que se solapa con una versión invertida
de sí misma se anula igual que si ponemos un negativo de un
fotolito con la misma imagen. Si lo que se hace es coger una muestra de
supuesto silencio con ruido y restarlo de todo un fragmento de audio
posterior con voces y música, el ruido desaparece con relativa
facilidad. Resulta impresionante usar este recurso para eliminar todo
tipo de voces o sonidos que no interesan. Y cada día se
investiga más este apartado el mundo del filtrado. Pero hay que
tener en cuenta que este ruido puede ser demasiado parecido a
algún sonido que nos interesa. El sonido /s/ entra generalmente
en conflicto con los filtrados de audio.
De cualquier manera, el ruido de fondo es habitual y
característico en las películas. No es lo mismo grabar
un momento de silencio en un parque que en un sótano. Es
más, si eliminamos ese ruido, el resultado es irreal. Debe haber
un ruido a
no ser que se pretendan dar unas circunstancias concretas.
El silencio podemos entenderlo como un tipo de
sonido especial. Su uso dosificado puede generar expectación, o
un gran impacto emotivo cuando el desarrollo lógico de la escena
hace esperar un sonido fuerte.
Un tratamiento objetivo del silencio es la ausencia
real de sonido en la narración cuando no hay imagen que
justifique un ruido.
El tratamiento subjetivo es utilizar el silencio
para crear un ambiente emocional concreto. Además de generar
expectación o de contrastar escenas o mensajes visuales puede
llegar a comunicar situaciones de desolación, muerte, emociones
desagradables... pero también tranquilidad o distanciamiento.
Matrix es una de las pocas películas que se
han hecho con fragmentos sin absolutamente nada de ruido. La sala
blanca completamente vacía donde se encuentran los dos
protagonistas pretende resultar falsa, increíble, y lo consigue
mediante diálogos completamente limpios de ruido y silencios
absolutos.
En otros casos resulta interesante la necesidad de
buscar un ruido de fondo para dar más credibilidad. Esto ocurre
con la restauración de los clásicos y en ocasiones, con
nuevos doblajes que se hacen de ellos. Si la música contiene un
ruido concreto, debe tenerse cuidado de que las nuevas voces no
contrasten
con ellas, y debe añadirse un ruido que no se sume al original
pero
que tenga el suficiente nivel para ser reconocido.
11. FUTURO
Actualmente se está trabajando en muchas
posibilidades que algún día verán la luz (u
oirán el sonido) en la grabación, producción, y
reproducción con posibilidades fascinantes. Los límites
que se tienen ahora están
desapareciendo porque se centran en campos como la velocidad de
transmisión
de datos, que progresan a pasos agigantados.
Ya es posible crear voces virtuales y alterar las
existentes, pero sólo son experimentos de laboratorio con muy
poca salida comercial, de momento. Warner Bros trató hace
años de reproducir la voz del desaparecido Mel Blanc (actor que
dio voz a todo el elenco animado de la compañía) para un
especial de los Loney Tunes y lo consiguió, utilizando a un
actor distinto y tras una enorme inversión. George Lucas
trató que el La Amenaza Fantasma tuviese un doblaje
automático para cada idioma utilizando los registros de sus
actores originales, pero desechó la idea porque los resultados
quedaban demasiado planos y sin vida.
En el mundo del audio digital hay un dogma: Todo es
matemáticamente posible.Dentro de unos años veremos un
nuevo mundo de posibilidades creativas:
- Síntesis de voz partiendo de cero
- Variación del timbre de voz de una grabación
- Sonido real en tres dimensiones
- Posibilidad de rejuvenecer y envejecer voces
- Emisiones de radio digital en Surround
- Música sintética en Surround.
- Estándares de grabación de DVDs audio en 5:1
con cotas de calidad y capacidades nunca vistas.
Pero quizás lo más fascinante es
que la otra gran máxima del mundo del sonido es que va 10
años por delante del vídeo. ¿Quiere decir esto
que, si hoy podemos reproducir la voz de Humphrey Bogart, dentro de 10
años podremos reproducir su rostro? Sin duda, sí.
Bibliografía:
SONIDO PROFESIONAL, CLEMENTE TRIBALDOS, EDIT PARANINFO 1993
SONORIZACION DE PELICULAS, LB NERONSKY, ED BOIXAREU 1975
ECNICA DE SONIDO CINEMATOGRAFICO, RAMON ROSELLO, EDITORIAL FORJA 1981
EL SONIDO, JJ MATRAS, ED ATENEO 1979
REFUERZO DE SONIDO, MICHAEL ROBERTS, ED PARANINFO 1997
AUDIO PROFESIONAL, GUY MALGORN, ED PARANINFO 1998
Técnicos consultados:
ANDRÉS F. AGUERRI
EDUARDO GUTIÉRREZ ROJAS
PEDRO GLEZ. DEL VALLE
JUAN CÓRCOLES
JUAN ANTONIO IBÁÑEZ
SERGIO P. FIGUEROLA
Páginas web visitadas:
http://www.galeon.com/audiosonido/audiosonidoh.html
http://www.audiotest.org/
http://filmsound.studienet.org/
http://filmsound.studienet.org/
http://www.free-n-cool.com/freecsnd.html/
http://personal.redestb.es/azpiroz/
http://www.eldoblaje.com/