Produccion Musical

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 37

LA POSTPRODUCCIÓN DE AUDIO EN CINE DE ANIMACIÓN:

BREVE ESTUDIO DE LA PELÍCULA WALL-E

REALIZADO POR: MITCHELL KENNEY SIMÓ

TUTORA: MARÍA ÁNGELES MARTÍNEZ GARCÍA

GRADO DE COMUNICACIÓN AUDIOVISUAL

CURSO 2017-2018

JUNIO 2018
ÍNDICE.

1. Introducción y planteamiento de trabajo……………………………………………………....3

2. Síntesis del cine de animación…………………………………………………………………4

3. Introducción a la postproducción de audio en cine……………………………………………6

4. El proceso de postproducción de audio en cine de animación…………………………………8

4.1. Recepción y análisis del proyecto cinematográfico…………………………………9

4.2. Selección y procedimiento para incluir voces a los personajes animados…………10

4.3. Procedimiento del diseño sonoro……………………………………………………13

4.3.1. Foley………………………………………………………………………14

4.3.2. Librerías de sonidos……………………………………………………….17

4.3.3. Herramientas del diseño sonoro…………………………………………...18

4.3.3.1. Pro Tools………………………………………………………….18

4.3.3.2. Ecualizador, reverb, sintetizador y otros………………………….19

4.4. Proceso de mezcla de diálogos, efectos de sonidos y música……………………….23

4.5. Proceso del dubbing y mastering……………………………………………………25

5. La postproducción de audio en la película WALL-E…………………………………………27

5.1. Introducción a WALL-E……………………………………………………………27

5.2. Departamento de sonido……………………………………………………………28

5.3. Diseño sonoro………………………………………………………………………29

6. Conclusión……………………………………………………………………………………32

7. Referencias Bibliográficas. …………………………………………………………………..33


3

1. Introducción y planteamiento de trabajo.


En este trabajo abarcaremos los procesos que se desarrollan en la postproducción de
audio para cine animado. Hablaremos brevemente sobre los orígenes del cine de animación,
algunos de los personajes y obras que más influyeron y de varios cambios que ha habido
tecnológicamente a lo largo de la historia dentro de la industria. Mencionaremos concisamente
los antecedentes de la postproducción de audio. Utilizaremos el cine animado para explicar las
fases que existen dentro de la postproducción de audio, desde el principio de un proyecto hasta el
final, así como los efectos de sonidos, el diseño sonoro, los procesos de mezcla o las
herramientas que se utilizan. Indagaremos también sobre la película animada Wall-E, producida
por Walt Disney Pictures y Pixar Animation Studios en 2008, así como el diseño sonoro y su
trascendencia. Planteamos que Wall-E es un buen ejemplo de la postproducción de audio ya que
tiene un papel importante en la película y su diseño sonoro es muy particular, por lo que llegará
a ser interesante analizarlo.

1.1. Metodología.

Este trabajo se investigará a través de las múltiples fuentes que existen como libros, prensa,
artículos de investigación, documentales o plataformas de información en internet. Se utilizarán
fuentes de lo más fiable para investigar sobre este tema. En primer lugar buscaremos si hay
información valiosa en libros de autores que hayan tratado sobre esta cuestión, para esto,
usaremos principalmente la biblioteca de la Universidad de Sevilla y de la Universidad del Norte
de Texas, en segundo lugar, buscaremos artículos de investigación o documentales de relevancia
y en tercero, plataformas de información como blogs, Youtube, etc. Para el apartado donde
estudiamos Wall-E, veremos la película y se hará un análisis del sonido para así llevar a cabo la
tarea correctamente.

1.2. Objetivo.

La finalidad de este trabajo es proporcionar una información fiable, que el lector llegue a
entender los procedimientos que existen de una manera detallada a la hora de crear sonido para
un proyecto cinematográfico de animación y que llegue a apreciarlo con mayor profundidad.
4

2. Síntesis del cine de animación.

Para comenzar, en este apartado seguiremos principalmente a los autores Jaume Durán y
Michael Barrier como referencia. ''Podemos entender que el cine animado es el procedimiento de
grabación de imagen por imagen cuyo objetivo es dar movimiento a cualquier cosa inanimada,
ya sean dibujos, muñecos articulados o gráficos hechos por ordenador en dos dimensiones o en
tres dimensiones'' (Durán, 2016, pp. 11-12). Los orígenes de la animación en el sentido más
teórico puede remontarse al siglo XVII con el tratado de óptica Oculus artificialis teledioptricus
sive telescopium por Johann Zahn o en el siglo XIX con el fenaquitoscopio1 de Joseph Plateau,
pero realmente, la primera proyección de dibujos animados en la historia fue llevada a cabo por
Émile Reynaud a finales del siglo XIX con las Pantomimes Lumineuses, que fueron unas
imágenes pintadas a mano sobre centenares de placas unidas por una tela perforada que se
enrollaban en unas bobinas movidas manualmente. A partir de la aparición del cinematógrafo y
del cinetoscopio2 , los pioneros del cine de animación que hoy en día conocemos fueron James S.
Blackton, Émile Cohl y Winsor McCay (Durán, 2016). En 1906, James S. Blackton creó lo que
se considera la primera película de animación titulada Humorous phases of funny faces y utilizó
la cinta fotográfica o filme en vez de las bandas dibujadas de Émile Cohl. En esta obra se
llegaban a ver las manos del dibujante trabajando en los dibujos y todo sucedía progresivamente.
Más adelante, Max Fleischer creó el rotoscopio en 1915 que se basaba en proyectar sobre una
mesa transparente las imágenes de una película de imagen real para que así el animador pudiese
calcar y transformar a cualquier personaje real en un dibujo animado. A finales de la década de
los 20 y principio de los 30 se introdujo el cine sonoro y en consecuencia se produjeron obras
animadas que fueron trascendentales como Talkartoon, Popeye, Dizzy Dishes o Minnie the
Moocher. Por otra parte, uno de los personajes más importes fue Walt Disney, que en 1923
fundó la Walt Disney Productions o Disney Brothers Studio en Hollywood, la cual llegó a ser
uno de los grandes estudios que mejoró y definió la industria del cine animado (Barrier, 1999).
Fue un visionario en todos los sentidos a la hora de creación e innovación ya que por ejemplo
vio que podía también marcar la diferencia con las nuevas tecnologías en sonido y en la música,
llegando a ser de los más avanzados en ese ámbito en la década de los 30. Por otro lado, con el
desarrollo de la imagen en color, Disney comenzó a usar nuevas técnicas en Flower and Trees
(1932) y en Three Little Pigs (1933). Walter Disney sentó los precedentes del
1.Fenaquitoscopio: Aparato que provoca una ilusión de movimiento a través de una serie circular de dibujos
insertos en un disco rotatorio.
2.Cinetoscopio: Aparato que accionado a mano o mediante un motor eléctrico permitía ver a través de un ocular las
películas filmadas.
5

cine animado ya que él y su estudio crearon probablemente


los dibujos animados más famosos que pasarían a la historia
y que hoy en día se sigue haciendo como Alice's Wonderland
(1923), Oswald the Lucky Rabbit (1927), Mickey Mouse
(1928) o Snow White and the Seven Dwarfs (1937) hasta
Figura 1. Alice's Wonderland de Walt Mary Poppins (1964), The Lion King (1994) o Wall-E
Disney. Extraído del libro Hollywood
Cartoons: American animations in its (2008) por poner algunos ejemplos (Zeke, 2015). Como
golden age de M. Barrier.
hemos visto, algunos de los personajes históricos más
importantes del arte de la animación surgieron a principios del siglo XX pero según M. Barrier
(1999) la edad dorada del cine animado fue entre la década de los 30 y de los 40 las cuales
fueron dominadas principalmente por Disney Studios. Después de la muerte de Disney hubo una
cierta decadencia, aunque, más adelante, la tecnología cambiaba y desarrollaba mejoras
rápidamente por lo que la industria tenía que adaptarse y en el caso de la animación, la aparición
de la computadora en la década de los 60 y 70 cambió por completo la industria, ya que los
estudios de animación como Disney, Warner Bros., o Universal Pictures estaban abiertos a
nuevos desarrollos (Odessa Animation Studio, s.f.). A finales de los 70, el instituto tecnológico
de Nueva York comenzó a trabajar con animación en tres dimensiones pero no fue hasta 1995
cuando se presentó el primer largometraje animado, creado enteramente desde el ordenador y
con efectos digitales por parte de Disney y Pixar, Toy Story. A partir de ahí, sólo ocurrieron
adelantos como la animación facial, los entornos orgánicos, la simulación de elementos naturales
hasta llegar a la captura de movimiento de hoy en día a través de actores profesionales. Para
concluir, podemos decir que el cine de animación ha tenido grandes cambios tecnológicos que
han determinado el arte de animar y que ha sido y sigue siendo unos de los pilares de la industria
cinematográfica. Personajes históricos como James S. Blackton, Max Fleischer, o Walt Disney
pusieron más fácil el desarrollo de los procedimientos para animar dibujos, también se puede
decir que contribuyeron a la utilización de los ordenadores como herramientas para realizar y
mejorar la animación y así cambiar el transcurso del cine animado. Por último, añadir que desde
hace poco, la industria animada lleva años enfocada en el fotorrealismo, la definición de los
gestos y facciones, el número de elementos animados que pueden transcurrir simultáneamente en
la pantalla, la captura de movimiento y en el desarrollo de ordenadores de altísima potencia
(Peco, 2015).
6

3. Introducción a la postproducción de audio en cine.

''Entendemos por postproducción de audio el proceso que se encarga principalmente de


editar, mezclar y masterizar diálogos, música y efectos de sonidos grabados en un estudio, en el
rodaje o de librerías para completar la banda sonora de un proyecto cinematográfico'' (Wyatt y
Amyes, 2004, pp. 3). Los objetivos de esta fase son mejorar la coherencia que existe entre los
diálogos, los efectos de sonidos y la música, añadir exaltación en los momentos en los que la
imagen y la historia lo pida, completar la ilusión y perspectiva de la realidad a través del uso de
los efectos de sonidos, crear la sensación de profundidad espacial colocando los elementos
sonoros con un sonido envolvente, arreglar los archivos de audio quitando así ruidos y
frecuencias molestas y adecuar la banda sonora para una reproducción óptima en cine y
televisión (Wyatt y Amyes, 2004). Para entender mejor los procesos de postproducción de audio
en cine actual comentaremos brevemente los antecedentes. Para empezar, el tratamiento del
sonido después del rodaje y etalonaje no se llegó a llevar a cabo hasta la aparición del sonido en
cine y eso no fue hasta 1927 con la película The Jazz Singer, que usaban un gramófono para
reproducir lo grabado en sincronización con la imagen
proyectada.

En 1930 ya se desarrollaron sistemas de edición que


podían manejar múltiples pistas de audio en
sincronización con la imagen usando unas ruedas de
piñón trabado en un eje de transmisión como se observa Figura 2. Representación gráfica de un
sincronizador cinematográfico utilizado para
en la figura 2. A finales de esta década se habían pulido colocar pistas de audio e imagen. Extraído
las técnicas fundamentales para realizar una banda de Audio Post Production for Television and
Film: an introduction to technology and
sonora con un sonido decente utilizando ecualizadores techniques de H. Wyatt y T. Amyes.

estandarizados por la industria y también se empezó a utilizar la estereofonía3. En 1940, la


película de Walt Disney Fantasía fue una de las primeras en usar un formato de seis canales de
audio, es decir, sonido que sale de los altavoces izquierdo, derecho, central de delante e
izquierdo, derecho y central de detrás pero no hasta 1975 se introdujo el Dolby Stereo (izquierda,
centro, derecha, subwoofer4 y surround5)

3.Estereofonía: Técnica de grabación y de reproducción sonora mediante dos canales de sonido que permite
distinguir la localización espacial de las distintas fuentes de sonido originales.
4.Subwoofer: Altavoz específico que reproduce frecuencias sub-graves (20 hercios a 200 hercios).
5.Surround : Técnica sonora que se caracteriza por utilizar múltiples altavoces alrededor de una habitación para
conseguir una sensación envolvente.
7

para reemplazar el formato


monofónico.

Por otro lado, la entrada al audio


digital en los 60 y 70 cambió la
forma de trabajar y también la
Figura 3. Gráfico que explica el sistema de Dolby Stereo. Extraído de tecnología ya que se empezaron a
Audio Post Production for Television and Film: an introduction to
technology and techniques de H. Wyatt y T. Amyes. desarrollar cintas de grabación
digitales aunque fue en los 80 cuando Philips/Sony introdujeron el Disco Compacto que tenía
codificado digitalmente el audio a 16 bit y 44.1Khz, es decir 16 bits6 por muestra registrada y
una frecuencia de muestreo7 de 44100 hercios. A partir de esto se empezó a sustituir los equipos
análogos por equipos digitales. A mediados de los 80 una persona cualificada para mezclar podía
ya unir múltiples pistas de audio de forma automática y no manualmente usando una estación de
trabajo de audio digital o digital audio workstation (DAW). Los DAW fueron uno de los
elementos que revolucionaron la tecnología dentro del proceso de audio postproducción para
cine y música ya que aceleraron mucho el proceso de grabación y edición siendo posible
reproducir simultáneamente varias pistas. Estos DAW comenzaron a desarrollarse y a incluir
herramientas en forma de software para modificar detalladamente el sonido como ecualizadores,
compresores8, efectos y así hasta ir poco a poco sustituyendo algunas de las herramientas
análogas. Hoy en día, hay un gran debate entre la utilización de equipos análogos y equipos
digitales ya que muchos ingenieros siguen optando por lo análogo (Cross, 2013). A partir de los
90, la edición digital fue aceptada universalmente y la industria del cine y de la televisión
pasaron rápidamente a los formatos digitales para acelerar los procesos y tener mayor
flexibilidad para el almacenamiento. La postproducción de audio se hizo cada vez más
importante debido a los desarrollos tecnológicos en los campos de sonorización de las salas de
cine y de los equipos que la gente podía tener en casa, esto hacía que se invirtiese más tiempo y
dinero para obtener mejores resultados llegando a ser uno de los procesos con mayor
cualificación. A continuación, seguiremos comentando más detalladamente los procesos de la
postproducción actual centrados en cine de animación.

6.Bit o Bit Depth: Nos referimos al número de variaciones que existen en la amplitud de onda, por lo que a mayor
número de bits mayor rango dinámico.
7.Frecuencia de muestreo: Nos referimos a la cantidad de muestras por segundo, es decir, si trabajamos con 44100
Khz decimos que hay 44100 muestras por segundo.
8.Compresor de sonido: Es una herramienta que equilibra el rango dinámico o volumen de la señal haciendo que
las zonas con menor volumen se equilibren con las de mayor.
8

4. El proceso de postproducción de audio en el cine de animación.

El flujo de trabajo en la postproducción de cine puede variar dependiendo del estudio, los
ingenieros de sonidos, mezcladores de re-grabación o de los plazos de entrega, pero la gran
mayoría siguen un proceso determinado (Cross, 2013).Antes de que el estudio o los editores de
sonido empiecen a trabajar, la productora de la película tiene que proporcionar la edición final de
la película, la cual, va dividida en bobinas. Estas bobinas son básicamente fragmentos de la
película para que así los editores puedan trabajar con mayor comodidad y fluidez. El número de
bobinas pueden depender de muchos factores sobre todo de la duración del largometraje pero
normalmente suelen ser entre tres y cuatro bobinas. Una vez que la película esté finalizada desde
el aspecto de la edición, el estudio se pone en marcha para crear toda la banda sonora. En cine de
animación, lo que difiere en el proceso de postproducción de sonido con respecto al cine
convencional es que el estudio de sonido tiene que recrear todo desde cero, en cambio, en el cine
no animado, se trabaja con sonido grabado en directo. Los fragmentos de la película en cine
convencional vienen siempre con un sonido de referencia, es decir, con diálogos y algunos
efectos de sonido pero sobre todo diálogo, en
cambio, en cine de animación, no suele haber
nada de sonido ni diálogos ya que se deberán
grabar también. Todos los vídeos tienen que ir
con un beep de sincronización, es decir, un
sonido que produce 1000 hercios o 1khz. El
Figura 4. Gráfico que explica el flujo de trabajo básico beep se coloca siempre dos segundos antes de
en la postproducción de audio. Extraído de Audio Post
Production for Television and Film: an introduction to que empiece la película, por ejemplo, en cine
technology and techniques de H. Wyatt y T. Amyes.
normalmente el archivo de video en un DAW
comenzaría en el código de tiempo estandarizado por el SMPTE (Society of Motion Picture and
Television) 01:00:00:00, por lo que el beep iría en el código de tiempo 00:59:58:00 (Rees, 2001).
El código de tiempo de SMPTE está compuesto por hora, minuto, segundo y frame. El comienzo
de la película en el DAW puede variar según el editor pero siempre tienen que llevar el llamado
''2-beep'' para que todo el sonido siempre vaya en sincronización con la imagen a pesar de
modificaciones en la banda sonora. Hay que añadir que el DAW estandarizado en la industria del
cine y del video es el Pro Tools de la compañía Avid, el cual, hablaremos más detalladamente en
9

otro apartado. Otras cuestiones muy presentes en todo el trámite son los plazos de entrega que
dependiendo del proyecto el estudio tardará más o menos pero por lo general hablamos de meses
de trabajo aunque hay proyectos que solo tienen un mes o incluso menos. Puede haber casos en
los que los montadores de la película cambien duraciones de planos o otros elementos pero hay
que decir que suele ser importuno para el estudio. En la figura 4 podemos ver lo que sería el
proceso básico total, desde que las bobinas entran en el estudio hasta llevarlas a masterizar y
posteriormente a distribución. Este gráfico no muestra los procedimientos dentro de la edición de
sonido en el estudio que son claves para que se lleve a cabo el trabajo por lo que a continuación
comentaremos más detalladamente todos los pasos que sigue un estudio cuando recibe un
proyecto y comenzaremos con la recepción y análisis del proyecto.

4.1. Recepción y análisis del proyecto cinematográfico.

Cuando el estudio de postproducción de audio recibe el proyecto cinematográfico lo más


común es que se reúnan el director/a y el productor/a de la película con el jefe de postproducción
de audio. A parte de concretar el presupuesto, ellos comentarán la sonoridad que quieren para la
película, detalles y momentos claves del largometraje. También existe la posibilidad de que
manden unas notas de audio, que son básicamente apuntes de lo que se quiere conseguir en la
sonoridad de la banda sonora en general. Primero, antes de leer las notas de audio o de escuchar
objetivos personales, se visiona el largometraje y una vez visto se empieza a analizar. El análisis
conlleva un tiempo para que todos los elementos requeridos por parte del director/a y del
productor/a estén presentes y además para que no falte ningún elemento sonoro necesario. Una
vez analizado, en cine, el elemento sonoro más importante es la voz humana pero más
importante si cabe en cine de animación ya que se seleccionan cuidadosamente las voces
(Skweres, 2006). Dentro del análisis, también llamado spotting, se encuentra la identificación de
elementos que hay en el largometraje que deben ser sonorizados y dentro de estos elementos se
debe identificar qué elementos serán grabados, diseñados o serán seleccionados de librerías de
sonidos (Cross, 2013). Volviendo a las notas de audio, suelen ser de secuencias detallando en las
escenas qué elementos sonoros son los que se quiere enfatizar o si en algún momento se debe
añadir un aspecto creativo. El spotting9 es un aspecto crucial para el éxito del proyecto, tanto
que, cada vez en cuando hay un visionado con el director/a, productores y montadores para ver si
falta algo y si va en el camino adecuado.

9. Spotting: Este término también lo utilizan los compositores de música para ver donde incluir música y donde no.
También se utiliza en el Additional Dialogue Replacement.
10

4.2. Selección y procedimiento para incluir voces a personajes animados.

Los actores y actrices de voz han sido fundamentales desde el comienzo del cine sonoro y
mucho más en cine de animación (Viñas, 2017). En 1906 el inventor canadiense Reginald
Fessenden transmitió por primera vez con voz en off10 el tiempo, aún así, esto no estaba dirigido
a proyectos cinematográficos por lo que Walt Disney en 1928 se convirtió en el primer actor de
voz en la historia del cine de animación en Mickey Mouse poniendo su voz al personaje Mickey
(James, 2015). A pesar del ser el primero no fue el más destacado ya que lo fue Mel Blanc
apareciendo por primera vez como actor de voz en la exitosa serie Looney Toons (1930) de
Warner Bros. (James, 2015). Puso voz a personajes como Bugs Bunny, Tweetie Pie, Porky Pig y
otros personajes animados clásicos de Warner Bros. consiguiendo hacer más de 400 voces y
obteniendo el apodo de ''El hombre de las mil voces'', siendo incluso en la actualidad una
referencia para futuros actores y actrices de voz (James, 2015). Ha habido muchos otros actores
y actrices de voz que han destacado y sido referencias para nuevas generaciones en el cine
animado como Clarence Nash o Angela Lansbury (James, 2015). Hay que decir que estos actores
eran seleccionados por una razón diferente a la razón de hoy en día ya que actualmente actores y
actrices muy renombrados que salen en pantalla son también en múltiples ocasiones de voz
(James, 2015). Antiguamente, en la industria había una división entre los actores que salían en
pantalla y los actores de voz, es decir, los que salían en pantalla no tomaban el trabajo de los que
grababan voces para personajes animados (James, 2015). Esto se debe en parte por las nuevas
estrategias de marketing que la industria ha llevado a cabo, las cuales, se dirigen al espectador y
no a la calidad en sí de la obra, consiguiendo así,
atraer a un mayor público a través de la fama y la
familiaridad de los actores y actrices de gran
renombre (Meslow, 2011). Ésta tendencia empezó a
surgir después del éxito de la película Aladdín (1992)
de Disney que debido a la gran actuación de Robin
Figura 5. Robin Williams grabando la voz del
Williams poniendo voz al genio hizo que los genio de Aladdín. Extraído del artículo escrito
por Jade, Theatrical History: How the voice over
productores empezasen a optar cada vez más por genre evolved.
actores y actrices famosos con cualidades para hacer las voces de personajes animados (Meslow,
2011). Actualmente el procedimiento para seleccionar las voces para personajes animados varía
dependiendo del proyecto pero sí existen pautas comunes. Por una parte, los
10. Voz en off: Se trata de una técnica de producción en la cual una persona transmite información a través de su
voz pero sin aparecer delante de la cámara habiendose grabado en un estudio.
11

creadores de la obra y los guionistas tienen que establecer muy detalladamente todos los aspectos
del personaje desde lo físico hasta la personalidad. A continuación se hace un casting en donde
se pide un perfil determinado con respecto a la personalidad y físico, aunque muchas veces se
dan casos en donde los actores o actrices no tienen relación alguna con el perfil del personaje
pero sí funcionan con su voz (Viñas, 2017). Por lo general, lo que importa a la hora de
seleccionar un actor o una actriz de voz es la interpretación y no tanto la sonoridad de la voz
aunque siempre hay proyectos en donde les interese más la sonoridad que la interpretación
(Viñas, 2017). Los casting pueden llevar tiempo y mucha dedicación por lo que se suele hoy en
día hacer un casting online, es decir, que los participantes manden una demostración para así
preseleccionarlos y después llevarlos al estudio de grabación para hacer una prueba final. Los
actores tienen que dar las voces con un carácter y un registro que funcione con la personalidad
del personaje y que tenga el objetivo sonoro de la historia. Una vez elegido las voces para todos
los personajes empiezan las sesiones de grabación o convocatorias, hay que añadir que puede
haber casos en donde no haya muchos actores o actrices de voz ya que es posible que un actor o
actriz sea capaz de hacer varios personajes. En las sesiones suelen estar el director/a del
proyecto, el supervisor de sonido, un técnico de sonido, un director/a de casting o director/a de
doblaje y asistentes. Cada persona en la sesión tiene un papel que tiene que llevar a cabo. El
director/a del proyecto se encarga de que las voces suenen exactamente como él o ella quiera, el
técnico de sonido es el que graba las voces y está pendiente de que tenga una calidad de audio
óptimo sin saturaciones, sin ruidos ni fueras de eje11. El director/a del casting o de doblaje va
orientando al actor o actriz de cómo tiene que entonar, hacer gestos u otros elementos. Las
sesiones siempre se organizan por personajes de mayor importancia a menor importancia, se van
citando a los actores o actrices y se van grabando
primero a los personajes más importantes. En cine de
animación, las voces no se graban mientras
sincronicen con la boca del personaje sino que se
graban simplemente interpretando y entonando según
diga el texto, mientras se ve la escena en particular.
Figura 6. Bill Fagerbakke grabando a Patricio Una vez que se graban las voces, los editores de
Estrella de la serie Bob Esponja. Extraído de
The Spongebob Movie: Behind the scenes. animación se encargan en animar la boca de los
personajes y así ajustarlo tal y como se escuchan en

11. Fuera de eje: Nos referimos a esto cuando la fuente que produce sonido no está en la dirección adecuada con
respecto al micrófono causando una sonoridad de lejanía.
12

las grabaciones (Viñas, 2017). Una vez que se anima los movimientos de los labios se
sincronizan los archivos de audio, estos archivos son la referencia junto con el texto. Desde el
aspecto técnico sobre las grabaciones de voces para cine profesional, podemos decir que, se
necesita una sala propiamente tratada acústicamente, por esto, queremos decir una sala que ha
sido insonorizada12 y tratada para reducir la reverberación13 que ésta pueda producir. Los actores
y actrices estarán en una sala diferente a donde está el técnico/a, el supervisor/a y el director/a
para que no interfieran con la interpretación, la única persona que sí puede estar con los actores o
actrices son los directores de casting o de doblajes. Para grabar voces en las sesiones se utiliza un
micrófono condensador que va alimentado por un previo o interfaz de sonido con phantom
power14 y en modo cardioide15 o supercardioide (Cross, 2013). Hay muchos micrófonos
diferentes que se utilizan en la industria hoy en día aunque sí hay algunos que son más comunes
que otros como lo es el Neumann U87 para estudios de alta gama. A lo largo de los años los
ingenieros de sonidos han ido probando diferentes micrófonos hasta ver cuál era el que daba la
mejor sonoridad según sus criterios y es por eso que hay micrófonos que se han diseñado para un
trabajo en particular como sería por ejemplo grabar en lugares exteriores (Amyes y Wyatt, 2004).
Esto ha hecho que se clasifiquen los micrófonos por funciones y dentro de la grabación de voces
existen micrófonos que se han diseñado para eso exactamente. Volviendo a las diferencias que
existen entre el proceso de cine normal y cine de animación, hay que añadir que existe una
técnica de procedimiento en cine normal que se llama ADR (Additional Dialogue Replacement).
En cine normal este procedimiento se utiliza cuando en una escena en donde se ha grabado al
actor o a la actriz en directo no es válida y en consecuencia deben grabarlo en el estudio la parte
exacta. También puede utilizarse cuando la escena es muy compleja y los técnicos de sonido no
tienen forma de grabar al actor o a la actriz, un ejemplo sería una persecución. Cada vez más se
está optando por grabar los diálogos en el estudio para mejorar la calidad de sonido o a veces
solo para reforzar el sonido del directo donde se necesite. En cine de animación el ADR como
vemos no se llega a hacer ya que directamente se graba todo en el estudio. Es por eso que la
fuente de sonido de una voz en cine de animación sonará siempre con más calidad por el tipo de
micrófonos usados y por la sala usada, siendo así más controlada.

12. Insonorización: Se trata de aislar el sonido que se produce dentro de una sala para que no se propague al
exterior usando materiales que favorezcan el aislamiento sonoro. 13. Reverberación: No confundirse con el efecto
Reverb. La reverberación en una sala es cuando los sonidos producidos en la sala se reflejan en las paredes de forma
que modifica el sonido original.14. Phantom Power: Alimentación fantasma. Es una forma de alimentar
eléctricamente a los dispositivos de audio a través de una corriente continua de 48 voltios.
15. Cardioide: Es un modo que tienen los micrófonos de recibir una fuente sonora. Suelen alcanzar los 181 grados
de ángulo preferente.
13

4.3. Procedimiento del diseño sonoro.

El diseño sonoro es una parte de la postproducción de audio en cine que lo realiza el


diseñador de sonido el cual tiene el poder de seleccionar los sonidos que aparecerán en la
película. Nos referimos al diseño de sonido a la producción o inclusión de sonidos que vienen de
la acción de todo tipo de artefactos, vehículos, criaturas reales o fantásticas, elementos de la
naturaleza y sonidos creados desde sintetizadores o desde la mezcla de varios sonidos (Larson,
2010). ''El objetivo del diseño sonoro es crear la sensación de realidad, de continuidad, de
profundidad espacial o de dirección espacial y de establecer el estado de ánimo'' (Wyatt y
Amyes, 2004, pp.166-167). Los efectos de sonido podría decirse que han estado presente desde
los principios del teatro en donde se incluía música para enfatizar momentos u otros elementos
pero si hablamos del concepto de diseño sonoro en cine, comenzó a partir de 1979 cuando se
mostró Apocalypse Now de Francis Ford Coppola ya que fue la primera película multicanal que
fue mezclada por una mesa de mezcla computarizada y ser la primera en exhibirse con tres
altavoces delante de la audiencia y dos detrás creando una sensación envolvente (Reeves, 2014).
Según Coppola, el diseñador de sonido es el responsable de todos los aspectos de la banda
sonora de una película, así como, desde los diálogos a la grabación de efectos de sonido, re-
grabación hasta la mezcla final. Aunque este sería el concepto moderno según Alex Reeves
podríamos decir que el padre del diseño sonoro fue Luigi Russolo, un artista italiano de
principios del siglo XX. Es considerado ser el inventor del uso de sonidos y ruidos para resaltar
el impacto emocional en la película, lo que llamamos hoy en día diseño sonoro (Reeves, 2014).
En 1956, la película Forbidden Planet fue un punto de inflexión en lo que respecta al diseño
sonoro y los efectos de sonido ya que los sonidos creados para las naves espaciales fueron
basados en ecuaciones matemáticas provenientes del libro Cybernetics y hechos desde circuitos
eléctricos añadiendo reverb16 y delay17 (Reeves, 2014). Según Reeves otra película como punto
de referencia fue The Birds (1963) dirigida por Alfred Hitchcock que utilizó la mezcla de
sonidos reales de pájaros y ruidos electrónicos para crear el ambiente de terror. Con el avance
tecnológico, el trabajo del diseñador de sonido para películas se ha vuelto más sencillo dentro de
lo que cabe, aumentando la velocidad y la eficacia en encontrar y crear nuevos sonidos y nuevas
formas de impactar y emocionar.

16. Reverb: Es un efecto que puede provenir de un dispositivo analógico o digital cuya función es añadir a un
elemento sonoro los reflejos que ocurren en un espacio para así simular que está en un lugar.
17. Delay: Es un efecto que puede provenir de un dispositivo analógico o digital cuya función es repetir la señal de
audio varias veces durante un tiempo determinado.
14

Una película que definió la nueva era de cine sonoro fue Star Wars: Episode IV - A New Hope de
1977 por la repecursión que causó y por las innovaciones que mostraron visualmente y
sonoramente (Cull, 2015). El encargado del diseño sonoro fue Ben Burtt, el que creó los famosos
sonidos de los láseres y las naves espaciales, los cuales, pasaron a la historia como uno de los
sonidos más reconocibles del cine actual. Como ejemplo, Burtt utilizó para crear el sonido de las
pistolas láseres una persona golpeando con un martillo una torre de cable circular y para el láser
de la espada combinó sonidos de su set de televisión con un viejo proyector de 35mm. Mucho
del diseño sonoro viene del foley, el cual, lo explicaremos a continuación y proseguiremos con
las fases del diseño sonoro.

4.3.1. Foley.

Dentro del diseño sonoro hay un proceso llamado foley. El foley es la forma de crear efectos
de sonido grabándolos en un estudio de grabación por una persona, siendo ésta la fuente sonora.
Esta persona mediante sus movimientos y sus acciones con objetos crea los sonidos que ocurren
en la película (Ament, 2009). Este procedimiento viene de Jack
Foley que comenzó a trabajar en estudios grabándose a sí mismo
para ser más eficaz a la hora de hacer los sonidos que salían en
la película. Empezó grabando props18, pasos y ropa y a partir de
ahí inicio técnicas para conseguir el sonido adecuado. Un
ejemplo es que utilizaba como un tipo de palo para grabar pasos
creando la sensación de que eran más de una persona (Ament,
2009, pp.7). En la época de Jack, las personas que hacían ese
trabajo se les llamaba soundmen y no lo que hoy en día se dice Figura 7. Jack Foley sentado.
Extraído de The foley grail: the art
foley artist. Este término se utilizó después, cuando empezaron of performing sound for film, games
and animation.
otros soundmen a utilizar las técnicas y desarrollos de Jack. La
mujeres que trabajaban de bailarinas para películas iniciaron también a grabar pasos y bailes,
incluso los que estaban coreografiados, sobre todo en cine de animación surgiendo así los foley
walkers . A lo largo de las décadas empezaron algunos estudios a especializarse en este proceso
teniendo lo que se llama foley room o foley stage que es básicamente una habitación
acústicamente tratada y aislada con numerosos artefactos de todo tipo y con micrófonos
preparados para grabar. Durante los primeros años, los editores de sonido también grababan los

18. Props: Son los elementos que interactúan con los personajes de la película, pueden ser parte de los accesorios,
estenografía o vestuario.
15

efectos de sonido y solos lo que hacían foley no salían en los créditos de las películas. En los 60
y los 70 estos dos profesionales eran uno solo y fue a partir de 2006 cuando se dividieron y el
foley artist apareció oficialmente como categoría en el Motion Picture Editors Guild (Ament,
2009, pp. 12). Actualmente el foley es uno de los primeros procesos a la hora de hacer el sonido
para una película. Se debe decir que no todos los objetos que salen en la película son grabados
por foley ya que pueden venir de librerías de sonidos, que explicaremos más adelante. Depende
también de lo grande y la calidad del estudio pero en general los elementos que suelen ser de
grabados por un artista foley son las pisadas de los pies o zapatos, los movimientos de la ropa, los
toques a personas y a objetos, los objetos que utilizan los personajes como llaves, ropa, objetos
culinarios, papeles, pomos de todo tipo de puertas,
herramientas, etc., y movimientos de agua o líquidos.
Los estudios de foley para las pisadas normalmente
tienen diferentes tipos de suelos, los que tienen mucho
presupuesto pueden llegar a tener más de 5 tipos de
suelos como se muestra en la figura 8. En la figura 9
podemos observar otra perspectiva de un foley stage.
Figura 8. Estudio de foley mostrando los Normalmente están repletos de artefactos que pueden
diferentes tipos de suelos. Extraído de
theStudioTour.com servir para grabar algún objeto que salga en pantalla,
hay que decir, que los objetos que salgan en pantalla no
tienen por qué ser los mismos que se utilicen en el
estudio de foley, por ejemplo cosas metálicas pueden
sonar parecidas entre sí e igual con el plástico y así
sucesivamente. Se ordenan por texturas, materiales,
etc. Aparte de los foley rooms estos estudios tienen un
Figura 9. Estudio de foley con artista foley. control room que es donde trabajan los técnicos de
Extraído de Wbsound.com
sonidos como se muestra en la figura 10. Un estudio de
mucho presupuesto puede tener varios foley stages
según sus necesidades y tener a varios artistas foley
grabando una escena para acelerar el proceso .

Figura 10. Control Room. Extraído


de Wbsound.com
16

A la hora de trabajar, cuando se graba foley, se


empieza primero con los elementos importantes de la
película como el protagonista y otros personajes
importantes. Uno de los primeros elementos son las
pisadas de los personajes. El foley artist deberá pisar lo
más sincronizado que pueda con respecto a las pisadas
Figura 11. Foley artist grabando el sonido del personaje para así facilitar la edición al técnico de
de una cascada con un cubo de agua cayendo
sobre piedra. Extraído del video The Magic sonido. Una vez que se hacen las pisadas y todos los
of Making Sound de Great Big Story.
movimientos de pies de todos los personajes
importantes, se empieza a grabar los props, elementos que visualmente sean importantes que se
puedan grabar en el estudio sin mucha dificultad, luego la presencia de ropa y finalmente
elementos extras que pueden ser objetos en segundo plano. Una vez grabado, editado y
sincronizado todos los sonidos de cada una de las bobinas se manda al supervisor de sonido, el
cual, lo manda al que se encarga de mezclar los efectos de sonido. Al mezclar los efectos de
sonido se envía para la fase del dubbing que más adelante explicaremos. Hay que decir, que
normalmente habrá un foley editor y un foley mixer para ser más rápidos trabajando. En grandes
proyectos, por lo general habrá un editor de efectos y mezclador de sonidos, de diálogos y de
música pero existen excepciones en los que el ingeniero jefe de postproducción de audio llegue a
editar y mezclar esos tres campos si hablamos de un proyecto ajustado de presupuesto. Los
editores no trabajan juntos pero sí en el mismo proyecto por lo que siempre tienen una
comunicación recíproca. En cine de animación, el foley es un elemento muy relevante ya que es
un gran porcentaje de lo que se escucha (Ament, 2009). Hoy en día, la característica del foley en
animación es que se suele ajustar o acomodar a la música, es decir, cuando hay música ya no
escuchamos todos los pasos sino solo los prominentes, esto se debe a priorizar en la imagen los
elementos sonoros que se quieren escuchar y según cada proyecto esto cambia. Como ejemplo,
en The Lion King de Disney en una escena donde están la hienas y Scar haciéndose bromas
podemos escuchar todos los pasos y los movimientos corporales, pero cuando la canción ''Be
prepared'' empieza a aparecer, los sonidos de foley cambian y en vez de escuchar todos los pasos
solo se escuchan aquellos que son más obvios y los golpes más presentes visualmente por lo que
deducimos que por preferencia la música va en primer lugar y no el foley (Ament, 2009, pp. 23).
Según Ament, el foley en animación es ilustrativo y caprichoso y no tan entrometido o
17

natural. Puede complementar, resaltar, reemplazar y crear la realidad de las imágenes pero
siempre en combinación con sonidos de librería ya que también juegan un papel importante
dentro de la postproducción de audio. Un ejemplo en donde normalmente se combinan el foley y
los sonidos de librería es cuando un cuerpo cae al suelo, el foley artist estará en el suelo tirado
con ropa y usará el tronco de su cuerpo para hacer un golpe controlado hacia el suelo, esto estará
combinado con un sonido de librería que suene a golpe para así crear una textura más real. Lo
esencial del foley y de este proceso es que es muy creativo, no hay nada realmente escrito sobre
qué objetos o cómo se tiene que hacer ya que se pueden llegar a muy buenos resultados de forma
distinta, la cuestión es llegar a que funcione sonoramente. Es cierto que con los años se han
descubierto las mejores maneras de realizar sonidos concretos y los artistas lo utilizan pero en
esencia, es un proceso creativo e innovador.

4.3.2. Librerías de sonidos.

Las librerías de sonidos son elementos muy relevantes en el cine actual de animación y en
vivo ya que ahorra mucho tiempo y dinero. Una librería de sonido para cine es un paquete que
contiene sonidos de todo tipo que suelen aparecer en películas. Estos sonidos vienen como
archivos de audio como por ejemplo wav19. Normalmente las empresas de librerías de alta
calidad suelen dividir los sonidos por categorías como ejemplo pueden tener una librería para
ambientes. Cuando hablamos de ambientes nos referimos al sonido característico de un lugar en
concreto, el sonido de ambiente de una selva será diferente al de un bosque o al de un salón de
casa. Hay sonidos de ambiente de todo tipo, desde el ambiente de un bar, pasando por un campo
de batalla, hasta el ambiente de la playa. El diseñador al ser una persona creativa puede combinar
sonidos de ambientes para conseguir una textura única. Puede incluso llegar a crear el ambiente a
partir de elementos independientes, por ejemplo, si la escena es en la cocina, no bastará con
poner un ambiente de habitación, habrá que añadir al ambiente el ruido constante de los
electrodomésticos y dependiendo de los objetos permanentes de la cocina, como un reloj, se
seleccionarán sonidos para replicar cada uno de los elementos para así crear el ambiente tal como
aparece en pantalla. Otra categoría es la de animales, en la cual, se recogen todos los sonidos de
animales de la naturaleza, puede llegar haber incluso librerías de foley en donde se recogen los
sonidos más característicos del foley. Puede haber múltiples categorías como sonidos de
impactos, de vehículos, de deportes, sonidos característicos para animación, espaciales,

19. Wav o Wave: Es un formato de audio digital desarrollado por Microsoft y IBM. Admite archivos
mono y estéreo de diversas resoluciones y velocidades de muestreo.
18

y muchos otros. Hay que decir que en cada librería por categorías pueden venir entre quinientos
y mil sonidos. Una librería que actualmente es una de las más utilizadas en el cine es The
Hollywood Edge Sound Effects Library. Cada categoría puede tener un precio entre doscientos y
cuatrocientos dólares. Las librerías de sonido en el diseño sonoro se utilizan siempre en cine de
bajo y alto presupuesto, los proyectos de bajo presupuesto optarán más por utilizar librerías de
sonido ya que no tienen para contratar un estudio de foley y los de alto presupuesto utilizarán
todos los medios posibles en el diseño sonoro. Por lo general, los sonidos de librerías tiene un
porcentaje alto de uso y suelen ser siempre para sonidos que son complicados de grabar en un
estudio o en exteriores como por ejemplo vehículos, explosiones, animales difíciles de grabar,
fuego, etc. Depende mucho del proyecto, porque hay casos que el ochenta por ciento del sonido
viene de librerías y otros sólo el cincuenta o menos. En cine de animación depende mucho del
presupuesto pero siempre querrán tener un equilibrio entre foley y librerías. Muchos diseñadores
de sonidos, tienen librerías personalizadas, con esto nos referimos a sonidos que han podido
grabar ellos mismos o compañeros de trabajo o incluso sonidos usados por otros diseñadores
para otras películas.

4.3.3. Herramientas del diseño sonoro.

Nos referimos a herramientas del diseño sonoro a los recursos que se utilizan para crear,
mejorar, facilitar y transformar los elementos sonoros. Hay múltiples herramientas por lo que nos
centraremos en las más comunes y usadas.

4.3.3.1. Pro Tools. Las herramientas pueden ser digitales o análogas y como hemos mencionado
antes, actualmente están siendo más utilizadas las digitales o también llamadas ''plug-ins''. Antes
de meternos con los plug-ins, debemos hablar sobre la
herramienta más importante y esencial en la
postproducción de audio de cine, el Pro Tools. Como
explicamos anteriormente, Pro Tools es un digital
audio workstation o DAW, en definitiva, un programa
informático capaz de trabajar archivos de audios con la
posibilidad de usar múltiples pistas (Future Music,
Figura 12. Interfaz de la versión 1 de Pro Tools.
2011). La primera versión de Pro Tools salió en 1991 Extraído de YouTube, canal SMM GMBH.
con una interfaz de solo cuatro pistas, incluía una tarjeta de sonido20 y costaba
20. Tarjeta de sonido: Es un dispositivo que se conecta al ordenador. Es el responsable de la reproducción de
sonido y de la entrada a otros posibles dispositivos de audio como altavoces, micrófonos o instrumentos musicales.
19

alrededor de seis mil dólares. Cada año iba


desarrollándose y en 1997 ya podía trabajar en 24
bits y tener 24 pistas. A partir de los 2000, la
compañía que desarrolla este programa,
Digidesign, actualmente Avid, hizo mejoras en
muy poco tiempo incluyendo la posibilidad de
incluir plug-ins, más pistas, mejoras en edición,
Figura 13. Ventana de edición con plug-ins del
mejoras en el interfaz, etc., haciendo que poco a Pro Tools 12. Extraído de Avid.com
poco se utilizase en los estudios de grabación,
acabando como una herramienta estándar en la
industria de audio (Future Music, 2011). Se
estandariza sobre todo con la salida de la versión
nueve, que por primera vez no pide unos
requerimientos específicos para el uso del programa
solo recomendaciones. Actualmente está la versión Figura 14. Ventana de mezcla del Pro Tools
12 y la versión 2018. Las versiones actuales tienen 12. Extraído de Avid.com

una versión HD, que pueden tener 256 pistas de audio con una posibilidad de tener más de 85
plug-ins. Hay que recalcar que los plug-ins pueden venir incluidos con el programa o ser
adquiridos por las empresas que los desarrollan. Este programa además de utilizarse en la
industria musical también se utiliza desde años en la edición de audio para cine ya que en 2006
en la versión 7 se incluye la pista de video (Thorton, 2018). Esto hizo que se pudiese editar el
sonido desde el mismo programa observando el video a la misma vez teniendo también insertado
los códigos del SMPTE. Otra de las razones por las que fue ideal para el cine es la posibilidad de
mezclar surround y la alta calidad del motor de sonido del programa (Thorton, 2018).
Actualmente, es el estándar y se utiliza en el foley, en la edición, en la mezcla y en el mastering.

4.3.3.2. Ecualizador, reverb, sintetizador y otros. Una vez visto brevemente el Pro Tools,
comenzaremos hablando sobre otros instrumentos de trabajo que se utilizan en el diseño sonoro
como el ecualizador. Puede ser un plug-in o un aparato analógico cuya función es modificar la
ganancia de las frecuencias en la señal de audio, es decir, por ejemplo si trabajamos con una voz
femenina, esta voz tendrá un rango de tono fundamental de entre 150 hercios a 300 hercios por lo
20

que con el ecualizador podríamos eliminar frecuencias


que no son importantes o reducir frecuencias dentro de
ese rango que molestan y así sucesivamente.

El ecualizador es la herramienta principal para


modificar la señal de audio y la primera en utilizar. Es
capaz de limpiar y hacer que los elementos sonoros
Figura 15. Ecualizador(plug-in) de fabfilter tengan su propio espacio dentro del rango de frecuencia,
software instruments. Extraído de
fabfilter.com es decir, entre los 20 y 20.000 hercios. Esta herramienta
se utiliza prácticamente en todos los elementos sonoros de una banda sonora, desde las voces
pasando por efectos hasta la música. Una de las formas de usarlo es en escala, que básicamente
es usar un ecualizador después de haber utilizado uno anteriormente para poder abarcar todos los
posibles problemas que pueda tener una señal ya que un ecualizador solo podrá manejar hasta un
número limitado de bandas o rangos, por ejemplo el ecualizador de la figura 15 puede hasta 24
bandas. Otra herramienta utilizada sobre todo en las voces es el De-Esser. Se trata de un
procesador en forma de plug-in que reduce las ''eses'' o de igual forma las frecuencias altas o
agudas, esto se utiliza en diálogos o en voces cantadas ya que las ''eses'' pueden ser molestas si
no se reducen. El compresor, que hemos mencionado anteriormente, se utiliza siempre y cuando
sea necesario equilibrar las partes con menos volumen con la de mayor para tener homogeneidad
aunque en cine de animación y convencional se utiliza, pero con muy poco grado de compresión
ya que si adquiere mucha compresión perderá rango dinámico lo que significa que sonara sin
cambios de volumen, innatural. Otro plug-in básico es el reverb, que en cine de animación es
esencial ya que al estar las voces en un estudio necesitan simular que está en un lugar concreto y
esos reverbs se llaman ''convolution reverbs''. Estos
son diseñados específicamente para recrear
digitalmente entornos físicos, como muchos otros
plug-ins existen en equipos análogos pero actualmente
muchas empresas desarrolladoras han podido replicar
la sonoridad de los equipos análogos. Uno de los
ejemplos de ''convolution reverbs'' es el que viene
incluido en Pro Tools, Space. Figura 16. Space de Pro Tools. Extraído de
Pro Tools 12.
21

Hay otros procesadores que se llaman ''delays'' que repiten la señal durante un tiempo, esto en
cine de animación puede llegar a ser útil para recrear eco de un lugar en donde rebote el sonido,
por ejemplo, una cueva. El Stereo Imager modifica la imagen de estéreo, es decir, si queremos
que un sonido suene más abierto se utiliza este instrumento. Esto se utiliza mucho en sonidos que
tienden a ser expansivos como explosiones, tormentas, etc.

Los que hemos mencionado antes son los instrumentos básicos


para modificar la señal de audio original pero hay otras
herramientas que pueden crear sonidos desde cero y son los
sintetizadores. Hay sintetizadores polifónicos y monofónicos y
existen análogos y digitales. Últimamente los sintetizadores
análogos están desapareciendo ya que los que hay digitales que
Figura 17. Sintentizador análogo. son igual de buenos o incluso mejores y no ocupan espacio en el
Extraído de Soundonsound.com
lugar de trabajo (Rueda, 2017). Los más habituales son los
polifónicos. Uno de los sintetizadores más potentes hoy en día es el Omnisphere de
Spectrasonics. Este instrumento se puede utilizar para
crear un sonido único que nunca antes se haya
escuchado, para combinar múltiples sonidos y conseguir
uno original o simplemente modificar uno muy común.
Estos sintetizadores actuales contienen una librería de
sonidos originales, por ejemplo, Omnisphere contiene
alrededor de 12.000 sonidos. Contienen por lo general
filtros21, moduladores22, envolventes23 y osciladores24
Figura 17. Sintetizador digital.
que básicamente cambian la sonoridad a través de sus Omnisphere. Ventana principal. Extraído
de Spectrasonics.net
funciones (Rueda, 2017). Estos sintetizadores también
traen efectos como reverb o delay.

21. Filtros: Es un modulador del sintetizador que filtra las frecuencias que provienen del oscilador para así resaltar
frecuencias altas o bajas.
22. Moduladores: Controles que cambian ya sea la frecuencia, el tono, la onda, etc.
23. Envolventes: Estos son los que controlan el ataque (cuando se genera el sonido), decaimiento (cuanto tiempo
tarda desde el punto más alto al periodo estático), sostenimiento (cuanto tiempo se sostiene) y relajación (cuando se
desvanece).
24. Osciladores: Son los que generan las ondas de sonido. Según el tipo de onda sonará de una forma u otra.
22

Como hemos dicho, Pro Tools hizo posible mezclar para un


sonido envolvente por lo que una característica dentro del
diseño sonoro es colocar los elementos sonoros y como van a
actuar. Para esto, hay un plug-in que viene incluido con Pro
Tools, Surround Panner. El nombre para referirnos en mezcla
para distribuir el sonido a través de los canales estéreos es
''pan'' por lo que ''panning'' es el acto de distribuir el sonido y
''panner'' es el que lo realiza. Vemos en la figura 18 la
distribución del sonido en la habitación. Esto en el diseño
sonoro es importante ya que le dará realismo a los elementos
sonoros, por ejemplo, si en pantalla aparece un coche que va de
Figura 18. Plug-in surround derecha a la izquierda lo más adecuado sería panear lo justo
panner de Pro Tools 12.8 HD.
Extraído de Pro Tools 12.8 HD. para que se note que el sonido viene por la derecha y cuando el
coche esté pasando hacia la izquierda dirigir el sonido en la misma dirección hasta llegar a la
izquierda y que el oído note el movimiento sonoro sincronizado con el movimiento del coche en
pantalla.
23

4.4. Proceso de mezcla de diálogos, efectos de sonido y música.

En los proyectos grandes de cine ya sea para animación o convencional suelen haber tres
mezcladores, el de diálogos o voces, efectos y música. Hay otros casos, en los que hay uno solo o
solo dos para mezclar esos tres aspectos sonoros. Depende de lo grande que sea el proyecto, el
presupuesto y el tiempo (Rose, 2014).

Una vez que se graban las voces en el estudio el pre mezclador hace una mezcla superficial,
básicamente solo ajustando volúmenes y se lo manda al mezclador de re-grabación. Este proceso
es el mismo con los efectos. Los mezcladores de re-grabación aunque trabajen en aspectos
diferentes utilizan casi los mismo métodos y herramientas. Para mezclar se necesitan muy
buenos altavoces, los que menos coloreen el sonido, los mejores que se puedan usar ya que serán
los responsables en proporcionar la sonoridad y a partir de ellos se tomarán decisiones cruciales
en la mezcla. Otro aspecto no menos importante es la sala en donde se mezcle, la habitación debe
estar tratada acústicamente lo mejor posible para que el sonido de los altavoces sea lo más puro y
no afecte en la toma de decisiones (Cross, 2013). El mezclador cuando mezcla siempre tiene en
mente los efectos y la música y es por eso que la comunicación es esencial aunque para eso está
el proceso de dubbing que más adelante lo explicaremos. Al recibir los diálogos, antes de
modificar volúmenes o modificar la señal se escucha tantas veces que se necesite para saber qué
es lo que requiere las voces para que suene mejor. Normalmente con voces en estudio los
problemas se minimizan debido a que apenas hay ruidos extraños y si se ha grabado con buenos
niveles el proceso posterior es mucho más rápido y sencillo (Filmmixer, 2013). En principio, se
empezaría trabajando con los ecualizadores, así trabajan primero las frecuencias y remover las
molestas es un proceso quirúrgico. Volviendo al ecualizador tiene diversos filtros que son las
formas de reducir o acentuar frecuencias que son las siguientes; ''Hi Pass25'', ''Low Pass26'',
''Band Pass27'', ''Bell/Peak28'', ''Hi Shelf/Low Shelf29'' y ''Notch'', cada una actúa diferente. En cine
los tipos de filtros que más se utiliza son el Low Pass y el Notch. El notch sobre todo, ya que es
el tipo de filtro que puede remover por completo una frecuencia determinada. Primero se busca
exactamente la frecuencia que es molesta subiendo la ganancia del notch al máximo y una vez se
localiza y se disminuye hasta el infinito o alrededor de menos 6 decibelios.

25. Hi Pass: Filtro del ecualizador que deja pasar las frecuencias que están por encima de la frecuencia de corte.
26. Low Pass: Filtro del ecualizador que deja pasar las frecuencias que están por debajo de la frecuencia de corte.
27. Band Pass: Filtro del ecualizador que deja pasar las frecuencias que estén dentro de los dos puntos de corte.
28. Bell/Peak: Filtro del ecualizador que incrementa o disminuye una determinada banda de frecuencia.
29. Hi Shelf/Low Shelf: Filtros del ecualizador que incrementa o disminuye la frecuencia de corte por igual hasta el
final del espectro.
24

El Low Pass se utiliza para remover las frecuencias inaudibles que solo aportan ruido y suciedad.
Cada voz tiene un tratamiento diferente ya que no todas las voces producen la misma sonoridad.
Una vez hecho la ecualización base, se hace en escala y después con automatización, que es
ecualizar en partes distintas. Una vez ecualizado, se ajustan volúmenes ya que la ecualización
siempre afecta al volumen. Hay que añadir, que cada mezclador de re-grabación tiene una forma
diferente de hacer la mezcla por lo que hablamos desde un aspecto un tanto general. El siguiente
paso suele ser una compresión multibanda, es decir comprimir diferentes rangos de frecuencia
con diferentes parámetros para así tener más control sobre la voz y prolongadamente de nuevo se
ajustan los volúmenes. Se añade un De-Esser y a continuación reverb, aunque no en la cadena de
insertos30 sino como efecto a través de un canal auxiliar. El tipo de reverb será según donde se
encuentre el personaje y suele añadirse sutilmente (Rose, 2014). Una vez hecho eso, se vuelve a
ajustar volúmenes y se automatiza si es necesario, el ajuste de volúmenes es la mayor parte del
proceso de mezcla. Una vez acabado la mezcla de diálogos no se pone un limitador31 o un
maximizador32 ya que eso se hará en mastering.

Con los efectos de sonidos, es una parte más creativa aunque coincide en muchos aspectos con la
mezcla de diálogos (Cross, 2013). En cine de animación, el foley es muy importante y tiene que
estar bien mezclado con los sonidos de librería pero sobre todo bien grabado para que no se note
la diferencia. El método con la ecualización es la misma, igual con la compresión y el reverb
pero con diferentes parámetros, no se utilizaría el De-Esser por que no sería necesario. En la
mezcla de efectos es importante analizar bien los objetos que estén en pantalla ya que según su
ubicación y relevancia tendrá mayor o menor protagonismo. Los objetos con sonoridad en planos
cercanos tendrán mayor volumen que los que están en planos más largos y también tendrá mucho
que ver qué tipo de objeto es y cuanta sonoridad tiene por sí solo. Los efectos por lo general
nunca tienen mayor protagonismo que las voces o que la música ya que esos dos elementos son
más importantes y no pueden ir por debajo de los efectos cuando suenan a la vez, por eso una
buena mezcla marca la diferencia (Cross, 2013). Trabajar con los efectos puede ser más creativo
dentro de la mezcla en cuanto a ubicación dentro de la imagen estéreo, el panning, la
intencionalidad, etc. Se debe saber qué elementos sonoros tienen más fuerza y cuales menos y
según eso establecer una mezcla coherente.

30. Insertos: En el DAW, en la ventana de la mezcla hay insertos y envíos, los insertos es la forma de insertar un
plug-in y los envíos es la forma de enviar la señal producida a otro canal de mezcla, como por ejemplo, un reverb.
31. Limitador: Es una herramienta que básicamente limita la señal de audio a un número de decibelio en concreto.
32. Maximizador: Es una herramienta que maximiza la señal de audio pudiendo tener un limitador.
25

Con respecto a la música en la banda sonora, puede haber varios procesos antes de que la
música llegue a manos del mezclador de re-grabación. Puede haber varias posibilidades, una
puede ser que el compositor/a y el departamento técnico manden la música grabada o producida
para que sea mezclada por el mezclador de re-grabación que no es muy habitual o que venga ya
mezclada y solo haya que masterizarla y acoplarla a los demás elementos. Nunca vendría
masterizada ya que eso se haría una vez unido los diálogos, los efectos y la música. Si viene ya
mezclada profesionalmente solo hay que ajustar volúmenes y que la música esté donde se haya
asignado en las secuencias, aunque esto habitualmente se hace en el dubbing.

4.5. Proceso del dubbing y del mastering.

Una vez que está mezclado cada uno de los


elementos principales independientemente es
decir, las voces, los efectos y la música, pasa
al dubbing que es donde se une todo y se
termina la banda sonora. En proyectos
grandes, se realiza en un dubbing stage como
vemos en la figura 19. El dubbing stage ideal
tiene que asemejarse a una sala de cine lo
Figura 19. Dubbing Stage de Warner Bros. Sound.
Extraído de Wbsound.com
máximo posible con la acústica y altavoces de
alta calidad para que la mezcla sea precisa y lo que se escuche en el dubbing no difiera mucho de
lo que se escuchará en una sala corriente de cine. Para esta fase suelen haber ingenieros
especializados aunque el mezclador de re-grabación en caso de ser un proyecto con menos
presupuesto o con menos personal de trabajo. Las salas dubbing iguales que las de mezcla suelen
tener certificado Dolby o Dolby Atmos 7.1.. La diferencia entre Dolby y Dolby Atmos es que
Atmos tiene dos altavoces en el techo para mayor sensación de realismo. En esos dos altavoces
podríamos dirigir sonidos que en la realidad vengan desde arriba como la lluvia, la tormenta,
pájaros, etc. Lo normal es trabajar en estas salas a 85 decibelios ya que es el estándar y la media
en las salas de cine y también lo recomendado para no dañar a los espectadores ni a sus
trabajadores. La banda sonora se suele mezclar en estéreo y en 5.1 surround por lo general
aunque también según el contrato se puede hacer en 7.1 y más o en Atmos. Una vez que se tiene
los materiales se hacen varias escuchas, hay que apuntar que el director junto con los productores
26

también pueden estar presentes en el dubbing stage. La independencia de los diálogos, los
efectos y la música desaparece, aquí es donde se empieza a ajustar volúmenes con todo sonando
(Cross, 2013). En esencia, la finalidad del dubbing es que todo suene coherente y que los
volúmenes estén correctos, es decir, que las voces se escuchen bien que la música o los efectos
no interfiera en la comprensión de los diálogos, que la música tenga la presencia en los
momentos adecuados y asignados por el director/a y por último, que los efectos enriquezcan las
sensaciones y lleguen a envolverte en la película (Rose, 2014). Este proceso es igual en cine de
animación que en cine convencional, es en definitiva, el último proceso antes de distribuirlo a las
salas de cine convencionales y va de la mano del mastering. El mastering es un proceso en el
cual se trabaja con el trabajo ya arreglado en cuanto a volúmenes y mezcla y el objetivo es hacer
que suene aún mejor si cabe usando ecualizadores, compresores, limitadores, etc, y que suene
bien en todos los posibles equipos de audio. Esto hace que se tenga que masterizar de forma
diferente según el formato, no es lo mismo los volúmenes en el cine que en la televisión, la
normativa para televisión es de -23LUFS (Loudness Unit relative to Full Scale) y para cine -20
LUFS (Thorton, 2017). En mastering, se realiza los ajustes para la distribución para televisión,
salas de cine, reproducción en tres dimensiones, formato IMAX31, Dolby, THX32, trailers, CD-
DVD o Blue-Ray. Es en conclusión, la forma de finalizar la banda sonora y ser distribuida con
éxito según los términos establecidos por los diferentes formatos.

31. IMAX: Es un formato de grabación y de proyección cinematográfico creado por la compañía canadiense IMAX
Corporation. La cinta de video está grabada en un formato de 70mm y las pantallas estándar de salas IMAX son 22
metros de ancho y 16 metros de altura.
32. THX: Es un formato de audio y de sala de cine creado para la compañía Lucasfilm para que todas las películas
suenen igual en todas las salas THX.
27

5. La postproducción de audio en la película WALL-E.

Anteriormente hemos visto como funciona la postproducción de audio desde que se


analiza la obra pasando por el comienzo del diseño sonoro hasta el proceso final sin enfocarnos
en un ejemplo en concreto. En este aparatado nos centraremos en la película Wall-E (2008) como
ejemplo para explicar la postproducción de audio por lo que antes sería ideal visionar la película.

5.1. Introducción a Wall-E.

Es una película animada creada por


ordenador desarrollada por Walt Disney
Pictures y Pixar Animation Studios,
estrenada en 2008, dirigida por Andrew
Stanton y producida por Jim Morris.
Andrew escribió la historia junto a Pete

Figura 20. Wall- E. Extraído de Disney.movies.com Docter y lo guionizó con Jim Reardon. La
película se ambienta en el planeta Tierra alrededor del año 2800 d.C.,la cual, ha sido abandonada
por los seres humanos debido a la imposibilidad de habitar en ella por el exceso de basura y
contaminación. Los seres humanos se han visto obligados a salir y a vivir en una nave espacial.
El protagonista es un robot llamado Wall-E que fue diseñado para recoger basura, ordenarla y así
limpiar la Tierra. Al conocer a otro robot llamado Eve venido del espacio para buscar vida
orgánica, se aventura hacia Axiom, la nave espacial en donde habitan los seres humanos, una vez
allí Wall-E y Eve intentan entregar la planta encontrada al capitán para volver a la Tierra.

La película de Stanton fue premiada como mejor película animada en los Oscar y tuvo tantas
nominaciones como la Bella y la Bestia siendo de las más nominadas en la historia dentro de
animación. Dentro de esas nominaciones tuvo dos en la categoría de sonido; una como Mejor
Mezcla de Sonido y otra Mejor Edición de Sonido. Según en una entrevista realizada por
ComingSoon.net a Andrew Stanton, Jim Morris recomendó a Ben Burtt para ser el diseñador
sonoro de la película que anteriormente fue el diseñador de los sonidos de toda la saga de Star
Wars. Wall-E al ser una película ambientada en el futuro teniendo como protagonista a robots
que tienen la capacidad de producir sonidos para comunicarse tuvieron como referencia a R2D2,
el robot famoso de Star Wars.
28

5.2. Departamento de sonido.

Antes de entrar en el diseño sonoro, la empresa que estuvo a cargo de la postproducción de


audio para Wall-E fue Skywalker Sound. Para hacernos una idea del equipo que puede tener una
película de animación vamos a ver las personas que han compuesto el departamento de sonido.

- Ben Burtt: Diseñador de voz/ mezclador de re-grabación/ diseñador de sonido/ supervisor de


edición de sonido y mezcla.

- Vince Caro & Doc Kane: Mezcladores original de diálogo.

- Dustin Cawood, Teresa Eckton & Al Nelson: Editores de efectos de sonido.

- Coya Elliott: Supervisor asistente de edición.

- Sean England: Sonidista de foley.

- E.J. Holowicki: Diseñador de sonido adicional.

- Larry Hopkins: Sincronizador de sonido con imagen.

- Bobby Johanson: Sonidista adicional de diálogo.

- Mark Lindauer: Sonidista de sala de grabación adicional de diálogo (ADR)

- Tom Myers & Michael Semanick: Mezcladores de re-grabación.

- Jordan O'Neill: Ingeniero de mastering de DTS (Digital Theater System)

- Juan Peralta & Kevin Sellers: Editores de foley.

- Tony Sereno:Técnico de mezcla.

- Steve Slanec: Editor de ADR.

- Dennie Thorpe & Jana Vance: Artistas foley.

- Mathew Wood: Supervisor de edición de sonido.


29

5.3. Diseño Sonoro.

Según Ben Burtt, para esta película se crearon alrededor de 2600 sonidos y fue un proceso
de tres años. La película al tener tan poco diálogo, en lo que respecta al sonido, se enfatiza
naturalmente en cada movimiento, ruido, chasquido o crujido que surge en la película. Por otro
lado, los sonidos que producirían tenían que transmitir emociones debido a la falta de
comunicación por voz aunque los robots que son capaces de pronunciar vocales y consonantes
son Wall-E, Eve y el mando de control automatico de la nave Axiom (Auto). Los demás robots
hacen sonidos pero no a través de vocales ni consonates solo con sonidos que difieren de tonos
ya sean bajos o altos para remarcar los ánimos del personaje. Según Burtt, los efectos de sonido
pueden funcionar como una voz, es decir, ser expresivos. Como dijimos, la sonoridad de un
proyecto audiovisual se divide principalmente en diálogo, efectos de sonido y música. Primero
comentaremos como se hizo la voz de Wall-E y de Eve, los dos protagonistas. Según Ben Burtt,
una de las primeras cosas que analiza al ver a los personajes es como sonarían en la realidad,
como funcionarían físicamente y así qué sonidos producirían. Para Ben, lo más difícil como
diseñador es crear voces únicas y distintivas. Para la película, obtuvo referencias de diseñadores
de sonidos de las antiguas películas de Disney como Jimmy MacDonald (Morris, 2008). En las
películas de Disney para crear voces de los objetos usaban como base la voz humana y a través
de una herramienta la modulaban y así convertirla en efecto de sonido. Un ejemplo es la voz del
tren en Dumbo (1941) la cual usaron para hacerla un aparato de lo más innovador en los cuarenta
llamado Sonavox. Este aparato se componía de dos altavoces pequeños que se posicionaban en el
cuello, donde están las cuerdas vocales, para que cuando hablase la persona el resultado fuese un
sonido un tanto metálico. Para la voz de Wall-E, Ben empezó a grabarse a sí mismo con
diferentes tonos, expresiónes y vocalizaciónes de cada sílaba, en este caso dos, ''wa'' y ''li''. Una
vez grabado las diferentes tomas, Ben, lo modifica y lo transforma a través de un programa
específico para el diseño de sonido llamado
Kyma desarrollado por Simbolic Sound
Corporation. La finalidad principal de este
programa es crear sonidos únicos a partir de
los diferentes efectos y herramientas que tiene
para modificar la señal de audio principal.

Figura 21. Kyma 7 Software. Extraído de


Kyma.symbolicsound.com
30

Para la voz de Wall-E, Ben usó un dispositivo que se controla con un bolígrafo táctil a una
pantalla que modula el tono y el volumen a la misma vez en base al sonido creado en el
programa (Morris, 2008). Para crear la voz de Eve, Ben grabó a la actriz de voz Elissa Knight.
Usó un Vocoder para modificar la señal y añadirle un carácter robótico, concretamente el de
Kyma. Un Vocoder procesa la señal de audio a través de varios filtros de frecuencia con la
posibilidad de tener distintas ganancias o volúmenes para así conseguir la voz sintetizada. Para
Wall-E se hizo múltiples versiones para que entre Stanton y Burtt eligiesen el definitivo.

En cuanto a los efectos de sonido, podemos decir que en el diseño sonoro de la película existe un
contraste entre los sonidos provenientes de la Tierra y los sonidos provenientes de la nave
espacial siendo estos muchos más electrónicos y no tan mecánicos. Se han hecho efectos con
grabaciones por el propio Ben y también se han seleccionado a partir de librerías. Algunos
ejemplos que comentaremos de la realización de efectos para esta película son el sonido del
viento, de la tormenta de arena o incluso del sonido del disparo de Eve. Para el viento, se usaron
varias fuentes sonoras mezcladas entre sí aunque la esencial fue creada con un saco de arena de
boxeo arrastrado por una moqueta. Con respecto a la tormenta se utilizaron sonidos de librerías
pero también sonidos grabados a partir de herramientas, incluido una herramienta que se
utilizaba en las películas de Disney de los años 30 para recrear las tormentas, el thunder sheet. Es
una cortina larga de metal fina que al moverla crea frecuencias bajas y frecuencias altas,
consigue la presencia y la densidad , además este instrumento no solo se usó para las tormentas
de arena sino también para el sonido del fuego de un cohete o nave espacial. Para el disparo que
produce Eve, Ben usó la misma técnica para conseguir el sonido de los disparos en Star Wars.
Aparte de añadirle capas de otras fuentes sonoras, la base está hecha a partir de un muelle
metálico fino extendido hacia arriba en el que si se golpea en la parte de abajo sonará como lo
que escuchamos en las pistolas láseres, esto es debido a que las frecuencias altas viajan más
rápidas que las frecuencias bajas. Volviendo a Wall-E, necesitaban sonidos mecánicos o
metálicos ya que Wall-E es un robot más ''antiguo'' por lo que recurrieron a herramientas
mecanizadas. Al tener la capacidad de moverse con ruedas similares a las de un tanque con
diferente velocidades, Ben tuvo que añadirle un sonido para el movimiento. Según Ben, lo hizo
con un generador de motor de la segunda guerra mundial que compró a través de internet. Este
generador tiene como unos mangos parecidos al de una bicicleta y al moverlo genera
básicamente el sonido de Wall-E moviéndose aunque solo se utilizó cuando se mueve
31

lentamente. Para cuando se mueve rápidamente, Ben usó un arrancador de inercia que se usa a
mano para darle un sonido más potente similar al sonido de un generador de arranque de un
avión de los años 30 (Isaza, 2009).

En cambio para Eve, al ser un robot más ''moderno'' y al funcionar mediante magnetismos y
campos de fuerza, los sonidos debían tener un carácter más sintetizador y digital. Igual que todo
los sonidos en la nave Axiom. Los movimientos de
Eve se asemejan más a ondas de fuerza, por eso, el
sonido que produce Eve al volar fue en base a una
grabación que hizo Ben a un avión de radio control
de tres metros de largo mientras volaba (Moody,
2008). Otros efectos de sonido curiosos que se
componen en parte de grabaciones son los
Figura 22. Wall-E y Eve. Extraído de la película
siguientes; la cucaracha en parte está compuesta por Wall-E.
sonidos de unas esposas metálicas abriéndose y cerrándose. En la escena donde aparecen los
carritos de supermercados, Ben grabó carritos de la compra estampándose contra la pared. El
sonido que produce Wall-E para comprimir los trastos y la basura es una grabación de un coche
siendo aplastado en un desguace. El sonido de M-O's, el robot que limpia en la nave Axiom, es
una grabación de una maquinilla de afeitar y por último, el viento en la tierra como hemos
comentado antes está en parte también compuesta por grabaciones hechas en las cataratas del
Niágara. Hay que añadir, que estas grabaciones son modificadas para quede tal y como suena en
la película pero la base son esas grabaciones. Por otro lado, al tener poco diálogo, la película no
solo enfoca al sonido sino también a la música que es también parte de la postproducción de
audio. La música compuesta por Thomas Newman aparece lo justo, lo necesario y en los
momentos que debería aparecer. La mezcla entre los sonidos y la música está perfectamente
unida no dando lugar a volúmenes desequilibrados. Los únicos desequilibrios que existen son en
consecuencia a la tipología de planos o a los elementos sonoros que vemos. Un ejemplo es
cuando el protagonista se acerca a la cámara pasando justo al lado, la sonoridad de Wall-E va de
menos a más hasta llegar a mucho volumen pero en cambio la dinámica de la música se mantiene
igual, dando a un desequilibrio. La orientación general de la mezcla será decidida por el director,
el supervisor de sonido y los mezcladores de re-grabación dando a lugar una característica
particular en toda la banda sonora para largometraje, en este caso los sonidos de Wall-E.
32

6. Conclusión.

Podemos concluir con este trabajo que la postproducción de audio es un proceso técnico y a
la vez creativo con suma importancia sobre todo en el cine de animación siendo unas de las
claves para el éxito de la obra. Hemos observado la evolución tecnológica que ha habido en el
sonido cinematográfico desde las primeras herramientas hasta las más actuales. También hemos
explicado las diferentes fases que existen para incluir sonido en una película de animación
profesionalmente, desde la selección de voces para los personajes animados pasando por el
diseño sonoro hasta el proceso de dubbing y mastering, por último, hemos profundizado como
ejemplo el diseño sonoro de la película WALL-E, la cual es un gran ejemplo para ver que
realmente los sonidos vienen del mundo físico para así transformarlos a nuestro a favor con las
nuevas tecnologías que van surgiendo. La forma de diseñar sonidos ha ido cambiando
progresivamente pero hoy en día se siguen usando técnicas que se usaban en las antiguas
películas combinándolas con los nuevos programas y tecnologías consiguiendo sonidos
originales y únicos. Wall-E es una película que ha impactado el cine de animación, no sólo por la
temática medio ambiental o por sus diseños y efectos visuales sino también por su enfoque al
diseño sonoro. El sonido es el que conduce la emoción y la drama, nos ayuda a entender la
trama, los personajes y la narración global del largometraje. Por tanto, este proyecto
cinematográfico es una referencia en el mundo sonoro por su complejidad, su resultado y porque
el sonido tiene un papel imprescindible para la experiencia audiovisual.
33

7. Referencias Bibliográficas.

Ament, V. (2009). The foley grail: the art of performing sound for film, games and animation.
Amsterdam, Boston: Focal Press.

Barrier, M. (1999). Hollywood Cartoons : American animations in its golden age. Berkeley:
Oxford University Press.

Brain, M. (s.f.). How IMAX works. Recuperado 12 mayo 2018 de


https://entertainment.howstuffworks.com/imax1.htm

Casey, M. (2018). THX Certification for Computer Speakers or Surround Sound Systems.
Recuperado 12 mayo 2018 de https://www.lifewire.com/what-does-thx-certified-mean-for-
speakers-2640436

Cross, M. (2013). Audio post production for film and television. Boston: Berklee Press
Publications.

CS. (2008). Wall-E: Writer/Director Andrew Stanton. Recuperado 9 mayo 2018 de


http://www.comingsoon.net/movies/features/45885-wall%C2%95e-writerdirector-andrew-
stanton

Cull, N.J. (2015). Star Wars: why did the film make history? Recuperado 8 abril 2018 de
https://www.historyextra.com/period/modern/star-wars-why-did-the-film-make-history/

DeAnda, V. (2016). A look into history of the voice-over industry. Recuperado 1 abril 2018.
http://victoriavoicetalent.com/a-look-into-the-history-of-the-voice-over-industry/

Durán, J. (2016). El cine de animación estadounidense. Barcelona: Editorial UOC.

Filmmixer (2013, diciembre 16). Dialogue Mixing - Part 1. Recuperado 19 abril de https://film-
mixing.com/2013/12/16/dialogue-mixing-part-1/

Future Music (2011, mayo 30). A brief history of Pro Tools. Recuperado 12 abril 2018 de
https://www.musicradar.com/tuition/tech/a-brief-history-of-pro-tools-452963
34

Great Big Story (2017, enero 12). The Magic of Making Sound |That's Amazing [vídeo]
Recuperado de https://www.youtube.com/watch?v=UO3N_PRIgX0

IMBd (s.f.). Wall-E: Awards. Recuperado 9 mayo 2018 de


https://www.imdb.com/title/tt0910970/awards

Isaza, M. (2009). Ben Burtt Special: Wall-E - The Definitive Interview. Recuperado 10 mayo
2018 de http://designingsound.org/2009/09/15/ben-burtt-special-wall-e-the-definitive-interview/

Jade (2017). Theatrical History: How the voice over genre evolved. Recuperado 2 abril 2018.
https://www.matinee.co.uk/blog/how-voice-over-evolved/

James, B. (2015). A History of Voice Over: 1900-2015. Recuperado 1 abril 2018.


https://www.matinee.co.uk/blog/a-history-of-voice-over-1900-2015/

Larson Guerra, S. (2010). Pensar el sonido: una introducción a la teoría y la práctica del
lenguaje sonoro cinematográfico. México: Centro Universitario de Estudios Cinematográficos,
UNAM.

Lawson, T. y Persons, A. (2004). The magic behind the voices: A who's who of cartoon voice
actors. University Press of Mississippi.

Lyver, D. (2016). Basics of video sound (2ª ed.). London: Focal Press.

Meslow, S. (2011, octubre 28). How celebrities took over cartoon voice acting. Recuperado 2
abril 2018 de https://www.theatlantic.com/entertainment/archive/2011/10/how-celebrities-took-
over-cartoon-voice-acting/247481/

Moody, A. (2008). How did they make that sound on WALL-E. Recuperado 9 mayo 2018 de
https://www.awn.com/news/how-did-they-make-sound-wall-e

Morris J. (Prod.), Stanton A. (Dir.). (2008). Wall-E [DVD]: Animation Sound Design: Building
Worlds From The Sound Up Legendary Sound Designer Ben Burtt Shares Secrets Of Creating
The Sounds Of WALL-E. EE.UU.: Disney Pictures y Pixar Animation Studios.

Odessa Animation Studio (s.f.). History of Animation. Recuperado 8 marzo 2018 de


http://animation-ua.com/en/school-animation/history-of-animation/178-history-of-animation
35

Peco, R. (2015, mayo 26). Los actores virtuales, más cerca gracias a los superordenadores. El
País. Recuperado 10 marzo 2018 de
https://elpais.com/tecnologia/2015/05/26/actualidad/1432635393_525136.html

Pixar Animation Studio. Voice Acting. Recuperado 1 abril 2018 de http://pixar-


animation.weebly.com/voice-acting.html

Rees, P. (2001). Synchronisation and SMPTE time code. Recuperado 3 abril 2018 de
http://www.philrees.co.uk/articles/timecode.htm

Reeves, A. (2014). A brief history of sound design. Recuperado 7 abril 2018 de


http://beakstreetbugle.com/articles/view/297/a-brief-history-of-sound-design

Rose J. (2014). Producing great sound for film and video: Expert tips from preproduction to
final mix. Taylor & Francis Group.

Rueda, J. (2017, junio 9). Sintetizadores: Introducción para principiantes. Recuperado 16 abril
2018 de https://www.thomann.de/blog/es/sintetizadores-para-principiantes/

Skweres, M. (2006, abril 12). Audio for animation. Recuperado 31 marzo 2018 de
https://www.awn.com/animationworld/audio-animation

The Los Angeles Film School (2017, julio 9). The importance of sound. Recuperado 10 abril de
https://www.lafilm.edu/blog/the-importance-of-sound/.

Thorton, M. (2018, marzo 11). The history of Pro Tools 2000-2007. Recuperado 13 abril de
https://www.pro-tools-expert.com/home-page/2018/2/26/the-history-of-pro-tools-2000-to-2007

Thorton, M. (2017, mayo 7). Loudness and dynamic in cinema sound - Part 1. Recuperado 21
abril de https://www.pro-tools-expert.com/home-page/2017/6/21/loudness-and-dynamics-in-
cinema-sound

Viñas, E. (2017). Así creamos las voces de una animación. Recuperado 1 abril 2018 de
http://www.voceslab.com/asi-creamos-las-voces-para-una-animacion/
36

Woodside, J. (2014). La música y el diseño sonoro en el cine. Revista Ciencia: el cine


contemporáneo, 65(2) ,26-31. Recuperado 5 abril 2018 de
http://www.revistaciencia.amc.edu.mx/images/revista/65_2/PDF/MusicaYDisenoSonoro.pdf

Wyatt, H. y Amyes, T, (2004). Audio post production for television and film: an introduction to
technology and techniques (3ª ed.). Focal Press.

Zeke. (2015). A Quick History of Animation. Recuperado 10 marzo 2018 de


https://www.nyfa.edu/student-resources/quick-history-animation/

También podría gustarte