Audio Diseño

Page 1

AUDIO

DISEÑO MIHAELA RADULESCU DE BARRIO DE MENDOZA MILAGRO FARFÁN MORALES ANDRES LEON GEYER

2018 FACULTAD DE ARTE Y DISEÑO



LABORATORIO DE INVESTIGACIONES Y APLICACIONES DE SEMIÓTICA VISUAL

AUDIO

DISEÑO MIHAELA RADULESCU DE BARRIO DE MENDOZA MILAGRO FARFÁN MORALES ANDRES LEON GEYER

2018 FACULTAD DE ARTE Y DISEÑO


AUDIO DISEÑO Mihaela Radulescu de Barrio de Mendoza Milagro Farfán Morales Andres Leon Geyer © Laboratorio de Investigaciones y Aplicaciones de Semiótica Visual Pontificia Universidad Católica del Perú. Facultad de Arte y Diseño Av. Universitaria 1801. San Miguel. Lima 32. Perú Editoras: Mihaela Radulescu de Barrio de Mendoza / Milagro Farfán Morales Correctora de estilo: Aixa Chaparro Salinas Diseño: Edward Venero Diagramación: Judit Zanelli Prohibida la reproducción de este libro por cualquier medio, total o parcialmente, sin permiso expreso de los editores. Se utilizaron caracteres Arial en 10 puntos para el cuerpo del texto


ÍNDICE EL SONIDO ES UN SIGNO Mihaela Radulescu de Barrio de Mendoza

ENSAYO 1 QUÉ ES, O PUEDE SER, SONIDO Andres Leon Geyer

EL AUDIO DISEÑO EN EL MARCO DE LA CREACIÓN CINEMATOGRÁFICA Milagro Farfán Morales

TÉCNICAS DE SUPERVIVENCIA (EN LA PRODUCCIÓN) ACÚSTICA Andres Leon Geyer

5



EL SONIDO ES UN SIGNO Mihaela Radulescu de Barrio de Mendoza

7


8


El sonido como producto cultural es un signo construido con una intención comunicativa, que participa en una estrategia generativa de sentido. Su funcionamiento se debe a un fenómeno físico-perceptivo cuyos efectos en el ser humano cuentan con una amplia diversidad. Y no sólo en el ser humano sino en todos los componentes del mundo que nos rodea. Masaru Emoto, en su libro Mensajes del agua , ha demostrado como las moléculas de agua expuestas a diferentes sonidos desarrollan diferentes formas en sus cristales: la música clásica, como la Pastoral de Beethoven o la Sinfonía No.40 en sol menor de Mozart, generan formas simétricas mientras que el heavy metal genera estructuras fragmentadas. El autor observó los efectos particulares de composición y expansión de los cristales relacionándolos con la composición sonora: Aire para cuerdas en sol de Bach provocó una extensión libre mientras que Variaciones Goldberg de Bach tuvo como efecto una expansión hexagonal progresiva; Canción de despedida de Chopin provocó en la base de los cristales divisiones que la separaban en pequeñas partes. El poder formativo del sonido y sus efectos perceptivos, cognitivos y afectivos en el ser humano han sido empleados por las antiguas culturas en sus rituales y sus creaciones. En la cultura griega el sonido se articulaba en el término μουσική (música) con el texto poético y la danza, en representación del conjunto de elementos que construían una realidad para expresar su visión del mundo. La música comenzó a escribirse en Grecia entre el siglo V y el IV a.C., con un sistema que diferenciaba entre la parte vocal y la parte instrumental. Su 9


vocación moral y educacional se desarrollaba en varios ámbitos: la poesía, el teatro, el ejército, el gimnasio, las ceremonias civiles y religiosas. La música era materia obligada de estudio y sus instrumentos eran la lira, la cítara, el arpa y el aulos, un instrumento de viento, que vinculan por su uso los rituales religiosos con las tragedias griegas que incluían poesía, danza y música. No faltó el pensamiento estructurante del sonido en relación a su rol formativo. La Escuela pitagórica, fundada por Pitágoras (585-479 a.C) desarrolló una teoría musical basada en las matemáticas, centrando la atención en los efectos de la música en el universo y en el ser humano. El mismo enfoque fue desarrollado por Platón y Aristóteles. La música ha recorrido los tiempos aportando además a otras artes, el teatro, la ópera, el cine. La música en las películas es parte de la “banda sonora”, en la cual interactúan para construir el sentido y la atmósfera de la película, la voz, los ruidos, los efectos sonoros, los ambientes, los silencios y la música. Incluso en el cine mudo, la música estaba presente en vivo, acompañando el desarrollo de la película con una interpretación sonora. Ulteriormente, en la producción de la película sonora, orquestas completas grababan directamente en set acompañando el desarrollo visual de las imágenes. La producción sonora se ha diversificado actualmente con estrategias, técnicas y herramientas, sobre todo por el progreso de la informática. El cine mudo fue sonorizado, lo que condujo a nuevas decisiones de representación y significación a través del sonido. Un ejemplo que ilustra de manera clara la situación es “L’Inferno” , película muda italiana del 1911, con una duración de 70 min., dirección: Giuseppe de Liguoro, Francesco Bertolini, Adolfo Padovan. La música en la versión restaurada pertenece a Tangerine Dream, un grupo alemán de música electrónica que surgió a finales de los 1960 y que ha trabajado para más de 20 películas como “Sorcerer” (1977), “Risky Business” (1984 ), “Catch me if you can” (1989) y videojuegos como “The Music of Grand Theft Auto V” (2013). El grupo tiene dos sellos discográficos: Tangerine Dream International ( 1996 - 2005) y Eastgate ( 2005- 2014). Con este último editó series temáticas, entre las cuales está 10


“The Divine Comedy series” (inspirada en La Divina Comedia de Dante): en 2002 se editó el disco “Inferno”, en 2004 “Purgatorio”, en 2006 “Paradiso”. “Infierno” articula lo instrumental con lo vocal, lo etéreo con lo dramático. En sus 18 piezas usa sintetizadores y percusiones y llega a cumbres de gran intensidad sonora y valor alegórico. Esta es la música que se proyectó sobre la película muda, que podría considerarse una adaptación surrealista del poema de Dante Alighieri “La divina comedia”, cuyo concepto visual y estética pertenecen a Gustavo Doré. Los efectos especiales son inspirados en Méliès; destaca el uso de los contrastes y de la oscuridad, los procedimientos narrativos de la elipsis de tiempo, la escala de planos y el dinamismo de la cámara. La primera partitura musical de la película perteneció a Raffaele Caravaglios. En 2004 fue relanzada con la partitura de Tangerine Dream y sus 18 piezas:Before the Closing of the Day (4:50);The Spirit of Virgil (2:39); Minotaurae Hunt at Dawn (3:24); Those Once Broke the First Word (3:38);Dante in Despair (3:25);Io Non Mori (5:49);Vidi Tre Facce (4:41);At the Deepest Point in Space (2:38);L’Omperador del Doloroso Regno (4:45); Voices in a Starless Night (4:14); Fear and Longing (3:06); Fallen for Death (4:38); Where All Light Went Silent (3:39); Charon, Il Barchere (3:59); La Grey de las Almas Perdidas (7:28); Justice of the Karma Law (3:02); As the Sun Moves Towards Heaven (7:57); Beatrice, l’Âme Infinie (5:10). La música le aporta a la película una dimensión cósmica y solemne donde el sonido puro de las voces femeninas se entrelaza con la vibración de los sintetizadores, llevando los significados más allá del dolor y el sufrimiento a una dimensión armónica de los acontecimientos. Lo visual y lo sonoro El sonido puede asumir las funciones de representación y significación en diferentes niveles de poder y rol formante. En la película “Blue” (1993) de Derek Jarman lo visual consiste en una pantalla azul y las voces, la música de fondo y los ambientes cambiantes construyen el sentido. En el otro extremo de la articulación entre lo visual y lo sonoro, en “Las horas” (2002), dirigida por Stephen Daldry, la banda sonora de Philip 11


Glass sigue la fragmentada estructura narrativa de las tres historias asegurando la continuidad de las unidades de sentido por capas de sonidos. Hay un ensamblaje imprescindible entre lo visual y lo sonoro. Philip Glass, quien participó en muchas películas, “Candyman” (Bernard Rose, 1992), “The Truman Show” (Peter Weir, 1998) entre otras, es autor de piezas musicales experimentales como “Music in Twelve Parts” (1974) o la ópera experimental “Einstein on the Beach” (1976), siendo un importante representante de la música minimalista. En “ Powwaqatsi: Life in Transformation” ( 1988), segunda parte de la trilogía Qatsi dirigida por Godfrey Reggio, junto con “ Koyaanisqatsi” ( 1983) y “Naqoyqatsi” ( 2002) , la banda sonora de Philip Glass asume junto con las secuencias visuales la narración y reemplaza cualquier posible texto escrito o hablado. La relación entre lo visual y lo sonoro es de traducción de las imágenes, para intensificar las sensaciones que éstas producen, con un gran poder apelativo. Una pieza ya existente aporta su propia semántica, creando un diálogo con la construcción visual. En “ Pleasure Dome” ( 1954) , un cortometraje de Kenneth Anger, la banda sonora es la “Misa Glagolítica” del compositor checo Leoš Janáček (1854-1928) que aporta sus efectos afines a la filosofía y la perspectiva mágica de Aleister Crowley y de sus seguidores, que apasionaba al director. Anger incorpora imágenes de la película muda ” L’Inferno” anteriormente mencionada . La intervención musical La música interviene como una construcción de sentido sonora que dialoga con la construcción visual, en unidades secuenciales de signos que funcionan en conjunto. Dentro de la variedad de intervenciones musicales podría tomarse en cuenta las siguientes posibilidades: - Música adaptada, escogida por lo general entre temas clásicos o que gozan de reconocimiento público, para aportar desde su semántica su acción significante, en diálogo con la narrativa de la cual participa y con la construcción visual con la cual dialoga. Dos ejemplos: 12


“La naranja mecánica” y “Apocalypse Now”. - Banda Sonora Original. Creada para la película, se construye en dos dimensiones, secuencial para participar en el conjunto de signos audiovisuales, y global, para aportar a la coherencia, cohesión y progresión de la narración y del discurso. Ejemplos: “ Las Horas” , “Indiana Jones”, “Titanic”, “Grease” etc. - Música diegética, que interviene desde el tejido de la escena y que los personajes escuchan, con el aporte sonoro de algunos de los elementos que la configuran, como una radio, un televisor, una canción que alguien canta, una orquesta en una sala de baile. Un ejemplo: “ Amadeus”. - Música incidental ( score). Solo la escuchamos nosotros, los espectadores de la película. Representa a los personajes y los momentos que viven en la película, siendo un acceso sensorial a su mundo interior o a su estado psicológico. Los personajes pueden ser conscientes o no de este estado, pueden querer darlo a conocer o no; de hecho es un puente secreto entre el director y nosotros, un dialogo directo que es parte de la enunciación fílmica. Mientras que la banda sonora (soundtrack) incorpora canciones o fragmentos de canciones, la música incidental se crea como obra integral y orquestada, que suele manifestarse de manera recurrente, desde el inicio hasta el final de la película. Puede ser instrumental como en “ Blade Runner “ o cantada como en “ El muro”. La generación de sentido El sonido es generador no sólo de sensaciones sino también de significados. El espectador experimenta gracias al sonido efectos perceptivos, cognitivos y afectivos. Tiene acceso a sus valores e ingresa en una atmosfera semántica esencial para la narrativa de la película. Observemos el funcionamiento del sonido en la generación de sentido a partir de las películas del 13


director ruso Andrei Tarkovski. El valor semántico de la práctica discursiva sonora se basa en la capacidad de representación y significación del sonido. Un ejemplo: la presencia del sonido de la lluvia en las películas de Tarkovski. La lluvia como signo natural interviene con imagen y sonido, como lluvia torrencial, un aguacero, en “ La aplanadora y el violín “, el mediometraje con el cual el director se graduó. En “Stalker” su sonido es rítmico y constante, como el latir de la naturaleza, que los personajes deben redescubrir. En los dos casos, la lluvia como imagen y sonido que se integran de manera cohesiva refiere experiencias naturales, las representa de manera referencial pero al mismo tiempo desarrolla valores de significación, aportando en un caso la sensación de límite e intensidad que la problemática de la película requiere para contar la historia del chico violinista y de su amigo el obrero, y en el otro el sentido de la naturaleza que los personajes perdieron en su vida cotidiana. La significación resalta cuando la representación registra diferencias patentes con los referentes. En “ Solaris “ llueve dentro de la casa no por un problema físico de la casa sino como metáfora de la memoria que se limpia, para que las relaciones entre los personajes mejoren. El agua por lo general cumple con un papel importante en las películas de Tarkovski, como el gorgoteo del agua en las cañerías de “Nostalgia” y “ Stalker” o en “ El espejo” cuando se escucha una campana y una madre joven se mira en el espejo en el cual se ve una anciana que le tiende una mano llameante mientras se escucha la música de Pergolesi. Las connotaciones de la campana como advertencia, del agua como el paso del tiempo y de la música como sentido plenario de la existencia se conjugan en una significación que interviene en la narrativa y la construcción de los personajes, evocados por el narrador a través de una exploración de sus recuerdos, en busca de la afectividad y la percepción perdidas en aquel momento de la vida adulta cuando comienza el viaje en su memoria. La connotación es un recurso que intensifica su acción significante cuando disminuye la intervención de la representación. En “ La infancia de Ivan” por momentos se escuchan las voces de los soldados alemanes pero los alemanes no aparecen. En 14


contraposición, los soldados rusos aparecen y se quedan en silencio mientras que se escuchan viejos cantos rusos. Lo sonoro tiene el rol principal en la construcción del sentido, definiendo sensorialmente la relación entre los invasores alemanes y los defensores de la tierra rusa, subrayando el conflicto entre un ejército agresor y la pertenencia de los soldados rusos a una comunidad histórica a la cual representan y defienden. Al oponer invasión y resistencia, ejercito y comunidad, grito y silencio, ausencia musical y presencia musical, lo sonoro aporta sensaciones y conceptos que van a tener una presencia reiterativa en la película. En la misma película se trabaja otra oposición, víctima y victimarios, en el martirio de Ivan , donde vuelven los gritos en alemán sin que se vea quienes los emiten, mientras que las imágenes mezclan instrumentos de tortura, una celda y el rostro sufrido de Ivan. Estos recursos connotativos se repiten en otras películas. En “ El Espejo” hay una secuencia documental del Ejército donde se muestra a soldados que cruzan un lago mientras se escuchan un lento redoble de tambores y un coro lejano que evocan la muerte cercana de los soldados, mientras que la voz in off del poeta ruso Arseni Tarkovski, padre del director, recita un poema sobre la inmortalidad. Los elementos que intervienen para hacer funcionar la connotación son elementos referenciales, vivenciales o culturales. Su importancia depende del rol que se les asigna en la construcción de sentido y de su presencia reiterativa. Por ejemplo, en “ Stalker” se escucha constantemente el paso de los trenes, que significan la sociedad mecanizada, atropelladora y pesada que empuja a los personajes a buscar una salida o una solución en la Zona. Los referentes culturales son numerosos en las películas de Tarkovski. En “ Andrei Rubliov” hay una voz in off en la monasterio de Andronikov que introduce un pasaje de la Biblia que habla de la vanidad. En “ Stalker” mientras que los tres personajes se quedan dormidos en la Zona y el agua baja, dejando ver chatarra, jeringas, peces, monedas, ametralladoras, un reloj, un resorte, se escucha una voz femenina que lee un pasaje del Apocalipsis y termina en carcajadas. En el final de la película, en la casa de Stalker, su hija lee un libro en la mesa, mientras que una voz femenina in off recita un poema. La 15


música también funciona como referente cultural. En “ El Espejo” un adolescente tiene una sesión de hipnosis que lo ayuda a superar la tartamudez; exclama “ Puedo hablar” mientras que se escucha música de Bach que redimensiona sus palabras a medida del problema superado. En la misma película una secuencia introduce a un departamento de españoles refugiados de la Guerra Civil. Son de Andalucía, hecho subrayado junto con la nostalgia por la patria perdida por el canto jondo que se escucha, mientras se ven imágenes editadas de noticieros sobre la Guerra Civil española y suena la sirena del barco que va a llevar a los refugiados a Rusia. En la secuencia siguiente, otras imágenes del noticiero ofrecen una imagen de paz con globos aerostáticos, mientras se escucha música de Pergolesi. Las mismas palabras, más allá de una referencia textual, pueden funcionar como referente cultural. En “Andrei Rubliov”, en el episodio de la campana, hay una comitiva italiana que habla en su idioma, sin subtítulos o doblaje, sólo para referir su procedencia, sin importar sus comentarios. El uso de referentes culturales crea a veces intertextualidades, como en el caso de los textos o de la música. La apropiación aporta sentidos y a la vez introduce las películas en redes culturales. Son conexiones que funcionan en los dos sentidos, porque proporcionan al espectador el ingreso a otros productos culturales a través de un abordaje audiovisual. Aunque el aporte semántico y sus efectos pragmáticos son esenciales en la construcción de sentido, no hay que perder de vista el juego combinatorio de lo sonoro, la dimensión sintáctica de su intervención. En “ Stalker “ el contrapunto destaca la oposición entre el traqueteo del tren del mundo alienado con la fuerza entusiasta del Bolero de Ravel o con la comprensión del carácter místico de la existencia del coral de la Novena Sinfonía de Bethoven. El coral de la Novena Sinfonía suena también en “ Nostalgia” en la casa del loco Doménico, en contraste con el chirrido de una sierra sin fin, que alterna con truenos, campanas y traqueteos de tren. El juego combinatorio y su acción semántica producen efectos perceptivos, cognitivos, afectivos, culturales. En “ Nostalgia “, en la secuencia de la procesión de mujeres con la imagen 16


de la Virgen, suenan las letanías y la imagen de la Virgen se abre y de su pecho vuela una bandada de pájaros, referencia a la Madonna del Parto de Piero della Francesca. La secuencia ocurre en Italia. Desde lo alto cae una pluma sobre la cabeza del personaje, que es ruso. Al fondo se ve la casa de la infancia del héroe, en Rusia, y se escuchan cantos tradicionales rusos. Italia y Rusia aportan el presente y el pasado, sus tradiciones, su relevancia para el héroe, por comparación y finalmente integración de las dos historias en las vivencias del personaje principal. El presente y el pasado se integran también en el sueño de Andrei, el personaje principal de “ Nostalgia”, donde aparece su casa de la infancia en sepia. Hay un amanecer, un niño, mujeres, caballos y en .contrapunto canciones italianas y coros rusos, juntando las dos culturas en la vida del personaje, soñado en sus inicios. La muerte de Andrei es acompañada del Requiem de Verdi, mientras de en lo visual se juntan imágenes de Italia y Rusia: un ícono, los muros de la abadía de San Galgano de Italia que rodean la pequeña casa rusa de la infancia frente a la cual Andrei acaricia a su perro, sentado ante un charco, bajo copos de nieve. Lo sonoro aporta cantos lejanos y ladridos. El proceso creativo La intervención de lo sonoro en el audiovisual supone un proceso creativo que valora su participación en la construcción de sentido. Intervienen en las decisiones correspondientes directores, compositores, editores. El director tiene la visión global del conjunto de intervenciones sonoras, mientras que los compositores y los editores tienen una participación específica. El compositor puede intervenir durante el rodaje sobre todo por la música diagética o al inicio de la edición. Su colaboración con el director es constante para la toma de decisiones, referentes a tiempos, ritmos, estilos, necesidades narrativas, discursivas y expresivas. Es un proceso que se conoce como spotting. Las adaptaciones entre lo visual y lo sonoro pueden hacerse desde varios puntos de vista, por parte del editor, del compositor o del editor musical, en lo referente a lo sonoro; en diferentes momentos y con diferentes rangos de libertad creativa. Un ejemplo de libertad creativa es la que tuvo el compositor Hans Zimmer para la película “ Inception” de Christopher Nolan, que 17


no fue creada para el seguimiento específico de las escenas sino como una versión musical del concepto de la película, que el director empleó en la postproducción como fuente para la narrativa audiovisual. Lo mismo ocurrió con la participación del​compositor Gustavo Santaolalla en la película “ Brokeback Mountain” . La sincronización articulará lo visual y lo sonoro en la dimensión narrativa discursiva. La composición dependerá del tipo de película y su intención comunicativa, parámetros que rigen la construcción de la película. La orquestación proporcionará las dimensiones y el impacto de la intervención musical. La grabación llevará adelante la producción sonora. Y para terminar, el testimonio de David Lynch sobre el poder del sonido: “ Ya desde el principio, descubrí el poder del sonido. Cuando hice esa pintura viva con el proyector y la pantalla esculpida, también se reproducía el sonido de una sirena. Desde entonces, siempre he creído que el sonido es la mitad de lo que hace que una película funcione. Tienes la imagen a un lado, el sonido al otro y, si sabes como combinarlos de forma apropiada, el todo es más fuerte que la suma de las partes. La imagen está constituida de distintos elementos, la mayoría de ellos difíciles de controlar a la perfección: luz, encuadre, interpretación, etc. Sin embargo, el sonido – e incluiría la música en esta categoría – es una entidad concreta y poderosa que habita físicamente en la película. Por supuesto, hay que encontrar el sonido adecuado, lo que implica muchas conversaciones y muchas pruebas. Hay muy pocos directores capaces de utilizar el sonido más allá de un aspecto puramente funcional y el motivo es que sólo se preocupan por el sonido después de haber rodado la película. No obstante, los calendarios de posproducción suelen ser tan apretados que uno nunca tiene tiempo de enfrentarse a nada interesante, ya sea con el diseñador de sonido o con el compositor. Por eso, durante los últimos años – creo que desde Terciopelo azul – he tratado de hacer la mayor parte de la música antes del rodaje. Comento el argumento con mi compositor, Angelo Badalamenti, y graba todo tipo de música que voy escuchando mientras estoy rodando la 18


película, bien con los auriculares durante las escenas de diálogo o en altavoces para que todo el equipo se ponga en situación. Es una gran herramienta; es como una brújula que te ayuda a encontrar la dirección adecuada. Trabajo de igual modo con las canciones. Cuando oigo una canción que me gusta, la grabo y la guardo en algún sitio hasta encuentro la película adecuada para utilizarla.” David Lynch en: Entrevistas a cargo de Laurent Tirard(2007). Buenos Aires: Paidós. Págs. 141-142.

19


20


ENSAYO 1 QUÉ ES, O PUEDE SER, SONIDO Andres Leon Geyer

21


22


En este ensayo vamos a explorar qué es sonido, y antes de qué y cómo puede significar, porqué puede significar. Así que comencemos con algunas preguntas. 1.1 - El material del cuál están hechos los ruidos ¿Qué es sonido? Lo que se puede oír. Bueno, eso sería una respuesta demasiado corta. Cambiemos la pregunta entonces: ¿en qué consiste el sonido? Lo que llamamos sonido es nuestra percepción de ondas. El movimiento de un material, normalmente aire, es registrado por nuestros oídos. El aire se puede mover en ondas, como las olas del mar. Y esas ondas ponen en movimiento, dentro de nuestro oído, a una membrana, la cual genera impulsos nerviosos que terminan llegando a nuestro cerebro. Si mediante nuestro aparato de habla (los pulmones, cuerdas vocales y boca) exhalamos aire en cierto ritmo y forma, producimos nuevamente ondas que pueden a su vez ser registradas por otros humanos. Es así como surge una conversación. Las ondas sonoras tienen, como las del mar, pero también las de la luz (que entran a la categoría de ondas electromagnéticas), una frecuencia, es decir, cierta cantidad de movimiento en cierto tiempo. Las medimos en hercios, o Hertz. Más Hz significa más ondas por segundo y un tono más alto, y menos es una onda más lenta. Las frecuencias que podemos escuchar abarcan 23


desde 20 Hz en el sonido más grave perceptible, hasta 20000 Hz (20 kHz) en el pitido más agudo. Este espectro es 10 veces más amplio que el de las frecuencias de luz que podemos percibir con nuestra vista. Como vemos, nuestro oido es un órgano extremadamente sensible - tanto así que, a fin de cuentas, no existe el silencio absoluto. Siempre oiremos algo, y aunque sea, como constató el músico John Cage en una cámara de silencio, nuestro propio pulso.1Observemos a continuidad cómo funciona este magnífico órgano.

Fuente: https://programarfacil.com/blog/arduino-blog/sensor-ultrasonico-arduino-medir-distancia/ 1.2. La sensibilidad exacta Volvamos a preguntar ¿Qué es un sonido? Lo que oímos. Pues bien, variemos nuevamente la pregunta: ¿En qué consiste oír? Como mencionamos, las ondas sonoras hacen vibrar, dentro de nuestro órgano auditivo, una membrana llamada tímpano. Este, en conjunción con el oído medio e interno, amplifica el movimiento y lo convierte en impulsos nerviosos. El mecanismo es impresionantemente complejo y exacto. Esto no extraña si es que pensamos que es un sentido muy antiguo, mucho más antiguo que la vis24


ta, y probablemente más evolucionado. El movimiento mínimo del tímpano que somos capaces de registrar tiene el tamaño de una molécula de agua.2Podemos hacer un experimento para comprobar su exactitud: si hacemos vibrar una cuerda oímos untono. Si detenemos esa cuerda en el medio, reduciendo así la vibración a la mitad, oímos ese tono una octava más alto. Nuestro oído puede reconocer dónde exactamente tenemos que agarrar la cuerda para que esa octava no desafine, es decir, puede discernir el punto medio con una precisión de milímetros. ¿Y qué tan exactos somos con nuestra vista para calcular la mitad de una distancia? Fuente: Zoph en Wikipedia CC BY-SA 3.0 Si el oído es tan antiguo en la evolución, debe haber tenido mucha importancia para la detección de peligros y para nuestra ubicación en el espacio. La sigue teniendo - consideremos que el oído nunca descansa, no lo podemos cerrar como los ojos, y no puede dirigirse, como la mirada. En otras palabras, está todo el rato percibiendo todo el entorno, inclusive mientras dormimos (al igual que el olfato y el tacto). Comparado con la vista que puede seleccionar hacia donde se dirige, el oído recibe el sonido de manera relativamente pasiva. Sin embargo, el entorno que puede percibir es mucho más amplio: podemos oír cosas detrás de la pared, mientras nuestra vista termina en los primeros ob25


stáculos. Eso tiene que ver con cómo se expanden las ondas de sonido y cómo las de la luz - las primeras irradian y se perpetúan de manera más amplia y constante. El oído es también, como decíamos, fundamental para nuestra ubicación. En esta nuestra época de hipervisualidad el ojo parece ser el sentido principal, también en lo que refiere la percepción del espacio. Pero quizá estemos subestimando nuestro antiguo sentido auditivo, cuya manera de registrar el espacio es tan compleja como sutil. 1.3 El espacio a través de losonoro Nuestra percepción auditiva de nuestra ubicación espacial es construida por diversos factores: - El rompecabezassonoro Podemos construir nuestro entorno mediante los elementos que oímos. En este mismo momento, el lector oye una diversidad de sonidos paralelos. Quizá voces a lo lejos, tráfico a diversas distancias, etc. Sabemos por la composición a partir de las fuentes de ruido en qué contexto nos encontramos. - Elefectoestéreo El oído no solo nos cuenta del espacio en el que estamos, sino también de lo que lo conforma. Que nuestros oídos estén en dos lados opuestos de la cabeza permite que puedan percibir mínimas diferencias en el tiempo de llegada de sonido. Si bien el sonido viaja a 334 metros por segundo, nuestro oído puede percibir una diferencia de 0.00001 segundos.3 Esto nos permite reconocer si un sonido impacta primero en un oído y luego en otro, y por lo tanto de qué lado viene. Inclusive podemos calcular la velocidad de un objeto por el cambio de esta relación. Sabemos de esta manera la posición de los objetos que nos 26


circundan en relación a nosotros y viceversa, también en movimiento (¿viene un carro de la derecha?). Si lo comparamos con la vista, es la distancia entre ambos ojos la que nos permite la visión tridimensional. - El efectomurciélago Tenemos cierto parecido con los murciélagos: la ecolocalización. Por lo anteriormente explicado, podemos ubicar de dónde viene un sonido. Esto implica que si emitimos un sonido (una palabra, una pisada), podemos ubicar de dónde rebota más rápidamente, y con ello detectar los objetos a nuestro alrededor. No solo eso: por la cantidad y calidad del sonido que vuelve, podemos reconocer características del material (si es absorbente, es decir, suave, o si rebota en algo duro, e inclusive t ipos de material por resonancia).Todoestosucede constantemente, mientras hablamos o hacemos ruido al desplazarnos, o al detectar la conducta de un sonido en nuestroentorno.

Fuente: https://www.uni-muenchen.de/informationen_fuer/presse/bilder/startseitenmeldung/2013/schallwellen_535_web.png Como vemos, la mayor parte de estos procesos, tan finos como complejos, no los conocemos ni somos conscientes de ellos. Suceden en el umbral entre lo inconsciente y el instinto. Es justamente ese aspecto relacionado con el subconsciente, 27


así como la pasividad y la exposición constante, lo que convierte la banda sonora en una herramienta excelente para dirigir y moderar la percepción de un vídeo opelícula. Para poder estudiar cómo dirigir la percepción sonora en el audiovisual, revisemos ahora cómo puede surgir sentido en ella. 1.4 El oído como lupa, y quién le ayuda Volvamos a hacer la pregunta. ¿Qué es un sonido? Lo que escuchamos Podemos involucrar aquí una nueva noción: escuchar. Escuchar lo entenderemos como poner atención por un lado, y por otro darle un sentido a lo oído. Ambos aspectos los tendremos que analizar para entender la función del audio en una película. No olvidemos que uno de los aspectos principales de lenguaje cinematográfico es que emula el modo cómo percibimos. No es simplemente una mirada, si no una mirada construida artificialmente. La cámara quizá registre algo, pero un algo seleccionado y encuadrado (imitando cómo ponemos atención y cómo, mediante el plano, establecemos cercanía o distancia), y el montaje combina los fragmentos desde los que construiremos los espacios, establecemos relaciones, etc. Lo mismo sucede con el sonido en el cine, pues es un oído mediado, construido, el cual nos dirige a percibir una realidad que ha sido generada - y así entender un contendido que ha sido ideado. Entremos entonces a esto de dirigir nuestra percepción. El primer factor es hacia dónde es llevada nuestra atención acústica. Pensemos que estamos sentados en una cafetería llena. A pesar de las muchas voces a nuestro alrededor, podemos entender lo que dice la persona enfrente. Y eso no se debe exclusivamente a que su voz tenga más volumen, a veces no es el caso. Es más, 28


quizás nos desconcentramos y comenzamos a oír una conversación en otra mesa, a pesar de que su volumen se funda con las demás. ¿Cómo es esto posible? Merleau-Ponty habla de que, a pesar de tener dos ojos, tenemos una sola mirada, la cual surge dentro de nosotros.4Lo mismo podemos afirmar de lo que escuchamos. Nuestro cerebro es capaz de filtrar los sonidos, de seleccionar qué es lo que quiere entender frente a un resto que desaparecerá en un murmullo anónimo. Es decir, poseemos la capacidad de seleccionar, amplificar y suprimir sonidos al procesar estímulos auditivos. Es como hiciésemos un mezcla en nuestra cabeza, manipulando el volumen de las fuentes que podemos discernir (consciente o inconscientemente). Considerando lo que hemos explicado con anterioridad, aquella masa de sonidos simultáneos que sin parar percibimos constantemente, es un logro nada desdeñable. Otra capacidad física, relacionada con lo anterior, es que al parecer nuestro oído puede suprimir ciertas frecuencias por contra-vibración en el órgano mismo. Sin embargo, esto no es tan relevante en este proceso de filtrado, pues por ejemplo las voces de la cafetería se mueven en un solo espectro defrecuencias. Un ejemplo interesante: en la escena del restaurante de la película Playtime, la cual se caracteriza por suinesperado juego con sonido, la banda al fondo toca en silencio.Inclusive cuando el público baila tocan calladamente. Esta capacidad de seleccionar, amplificar y suprimir no la tiene un micrófono - ese simplemente registra todo. Es por eso que cuandoescuchamosuna grabación, nos damos conla sorpresa de que suena totalmente diferente a lo que nosotros hemos escuchado al grabar. Con la cámara se da eso en mucho menor medida. Y es por lo mismo que el proceso de presentar un espacio acústico, de crear un ambiente sonoro, tiene que ser una construcción mucho más consciente que la mera grabación. Veremos al final de este libro, en la sección técnica, que tene29


mos que registrar por separado cada fuente (después de haberla reconocido o ideado), para luego ensamblarlas de acuerdo a la relevancia que queremos que tengan; al armar la atención de nuestro público cual llevándolo de la mano a fijarse en lo que le queremos mostrar acústicamente.

1.5 Las formas del sonar Hemos establecido que el sonido en un producto audiovisual es algo armado, emulando cómo nuestra propia mente construye lo que termina siendo la percepción de nuestro entorno. Veamos a continuación cómo se posibilitan significados y asociaciones generales dentro del lenguaje audiovisual, antes de entrar a los significados a establecer. Al diseñar una puesta en escena cinematográfica (mise en scene), se tiene en cuenta la imagen, el montaje, y el sonido - y ello nos sirve analizar sus funcionamientos e interrelaciones. A menudo, hay cosas que se podrían decir también con la imagen, pero son solucionadas mediante el sonido. Por ejemplo, digamos que tenemos una escena en la que alguien va a entrar por una puerta, y no tenemos tiempo para filmarlo acercándose por el pasadizo, así que sólo utilizaremos el sonido de sus pasos. 30


Al analizar qué oímos en el cine, podemos usar dos clasificaciones básicas: el tipo de sonido por un lado, y por el otro cómo se relaciona con la imagen. 1.5.1 Los tipos de sonido • Lo hablado. Lo primero que se nos ocurre al pensar qué se oye en una película suelen ser las voces, lo que dicen los personajes. Esto puede ser una conversación, un diálogo; pueden ser frases de un gentío; y puede ser la voz del narrador, sea este un tercero o los pensamientos del personaje principal. Podemos encontrar varias formas de cómo se usa el habla. • Música. Esto es más o menos lo segundo que se nos vendrá a la mente. Sabemos bien lo efectiva que es la música para realzar los momentos, volverlos épicos, trágicos, inquietantes. La música puede animar, crear suspenso; su poder de causarnos emociones parece ilimitada. Y es tan importante en el cine que menudo se vende después la banda sonora o Soundtrack de la película - entendiéndose bajo eso solamente la música. Es más fácil imaginarse una película sin diálogos qué una sin música. • Ruidos. Esta categoría es bastante amplia. Para comenzar, estamos acostumbrados a que en la realidad muchas cosas produzcan sonido, así que vamos a esperarlo en una película (a menos que veamos una muda). El caminar de alguien, un carro que pasa, algo que se cae - quizá se pueda decir que pocos sucesos en la vida real no producen ruido. Por ello, es justamente este ámbito el que más creatividad implica y posibilita, donde más podemos y debemos construir y con el que más podemos dar a entender. Tenemos los ruidos que acompañan los sucesos, tenemos aquellos que realzamos, y tenemos aquellos que están en el fondo, describiendo el entorno (lo que mencionábamos en respecto a ubicación) o creando una atmósfera. En un momento retornaremos aello. • Silencios. Naturalmente lo menos evidente, pero no por ello menos importante. Si concebimos el silencio como ausencia de algo, es tan presente y medular en el lenguaje cinematográfico como la pausa en cualquier otro lenguaje. A veces se nos hace 31


notar el silencio explícitamente, como un respiro en el lenguaje cinematográfico mismo (por ejemplo cuando se subraya el callar de alguien, o en el suspenso antes de la sorpresa). Bueno, hemos mencionado anteriormente el silencio absoluto no es perceptible pues siempre oímos algo. Por ello, en la banda de sonido de una película, el silencio total (en el que casi oímos el resto de la audiencia en el cine) es un efecto fuerte. Ahora, si pensamos silencio no como ausencia total, sino como el vivido en la vida real, cómo se oye eso? Pensemos en la conversación en la cafetería: cuando los interlocutores callan, nos damos cuenta del sonido de fondo, el cual estaba todo el rato ahí. Imaginemos qué poconatural sería que no escuchemos absolutamente ningún ruido de fondo. Ese sonido de fondo, que fungirá en las pausas como un silencio bastante poblado, se llama en el diseño de sonido Atmósfera, o, en corto, Atmo. Es vital pensar en este fondo, tanto a la hora de grabar como a la hora de construirlo en edición. Típico en un rodaje es el grito “¡silencio, atmo!” y todo el mundo está absolutamente callado por dos minutos. Y típico es, al imaginar un espacio, idear cada sonido que lo compone. Por ejemplo ¿qué se oye en una cocina? El silencio es por ello también una herramienta de ubicación.

32


Una película que juega con la ausencia de sonido es Gravity, que tiene lugar en el espacio exterior.Sin embargo, si oímos con atención, solo hay dos momentos de silencio total. Vale la pena escuchar qué ilustra el silencio en órbita, y cómo busca causar sensaciones de soledad y amenaza en un entorno mudo y sordo. • Manipulación. No usaremos aquí la palabra efecto, ya que esta se asocia tanto con los sonidos creados (como la espada láser o la explosión) como el retoque de sonido (como el ligero eco que tiene aquel sonido). A nosotros nos interesa en este momento lo segundo, el trabajo de edición sonora. Como tal, no hablamos de un tipo de sonidos propiamente, sino de una manera de afectarlos. Al igual que en la postproducción de la imagen, en aquella del audio se puede manipular sonidos para hacerlos cálidos o fríos, darles características espaciales, distorsionarlos,etc.UnejemploeslapelículaTheHuntforRedOctober(LacazadelOctubre Rojo): en el submarino ruso enemigo los colores y sombras son fríos, entre rojo y azulados, y los sonidos igual, con una calidad fría resaltando las frecuencias típicas del metal, etc., mientras donde los buenos priman colores cálidos, y los sonidos tienen la misma calidad (interesante es averiguar cómo logran eso sin convertirlo en un bote demadera). 1.5.2 Las formas de relación con laimagen Ahora bien, si pensamos que en el audiovisual siempre están los dos elementos, lo acústico y lo visual, podemos también clasificar la relación entre ellos. Dicho de manera más simple, hay diversas maneras cómo podemos asociar, o no, un ruido con lo que lo causa. Algunos factores (entre otros posibles, u otra manera de nombrarlos) son: • Fuente. Si se ve aquello que produce un sonido se habla de sonido diegético. Es el más común de los casos (oigo y veo el carro pasar). Si no veo la fuente directamente se le llama un sonido no diegético (oigo el tráfico afuera). Vale resaltar que la 33


asociación entre sonido y su origen es una construcción por parte del espectador; puede ser que a la hora de sonorizar, se haya usado una grabación de otrocoche. • Tiempo. El sonido puede equivaler a lo que veo en el instante (escucho a alguien hablar, y veo sus labios moverse), es un sonido sincrónico. Es un sonido asincrónico si eso no coincide. Esto no solo sucede en el caso de una falla técnica (como el mismo movimiento de labios des- sincronizado al editar); al contrario, puede utilizarse como un elemento importante de creación de sentido. Si lo pensamos bien, la voz en off del narrador sucede en otro tiempo, o un no- tiempo, en relación a lahistoria. • Concordancia. Podemos ilustrar una acción con el sonido exacto correspondiente. Esto se llama “mickeymousing”: el ratón Mickey da un paso, oigo un paso (conste que una animación no tiene ruido propio, así que probablemente se usaban claquetas). Pero este usar la imagen y el sonido para decir exactamente lo mismo a veces queda corto, ya que también podríamos adjudicar un sonido no literal que produzca nuevas lecturas. Puede ser uno asociable (alguien se levanta y oímos un resorte) o contrapuesto. Volveremos a esto al ver los mecanismos de significado.

34


Como podemos notar, los factores descritos pueden cruzarse: en el primer rubro, el clamor de una masa es a la vez habla y ruido, en la segunda lista el narrador es tanto adigiético como asincrónico. Son meramente perspectivas para analizar cómo se nos da el sonido - o cómo podemos darlo a nuestro público. Pasemos a continuación a ese aspecto, cómo lo podemos integrar a una comunicación audiovisual. 1.6 El menú acústico del diseño de sonido Vamos a revisar cómo se plasman las clasificaciones generales de la sección anterior en elementos del lenguaje cinematográfico, y luego como estos pueden estructurarse y articularse para producir sentido. 1.6.1

Las herramientas para la construcción

De las muchas nociones fundamentales para el diseño sonoro revisemos tres, extraídas de la clasificación de Barbara Flückiger:5 • El Objeto sonoro (Soundobject) denomina cualquier hecho acústico definido, delimitable, y con ello identificable. Abarca por lo tanto los ruidos que hemos descrito (por ejemplo el sonido de un paso), así como una unión de estos (por ejemplo el sonido de una estampida). Es nuestra pieza mínima en el trabajo de ensamblar la experiencia acústica, es como la nota al componer. Volviendo a lo mencionado cuando hablamos de fuente y concordancia, el objeto sonoro puede ser fiel a lo mostrado, pero también puede ser generado por un objeto totalmente diferente a aquel al cuál lo vamos a asociar. Por ejemplo, la respiración del extraterrestre en Alien (Alien, el extraterrestre) tenía que tener dos fases, así que se tomaron un par de tijeras para luego distorsionar ese sonido hasta hacerlo irreconocible como tijera - y “reconocible” como respiración extraterrestre. El artista que diseña y produce los sonidos se llama Foley Artist. Es en especial 35


en la ciencia ficción donde tiene que ser creativo, pues inventa sonidos no oídos anteriormente. Un buen ejemplo es la espada láser: el diseñador de sonido Ben Burtt tenía que crear un sonido de un objeto inventado, así que agitó un micrófono delante de un parlante que reproducía un zumbido de otros aparatos. Hoy en día todos sabemos cómosuena una espada láser… • El motivo (Leitmotiv) es una noción tomada de la composición musical. Allí denota un tema musical (algo parecido a una melodía) recurrente en una composición, lo cual permite hacerlo reconocible. Un ejemplo de ese uso es elcélebre tema de violines en la película Psycho de Alfred Hitchcock. Eltema acústicamente agresivo compuesto por Bernard Herman nos asalta en la escena del asesinato, y vuelve a aparecer al reconocerse el asesino, permitiendo así el nexo. De la misma manera funciona el Leitmotiv sonoro. Un sonido, o un complejo de ellos, es realzado (sea por cómo se presenta, por repetición, por volumen, etc) en relación con un elemento visual o narrativo de tal maneraquelopodemosasociar.Estonospermite identificar no solo personajes, sino también acciones, atmósferas, e indicarnos la presencia o cercanía de ellos. Concretamente, un buen ejemplo es la respiración dificultosa del villano de Star Wars, Lord Darth Vader: la oímos y sabemos, sin verlo, que se acerca.

36


• El Paisaje sonoro (Soundscape) denomina un entorno estructurado de capas acústicas. Es una noción relacionada con lo que describimos al inicio de este ensayo: la importancia del sonido para ubicarnos en el espacio. Todo lo que oímos nos sirve para deducir dónde estamos, desde los ruidos más evidentes hasta el murmullo más sutil. Por ello mismo tenemosla posibilidad de crear un mundo con el sonido. Podemos construir un paisaje con elementos que informan la ubicación general (por ejemplo tráfico para saber que estamos en una ciudad, o, según el volumen, que estamos en la calle), pero también la posición específica de los objetos en relación al oyente (un carro se acerca por la derecha). Así mismo, y esto es la principal diferencia de esta noción con la de Atmósfera entendida como silencio de fondo, podemos integrar adrede elementos, sean sonidos o su manipulación, que transmitan una sensación ambiental (por ejemplo sonidos estridentes y cierto eco para darnos la sensación de saturación urbana). Por ello el paisaje sonoro va más allá que meramente darnos una ubicación - puede implicar desarrollos, evoluciones, puede ser dinámico y transmitiremociones. Entre paréntesis están las palabras en inglés, y la segunda en alemán, pues son estos los términos técnicos con los que se asocia la especificidad disciplinar. 1.6.2 Los pilares de laestructura Hemos tomado, en la lista anterior, solamente aquellas tres nociones de entre una diversidad de elementos, ya que nos permiten entender dos dualidades que hemos de considerar al diseñar una banda de sonido. Por un lado, en lo que refiere la narrativa, el audio puede tanto contar sucesos (hechos acústicos) como también describir el lugar en el que suceden; y por otro lado, en lo que refiere ensamblaje al montar las pistas de sonido, tenemos que pensar tanto en las piezas y como en el todo ensamblado a partir de ellas. • La idea del todo y las piezas es fácil de concebir si pensamos 37


que es a partir de objetos sonoros que construimos un paisaje sonoro. Tomemos el inicio de la película Blue Velvet (su director David Lynch aparte de cineasta, fotógrafo y pintor es músico): escuchamos el sonido del agua de alguien que riega el jardín, y como fondo una música tranquila y alegre, acompañada del trinar de pájaros. Todo muy idílico. Mas el sonido del agua comienza a adquirir tonos graves, se inserta el sonido del atoro del agua, la presión adquiere frecuencias cada vez más bajas hasta que, junto con el colapso de quien regaba el jardín, entra a un primer plano (pues sí, también en el sonido hay planos) un tono constante cada vez más bajo y sonidos no identificables (junto con imágenes no identificables) de insectos. Si prestamos mucha atención a lo que escuchamos, podemos desglosar cada instante de una película en una diversidad de elementos sonoros que componen un todo acústico. En realidad, si escuchamos atentamente en cada instante de nuestra vida cotidiana, se daría lo mismo - pues como dijimos, en cada momento oímos, y lo que oímos es una combinación compleja. Solo que en lo cotidiano meramente oímos sonidos de ubicación, en el cine se suman los de ambientación. Lo cual nos lleva al próximo punto. • El aspecto narrativo del sonido, a su vez, tiene una larga tradición conceptual. De la literatura tenemos la idea de la curva dramática, pero también está muy presente (aunque a veces menos tematizado) el contexto espacial - ambiental. - La curva dramática. El audio puede narrar: haciéndonos oír diversos sucesos, o hechos acústicos, nos hace construir en la mente un relato. Pensemos sino en las radionovelas, que obviamente no solamente contenían diálogos. Así que al concebir una historia, podemos idear las acciones que la llevan, y a estas acciones le adjudicamos hechos acústicos correspondientes. El hecho acústico está compuesto de objetos sonoros, a menudo varios a la vez (el golpe de un vaso contra el piso, el estallar del vidrio, los pedazos dispersándose). Estos hechos sonoros pueden poseer diversos modos de significación (uno de ellos puede ser el Leitmotiv). Digamos que en el montaje esta es la parte horizontal: las acciones audibles que son alineadas una tras otra. 38


- El fondo unificante. Lo acústico, como dijimos también puede ubicar en un espacio. Y sobre todo, puede transmitir sensaciones. Al montar y editar, podemos concebir como elementos unificantes la atmósfera como el lugar en el cual transcurren las acciones del punto anterior, el paisaje sonoro en tanto una combinación de entorno y de ambientación emocional que puede evolucionar, y, entretejido con lo anterior, la manipulación del sonido para darle una calidad específica. Como ejemplo de lo último, imaginemos una escena en la que todos los sonidos tienen cierta reverberación.6 Esto nos transmite la sensación de un enclaustramiento sonoro, y por lo tanto cierta angustia, como en el ejemplo de Blue Velvet. O podemos darle una calidad fría resaltando las frecuencias típicas del metal, etc. Esta unificación puede ser concebida como la parte vertical del montaje: se construyen como capas sobrepuestas que acompañan la acciónsonora. Como vemos, el sonido es capaz de contar muchas cosas. En especial el fondo, al ser menos evidente y poder implicar volúmenes al borde de lo claramente audible, es capaz de transmitir contenidos de los que no somos del todo conscientes, pero que no dejamos de percibir. Es con ello una excelente herramienta para causar sensaciones y asociaciones. Ahora bien, ¿cómo se producen esas asociaciones y significados? 1.6.3 Los mecanismos de significado Vamos a abordar a continuación mecanismos de creación de significado. Sin embargo, no entraremos aquí a cómo se generan referentes, o cómo se producen los signos, sino de una manera más general exploraremos cómo se posibilitan algunas relaciones. El sonido en una película puede complementar, enriquecer e impulsar la historia visual (y viceversa). Puede generar emociones desde tranquilizar hasta inquietar. Para abordar estas posibilidades plantearemos aquí algunos tipos de mecanismos que establecen relaciones entre lo audible y lo visible. Para todos estos podemos usar los hechos sonoros y/o tipos de fondos acústicos 39


en relación con la imagen. • Acento. Un sonido puede realzar un suceso. No nos referimos con ello a meramente ilustrarlo, sino amplificar el efecto de la imagen. Por ejemplo, si vemos un corazón, podemos oír su pulso amplificado, o con eco, o repetido. Podemos construir ese pulso no solo con una grabación de pulso real, sino (y eso es lo que sucede en la mayoría de los casos, pues pocos micrófonos se han metido al lado de un corazón real) construir un sonido que creemos que le corresponde, o al menos es asociable. • Contraste. La contraposición es uno de los elementos básicos para crear nuevos significados. Imaginémonos por ejemplo soldados marchando. Si no les ponemos una marcha militar, sino una nupcial, la escena se vuelve burlona, si le ponemos un requiem, adquiere visos dedeprimente.7 Un efecto interesante entre lo visto y lo (no) oído se logra en la películaGravity. • Humor. El humor se produce en gran medida por algo inesperado. En ese sentido, el sonido puede plantear sorpresas a la expectativa, sea asociado a una imagen (un personaje cuyos pasos suenan como un chirrido de bisagra) o insertado (el típico caso de un claxon que sorprende a un carácter). Unaestrategia quefunciona en este sentido es la descontextualización, es decir, sacar un sonido de otro contexto (eso sería el caso de la bisagra). • Confusión. El sonido sirve también para causar confusión e incertidumbre. Por ejemplo el disparo que no se sabe de dónde viene. Hay inclusive objetos sonoros hechos para ello: el sonido identificable pero inubicable usado para socavar la ubicación (el sonido de gotear de agua con cierto eco, usado para introducir una sensación de incertidumbre en muchasescenas de suspenso), y el sonido no identificable, que no solamente aparece en películas de ciencia ficción, sino también en muchas de terror y suspenso (como los sonidos bajo tierra en la escena de Blue Velvet mencionada). La diseñadora de sonido Barbara Flückiger inclusive los clasificó como un tipo propio: los USO, unidentified soundobject. 40


• Nexos por asociación. Podemos transponer al diseño sonoro diversas estrategias para establecer relaciones usadas en otros lenguajes. Una es la Transposición - una forma de esto es la cita desde otra película o obra sonora. Un ejemplo sería si oímos larespiracióndeDarthVaderenotrapelícula,como en la película Spaceballs - que por cierto es una parodia de Star Wars. Otra es la Metáfora, la cual nos lleva a comparar dos elementos. Un ejemplo sería la respiración afilada de Alien, que suena como si fuesen cuchillos. Otras figuras sería la paráfrasis, que puede funcionar como el sonido que ilustra, y la contradicción, que es más extrema que el contraste, ya que propone lo opuesto (como alguien que se mueve muy lento mientras oímos un sonido de jet).

Estas clasificaciones son algo generales, y solo un fragmento de cómo se puede explorar y experimentar con la creación de sentido mediante lo sonoro. En un primer momento el diseño sonoro puede representar un reto, porque, como hemos explicado, el oído es un sentido algo subvalorado en nuestra cultura. Frente a la primacía actual de la vista, podemos decir que a veces puede pasar algo desapercibido como elemento de creación. Sin embargo, es quizá también en eso en donde radica parte de su poder de impacto. Sea como fuere, para diseñar sonido primero hay que ejercitar escuchar con atención, desglosar lo oído, e imaginar sonidos no desde, sino para una fuente sonora. Estos son como músculos a entrenar.

41


Bibliografía: Adorno, Theodor. Composición para el cine. Madrid, Akal 2007. Chion, Michel. Film: A Sound Art. New York: Columbia University Press 2009. Chion,Michel.Laaudiovisión:introducciónaunanálisisconjuntodelaimagenyelsonido. Barcelona: Paidós. 1998 Flückiger, Barbara. Sound Design. Die virtuelle Klangwelt des Films. Marburg: Schüren 2001. Merleau-Ponty, Maurice. Fenomenología de la percepción. Ciudad de México, FCE 2000. Monaco, James. How to Read a Film. Movies, Media, and Beyond. Oxford University Press, London 1977. Filmografía: Spaceballs (Hay un loco en el espacio). Dir. Mel Brooks, USA 1987 Psycho (Psicosis). Dir. Alfred Hitchcock, USA 1960 Star Wars (La guerra de las galaxias). Dir. George Lucas, USA 1977 Blue Velvet (Terciopelo azul). Dir. David Lynch, USA 1986 The Hunt for Red October (La caza del Octubre Rojo). Dir. John McTiernan, USA 1990 Alien (Alien, el octavo pasajero). Dir. Ridley Scott, USA 1979 Gravity (Gravedad). Dir. Alfonso Cuarón, USA 2013. Playtime (Playtime). Jacques Tati, Francia 1967. Los derechos de las imágenes de películas pertenecen a sus compañías de producción. Literatura recomendada: Flückiger, Barbara. The Unidentified Sound Object http://www. zauberklang.ch/uso_flueckiger.pdfFlückiger, Barbara. Sound Effects. The strategies for Sound Effects in Film. http://www.zauberklang.ch/Flueckiger_Continuum_SoundEffects.pdf

42


EL AUDIO DISEÑO EN EL MARCO DE LA CREACIÓN CINEMATOGRÁFICA Milagro Farfán Morales

43


44


“Oímos sonidos que vienen de todas partes sin tener que enfocarlos. Los sonidos provienen de arriba como de abajo, adelante, de atrás, de la derecha, del izquierda. No podemos desbloquear el sonido de modo automático. Sencillamente no estamos equipados con párpados en los olivos. Mientras que el espacio visual es un conjunto organizado del tipo conectado uniforme, el mundo del oído es un mundo de relaciones simultáneas”.

Algunos enfoques del sonido en el cine. El cine nació con la impronta de capturar la realidad en movimiento, una realidad compleja, inexorable para la elección de un simple encuadre. A pesar de ello, el cine ha sabido emular de manera eficiente no sólo la realidad cotidiana, sino también otro tipo de realidades, fantásticas, históricas, surreales, etc. Esta voluntad de verosimilitud que ha desarrollo el lenguaje cinematográfico a lo largo de su historia se debe al impacto de la imagen de forma evidente y del sonido de maneras más que evidentes, inconscientes, subjetivas y psicológicas. En el marco de la creación cinematográfica, la imagen, captura la atención de forma descriptiva. Una luz fulgurante al final del túnel, por ejemplo, es una escena concreta y puede evocar muchas metáforas o conceptos en función al sonido que le acompaña, determinado así múltiples significaciones. 45


Otro aspecto a tener en cuenta respecto al acto mismo de la selección de encuadres y creación sonora en el cine, es el hecho de que la imagen está siempre limitada a la selección de un valor de plano específico, sin embargo, el sonido escapa a la limitación del encuadre. Los sonidos en este sentido, pueden describir la composición dentro del plano, pueden complementar o describir imágenes correlativas a la imagen descrita fuera del campo del valor del plano, también pueden complementar la escena con sonidos que no sean correlativos y que desprendan la imagen de la realidad que describe en cuanto a si misma. Esta noción de encuadre o contenedor de la imagen versus incontinencia del sonido la describe muy bien Michael Chion, cuando describe qué es la escena audiovisual: “¿Por qué se habla en el cine de la imagen en singular cuando en una película hay millares o, si se cuentan por planos, varios centenares, cuando estas imágenes se transforman sin cesar? Porque, aunque hubiese millones, en la película no hay, para contenerlas, más que un solo marco. Lo que se designa con la palabra imagen en el cine, de hecho, no el contenido, sino el continente. Es el marco… ¿Qué sucede, en comparación, con el sonido? Pues todo lo contrario. Para él no hay ni marco ni continente preexistente: pueden añadirse, además, tantos sonidos como se quiera simultáneamente, unos a otros, hasta el infinito, sin encontrar límites. Por añadidura, estos sonidos se sitúan en diferentes niveles de realidad: entre la música de acompañamiento convencional, por ejemplo, el ojo, el diálogo sincronizado, es diegético. Mientras que el marco visual sólo sitúa casi siempre en uno de estos niveles a la vez. (Chion: 2011 69.70) Estos enfoques de apreciación en cuanto al sondo, permiten una infinidad de posibilidades del manejo del mismo para la creación cinematográfica, desde la descripción realista a una representación fuera de la realidad existente, el aporte del sonido en el cine es trascendente y necesario para el desarrollo artístico del cine.

46


Aspectos creativos del uso del sonido en el cine. En vista que el sonido si bien está sujeto a la percepción sonora dentro y fuera del cuadro o encuadre cinematográfico, en el proceso de creación cinematográfica muchas veces es justamente el sonido uno de los elementos que curiosamente son dejados en un plano secundario. Es decir, que muchas veces el directo y/o guionista comienza el desarrollo de un proyecto cinematográfico con la premisa e imposición de la imagen. Es decir, se desarrolla el guion pensando en el personaje principal, el lugar, el contexto, el conflicto del personaje, dejando el sonido como un aspecto secundario. Al respecto el Ddiseñador Sonoro Rhandy Thom afirma lo siguiente: “Muchos directores de película tienden a oscilar entre dos ampliamente diferentes estados de conciencia sobre el sonido en sus películas. Por un lado, tienden a ignorar cualquier consideración seria sobre el sonido (incluyendo la música), a lo largo de la planificación, el rodaje y la edición temprana. Entonces repentinamente tienen una dosis temporaria de religión cuando se dan cuenta que hay “agujeros” en la historia, escenas débiles, y ediciones malas para disimular. Es cuando descubren una enorme, y de corta vida, fe en el poder y valor del sonido para hacer de su película mirable”. (Rhandy Tohm: 1999). Como bien lo menciona el destacado diseñador sonoro R. Thom, el aporte del sonido en el proceso mismo de la escritura del guion, puede resultar indispensable como un proceso ya que permite situar al narrador desde punto de vistas más subjetivos o emocionales, también descriptivas, en dependencia de la construcción de las escenas. El aporte del sonido en la escritura del guión y conscutivamente en la visualidad de la escena de un film permite un alto grado de conexión entre la acción narrada y la percepción que el público observador y oyente puede llegar a tener de la película. Una reflexión interesante sobre el aporte del sonido la podemos encontrar en la filmografía del reconocido director Alfred 47


Hitchcock, quien utiliza la construcción de una banda sonora detallada para acentuar momentos claves en la acción dramática del suspenso, género característico del director. En la película Inocencia y Juventud (1937), la cual es una historia de falsos culpables, en donde el protagonista (Roberth Tisdal) encuentra el cadáver de una joven es acusado del crimen, siendo inocente, a lo largo de la película los detectives y policías persiguen al falso culpable el cual sólo encuentra la ayuda de una joven. El director en el libro clásico “El cine según Hitchcock” explica cómo la resolución de la película se resuelve por el desarrollo de una escena en la que la interpretación sonora es clave para reconocer al culpable: AH. Al final de la película, la chica, ganada para la causa del protagonista busca al asesino y la única pista que encuentra es un pobre viejo, un vagabundo que ha visto ya al asesino y que es capaz de reconocerlo. El asesino tiene un tic nervioso en los ojos. La chica viste al viejo vagabundo con un buen traje y lo lleva a un gran hotel en el que se está desarrollando un té-baile. El vagabundo dice a la chica: “Es un poco ridículo buscar una cara con tic nervioso en la mirada entre toda la gente” Justo después de esta frase del diálogo, coloco la cámara en la posición más elevada de la gran sala del hotel, cerca del techo y, montada en la grúa atraviesa la enorme sala de baile, pasa a través de los que bailan, llega hasta la plataforma en la que se encuentran los músicos negros, aísla a uno de estos músicos que está en la batería. El trávelling sigue hasta el primer plano del músico, que es también negro, hasta que sus ojos llenan la pantalla y, en este momento, se cierran los ojos: es el famoso tic nervioso. Todo esto en una sola toma. FT. Es uno de sus principios: de lo más lejos a lo más cerca, de lo más grande a lo más pequeño… AH… ¿Cómo van a descubrir a este hombre el vagabundo la chica? Un policía que se encuentra allí ve a la protagonista y la reconoce, puesto que es la hija del jefe. Va al teléfono. Hay 48


una breve pausa para los músicos, durante la cual van a fumar a un palco y, al cruzar el pasillo, el batería ve a dos policías que llegan por la puerta de servicio del hotel. Como es culpable, se escabulle discretamente, vuelve a su sitio en la orquesta y se reanuda la música. Ahora el batería, nervioso, ve al otro lado de la sala de baile, a dos policías que discuten con el vagabundo y la chica. El batería piensa que los policías lo buscan y se cree descubierto; como aumenta su nerviosismo, se convierte en un mal músico y lo hace con el bombo no está nada bien. El conjunto de la orquesta queda afectado y el ritmo de la música queda afectado y el ritmo de la música se descompone por culpa de este batería desfalleciente. Y la cosa empeora. Ahora la chica el vagabundo y los policías se disponen a salir de la sala por el pasillo situado al lado de la orquesta. En realidad, el batería, no corre ningún peligro, pero el no lo sabe y todo lo que ve son uniformes que avanzan hacia él. Sus ojos indican que está cada vez mas nervioso; a causa de los fallos de la batería, la orquesta se ve forzada a parar, los que bailan también al final el batería cae desvanecido al suelo, arrastrando consigo el bombo que cae con un ruido enorme, justo en el momento en el que nuestro pequeño grupo iba a salir por la puerta. ¿Qué es todo este ruido? ¿de que se trata? La chica y el vagabundo se acercan al batería inerte. Al principio del film mostramos que la chica era “girl-scort” y que era experta en dar “primeros auxilios” (ha conocido incluso al protagonista en la comisoria, al cuidarle después de haberse desmayado). Entonces dice trataré de ayudar a este hombre, de socórrelo” y se acerca a él; tan pronto como se ve sus ojos agitados por los temblores, y dice: “Trataré de ayudar a este hombre, de socorrerlo”, y se acerca a él; tan pronto como se ve sus ojos agitados por temblores, Y sin perder la calma, dice: “Dadme una toalla para secarle la cara por favor”. Naturalmente lo ha reconocido, simula que lo cura y pide al vagabundo que se acerque. Un camarero trae una toalla mojada y ella seca la cara del batería, que era un falso negro. La chica al vagabundo y el vagabundo le dice “ Si, es él” (Alfred H. 1966: 65.96) 49


Secuencia de imรกgenes Inocencia y Juventud (1937) 50


Este fragmento de la entrevista que François Truffaut realiza en 1966 Alfred Hitchcock da cuenta del valor de la escritura del guion en función al diseño sonoro, no sólo por la situación narrativa planteada, sino por cómo resolver la resolución del conflicto de los personajes por una situación en la que le sonido cobra un sentido significante en la trama desarrollada. Desde este punto de vista, el sonido (banda sonora en la película), es determinante en la curva dramática de la historia y obedece a aspectos que evocan la visualidad acusmática de la escena en la que se confrontan los aspectos formales del sonido que pueden ser categorizados según Michael Chion en Sonidos In, Off y Fuera de Campo. (Chion: 2011 69.74).

Ubicación del sonido – La Audiovisión – M. Chion.

51


Para entender mejor el concepto del sonido “acusmático” es importante referirnos a la aproximación de la definición que realiza M. Chion. Tomando en cuenta definiciones previas sobre la capacidad de ver la interpretación sonora y a la que arriba de la siguiente manera: Acusmática (antigua palabra de origen griego recuperada por Jerónimo Peignot y teorizada por Pierre Shaeffer) significa “que se oye sin ver la causa originaria del sonido” o “que se hace oír sonidos sin la visión de la causa. Teniendo en cuenta esta definición, el sonido en la creación cinematográfica tiene estos dos recorridos perceptivos: “Un sonido puede realizar en una película, desde sus primeras apariciones dos clases de trayectos: o es de entrada visualizado y, seguidamente acusmatizado, o es acusmático para empezar y sólo después visualizado. (Chion: 2011.74). Lo que ocurre precisamente en la escena escrita y dirigida por A. Hitchcock, es una transición entre el sonido “In” que se ve y se escucha en la escena abierta y el mismo sonido de la banda tocando, pero “Fuera de Campo” pero que genera una acción dramática cuando la cámara enfoca al culpable del crimen y se escucha una mala ejecución de la batería. Un planteamiento del sonido teniendo en cuenta la lógica de la percepción acusmática desde la escritura y planteamiento de la escena. Variaciones de la visualidad acusmática y posibilidades del sonido en la expresión cinematográfica. Si bien la propuesta de la clasificación tripartita del sonido desde la percepción acusmática es un planteamiento coherente para entender el desarrollo de una trama y evolución del sonido bajo la estructura del diseño clásico narrativo, permite una aplicación para el análisis y la creación coherente, es necesario contextualizar esta propuesta de categorización frente a las nuevas estructuras no narrativas del cine contemporáneo, en las que se pueden encontrar significaciones más complejas del diseño sonoro y que complejizan el modelo planteado por M. Chion.

52


Precisamente sobre este enfoque de análisis Francisco Casetti plantea que la aproximación que propone M. Chion. sobre la representación del sonido en el cine abre nuevas perspectivas para el análisis del cine desde la percepción que vincula la creación con el público: “Chion nos confirma que la investigación de los años 80 se mueve impulsada con un espíritu particular que encontramos en la base de algunos principios recurrentes ¿que papel conceder a lo sobreentendido en relación con lo que se nos muestra? ¿Cómo asociar el detalle y todo o los componentes con el conjunto? ¿Qué mirada a traer entonces? ¿Cómo conciliar la voluntad de explicar con la conciencia de que en la representación hay algo no calculable?” (Casetti: 2010.270). Se trata entonces, de complejizar las formas de representación del sonido vinculado con la representación del mismo en cuanto a lo que se describe de forma denotativa o connotativa, el sonido ofrece al espectador capacidades cognitivas y subjetivas de percepción de la escena cinematográfica. En este sentido, la propuesta del sonido acusmático, es el principio de una serie de posibilidades para la creación sonora en el cine, que puede plantearse desde los siguientes aspectos: El punto de vista del sonido y su ubicación espacial en la escena, el cual se podría categorizar de la siguiente manera: - El sonido como ambiente o envolvente en la escena que complementa la información representada en el encuadre, un ejemplo del mismo podría ser la imagen que describe el amanecer y el uso complementario del sonido del canto de las aves para complementar esta acción narrativa. - El sonido interno el cual se sitúa en la escena en la cual se puede identificar la fuente sonora, como los pasos que se hacen evidentes cuando un personaje atraviesa la escena o el diálogo de los personajes. - El sonido on the air, el sonido cuya emisión es mediatizada 53


por un aparato tecnológico, como por ejemplo las ondas sonoras que emite una radio en una escena en la que es imprescindible para la narrativa de la historia obtener información noticiosa. Esta clasificación corresponde a la descripción textual y narratológica de las escenas, sus complejas clasificaciones en el marco de su ubicación en el esquema tripartito In, Off y Fuera de Campo. La perspectiva del sonido en función del encuadre/diégesis y campo/extradiégesis Un enfoque más complejo que la acción narrada en la escena se ubica en el uso del sonido Fuera de Campo, como un elemento que evidencia que en realidad la unidad de análisis y creación cinematográfica en realidad es dicotómica, en tal sentido, Luis Alonso García en su aproximación a la praxis fílmica propone la unidad “imagen/sonido” como objeto de estudio que acentúa en la percepción del espectador precisamente el campo que es un elemento que no se encuentra en el encuadre/diégesis y que puede ser evidenciado precisamente por la materialidad del sonido fuera de la diégesis o extradiegético. En este sentido plantea la unidad de análisis y creación imagen/ sonido en contraposición a la imagen-cine en la que la unidad de análisis sólo recae en la representación visual excluyendo lo textual y sonoro por la primacía visual que es la conexión inmediata perceptiva y consciente con el público la cual es potenciada con las condicionantes de las posibilidades selectivas del encuadre en función al campo y la capacidad del sonido en hacer tangible en el encuadre/diegesis la existencia de la noción de campo. “En contra del axioma general de la semiótica fílmica, la imagencine no está condenada a ser “objetiva” e “impersonal”, sino todo lo contrario: toda imagen-cine es una imagen personal, subjetiva, humana, pues es necesario un sujeto (creador y receptor) que se coloque en el vértice de la pirámide visual para mirar, leer e interpretar la imagen como una escena imaginaria. 54


En el otro extremo, porque esa triple asignación de instancias textuales- a través de los cuales vemos, oímos y conocemos una imagen/sonido- oculta y olvidada aquella maquinalización del ojo/cámara a la que responde, aun, toda imagen-cine sea o no sometida por la estructura del cine-drama. (García: 2010.196). La apuesta por la contraposición campo/extradiegético versus encuadre/diegético que desarrolla L.A. García plantea perspectivas que complejizan aún más la generación de sentido del diseño sonoro desde la perspectiva del sonido Fuera de Campo y del sonido Off, puesto que ambos permiten explicitar la mirada subjetiva y selectiva de director de una película. A esta perspectiva deberíamos añadir también la capacidad enunciativa de la escena cinematográfica: imagen/sonido por sí misma en interacción con el público. El siguiente esquema planteado por L.A. García explica de forma gráfica el funcionamiento de análisis y creación cinematográfica en relación al encuadre y el campo y su dimensión compleja en cuanto a la praxis cinematográfica:

55


La creación cinematográfica implica entonces la perspectiva selectiva del director en función al como desea narrar o comunicar determinada escena en la cual es sonido Fuera de Campo complemente la escena descrita visualmente. En ese contexto el sonido F de C, podría ser clasificado de la siguiente manera según M. Chion: - El fuera de campo absoluto / activo, en el que el sonido es combinado estrictamente para complementar el encuadre, un ejemplo sería la escena de un auto se aproxima a velocidad en un plano general, escuchamos como el auto pasa por la escena en imagen, pero antes y después de la escena escuchamos como el auto se aproxima y se aleja por la carretera. - El fuera de campo absoluto / pasivo, es el sonido que complementa la imagen que se encuentra fuera del encuadre pero que no genera una atención en el campo, sino que complementa y centra la atención en la diégesis, por ejemplo, la escena de dos personas conversando en una cafetería, el encuadre puede graficar una toma conjunta de los interlocutores, prestamos atención en el diálogo pero simultáneamente escuchamos el murmullo del resto de los clientes. - El fuera de campo visual por el sonido, consiste en la creación sonora que se hace visible y juega un papel dramático y narrativo en la escena, un ejemplo de este sonido podría ser el encuadre de una persona atrapada en una situación de peligro en medio de un conflicto bélico, el personaje puede expresar miedo y temor, pero este sentimiento se acrecienta si fuera del encuadre por ejemplo se describe la violencia y el peligro por sonidos de ametralladoras o bombas que caen a lo lejos.

56


Lo subjetivo versus lo descriptivo en la creación del sonido Off. Finalmente, otra categoría en el diseño sonoro es el sonido Off, el cual enfatiza la presencia de elementos textuales o literarios que son parte del fenómeno acusmático de la escena cinematográfica. Desde el punto de vista de la creación cinematográfico, el sonido Off puede ser desarrollado haciendo un énfasis del uso de una voz que se encuentra fuera de la acción representada, pero que tiene la intención de plantear un punto de vista determinado en la intención dramática de la escena. Michael Eldridge respecto a la creación de la voz en off afirma que la presencia de un narrador en un filme se encuentra fuera de la acción representada en la escena, es decir, que habla en un momento distintos de los que se muestran en la pantalla. “La mayoría de las películas optan acertadamente por no emplear esta técnica, que viola la regla “muestra no cuentes” y hace así que la experiencia de ver un film se parezca a leer una novela… Sin embargo, existe una división de opiniones al respecto… Lo cierto es que la voz en off puede ser eficaz, siempre y cuando exista un buen motivo para introducirla en la película.” (Eldridge. 2006. 226). El uso del sonido off, puede obedecer a aspectos narrativos de la película que necesitan ser puntualizados para entender el desarrollo de la trama como por ejemplo, la introducción de la voz en off del protagonista de la película Belleza Americana (1999) dirigida por Sam Méndez, en la que es importante la descripción de la situación final de la historia para entender la sucesión de los hechos que conllevan a la muerte del protagonista, situación dramática anunciada en las primeras escenas de la película, que abre paso al desarrollo argumentativo que traslada el conflicto al público, generando así una conexión empática entre el protagonista y el publico observador. Desde este punto de vista el uso de la voz en off, explica M. 57


Eldrige puede ser desarrollada de forma creativa para plantear los siguientes aspectos narrativos: - Salvar una distancia temporal. - Dar a la película un toque literario y poético. - Revelar los pensamientos de un personaje. El buen uso de la voz en off como parte del diseño sonoro y su capacidad acusmática se perfilan entonces como aspectos que complejizan la creación cinematográfica y que sea a su vez un elemento que devele un estilo particular del director en su puesta en escena. Un enfoque más descriptivo del uso de los sonidos Off en la creación cinematográfica la podemos encontrar en la ubicación del punto de vista desde donde se cuenta la historia, que abre paso a la transición entre lo subjetivo y lo objetivo. En este sentido podemos encontrar cierta clasificación según M. Chion. - Punto de vista implicado descrito y desarrollado en la puesta en la escena, es decir, se escuchan la voz en off de un personaje que se ve en la escena, de forma intradiegética ya sea porque se escucha la voz en off y se ve al personaje o se escucha este sonido antes y posteriormente se descubre a quién pertenece este texto oral. - Punto de vista abstracto que no necesariamente es corporeizado en la historia y que ofrece un punto de vista subjetivo que obedece a la posición del autor frente a la capacidad discursiva de la película, es decir, que se escucha un texto literario que obedece al planteamiento de ubicación de los hechos o plantea una construcción poética, pero este sonido off es omnipresente en consecuencia no se devela en la escena la fuente sonora.

58


El uso del sonido Off, plantea aspectos de creación cinematográfica que no necesariamente se ajuste a una estructura de diseño clásico aristotélico en la película, sino que más bien de sendas posibilidades para el desarrollo de una creación minimalista o no narrativa. Conclusiones En términos de creación cinematográfica el diseño sonoro, es sin duda un criterio importante y trascendental, puede ser desarrollado como un todo, es decir, se pude escribir la historia del film a partir de la generación de sentido que tendrá el sonido para el desarrollo de los conflictos internos, interpersonales y extra personales de los personajes desarrollados en la película. El diseño sonoro plantea también la capacidad selectiva del punto de vista desde donde el director de un film decida estructurar la escena, tomando en cuenta los elementos formales de la imagen/sonido que corresponde al criterio encuadre/diégesis y campo/extradiégesis. Finalmente, el diseño sonoro no es un aspecto decorativo o complementario en la escritura de la película, por lo contrario, muchas veces juega un papel esencial, por consiguiente, es un elemento de creación cinematográfico que debe ser tomado en cuenta desde la escritura del guion, el rodaje y la postproducción de la película. Bibliografía. CASSETTI, Francesco. Teorías del cine. Madrid. Catedra.2010. CHION, Michael. El audiovisión: introducción a un análisis conjunto de la imagen y sonido. Buenos Aires. Paidós. 2011. GARCÍA, Luis Alonzo. Lenguaje del cine, praxis del filme: una introducción al cinematógrafo. Madrid. Plaza y Valdés. 2010. STEELE, Alexader. Escribir Cine: guía práctica para guionistas. Barcelona. Alba. 2006. 59


THOM, Randy. Diseñando una película para el sonido. 1999. TRUFFAUT, FranVois. El Cine según Hitchcock. Madrid. 1974.

60


TÉCNICAS DE SUPERVIVENCIA (EN LA PRODUCCIÓN) ACÚSTICA Andres Leon Geyer

61


62


Hemos, en los ensayos anteriores, revisado qué es el sonido, cómo funciona el oído, cómo se crea significado y cómo se usa en el lenguaje audiovisual. En este ensayo vamos a dedicarnos a las herramientas técnicas que tenemos que manejar para poder construir mediante el sonido una realidad, o imitarla; considerando su posible interacción con la imagen. Vimos que si queremos crear sensaciones, historias y mundos con el sonido, hemos de pensar primero en cómo construimos el mundo sonoro. Esto será nuestra guía tanto para la grabación como para la edición y montaje del mismo. Así que un eje de este ensayo será imaginar acústicamente, y para ello, primero hemos de aprender a escuchar. 1 - Antes de la grabación, pensar en el montaje Cuando tomamos una foto, no simplemente mostramos “lo que hay”: escoger un encuadre significa realizar una selección, es un acto creativo. De la misma manera el producir un producto auditivo no se reduce a registrar el entorno sonoro, sino implica crear un mundo. El mismo escuchar es un construir, pues como vimos en el primer ensayo, nuestro oído selecciona desde un primer momento; es decir, el oír tiene algo de creación. Por ello, y por las diferencias entre cómo funciona nuestro oído y un micrófono, no basta simplemente dirigir un micro hacia algo para registrar - tenemos que emular nuestra escucha, sea de algo real o cre63


ando algo ficticio. Para ello tenemos dos herramientas básicas: el montaje (que sería cómo se colocan los elementos sonoros en relación a los demás y a lo visual) y la edición (la manipulación de los elementos mismos). Dicho de otro modo: el montaje es colocar los elementos, la edición es retocarlos.

Ejemplo del trabajo de colocación en el montaje de imagen y sonido. Fuente: Autor del ensayo, CC0 3.0. 1.1 Pensar como al escuchar El punto inicial es la atención. Hay cosas en las que pondremos más atención que en otras, independientemente de la intensidad de su volumen. Recordemos el ejemplo de la capacidad de escuchar la conversación en la mesa del lado en la cafetería. Podemos decir entonces que la mente misma ya hace algo así como una edición al escuchar, lo cual tenemos que considerar al montar y editar el sonido. Vamos a tener que ponerle más volumen a ciertos sonidos, como por ejemplo a la conversación de digamos dos personas. ¡Pero eso significa que tenemos que poder manejar el volumen de los sonidos por separado! Exacto, estamos hablando de grabar los sonidos individualmente, pues un micrófono normal agarra todo lo que le circunda,ni selecciona, ni discierne (a menos que sea muy direccional, lo cual veremos más adelante). 64


Hagamos un ejercicio mental de cómo serían estas grabaciones por separado. Lo ideal, en nuestro ejemplo de la cafetería, sería dedicar a cada uno de los interlocutores un micrófono. El bullicio de fondo lo podemos grabar aparte y luego bajarle el volumen en la edición. No hay necesidad de grabarlo a la vez, pues lo podemos montar paralelo a nuestro diálogo. Una parte sutil de ese bullicio (y que puede desaparecer en una grabación general) son los sonidos de platos y otros ruidos típicos de cafetería, así que podríamos adjuntar la grabación independiente de estos objetos sonoros para dar a entender, a quien escucha, que estamos en una cafetería y no simplemente en una plaza llena de gente. Estos sonidos de ubicación los podemos grabar en otro lugar, ya que igual no se distingue de donde son los platos. O, inclusive, puedo obtenerlos pregrabados de una fuente en internet. En respecto a esto último: es importante, al pensar qué grabar, considerar que a menudo no se distingue la procedencia de un sonido, lo cual da cierta libertad para conseguirlo. Como podemos notar, lo principal al pensar en el montaje de sonido es pensar en capas. Es similar a las capas de Photoshop o a las pistas/capas de un programa de edición de video. También en el montaje de audio las pistas, o tracks, son combinadas, puestas en paralelo, en serie y fusionadas, etc. Para obtener estas capas tenemos que grabar los sonidos por separado. Cuando se graba una banda de música, se registran normalmente los instrumentos individualmente a pesar que se toquen a la vez. Al construir el diseño sonoro, la grabación de cada sonido puede y en gran medida debe ser por separado, solo que, tras el montaje, suena de manera simultánea. Lo que también se parece mucho a la consola de grabación de concierto es lo de regular el volumen: así como el ingeniero sonoro rebaja el de la batería y aumenta el de los vocales, nosotros daremos en nuestro ejemplo de la cafetería mayor volumen a la conversación, un poco a los sonidos de trastes, y mantendremos el fondo en un nivel que no interfiera con aquello que queremos como centro de atención. Casi podemos hablar de primer, segundo y tercerplano. 65


Fuente: Luna04 en Wikipedia CC BY-SA 3.0 Para este aprender a escuchar desarmando el sonido en sus partes, propongo un ejercicio: cierra tus ojos y, mientras que cuentas en tu mente pausadamente hasta 60, identifica los sonidos a tu alrededor. Trata de detectar cada uno, hasta el más sutil, y de reconocer de qué dirección procede. No todos los podrás reconocer, pero eso está bien; estudia cómo suena. Esto se puede ejercitar en cualquier entorno. 1.2 Escuchar el material Hemos desglosado el material del cual está hecho lo que oímos en nuestro entorno: una complejidad de sonidos sobrepuestos. Ahora, revisemos el material del cuál está hecho cada sonido independiente, cada elemento, o dicho de otro modo, cada objeto sonoro. Tenemos la capacidad de reconocer la materialidad de lo que suena. Podemos diferenciar un golpe sobre madera de uno sobre metal. Estas calidades las podemos retocar en un programa 66


de edición. Manejando diversos parámetros de frecuencias y onda, podemos hacer que mover canicas suene como si fuese una avalancha, y, puesto que la calidad también transmite el espacio, que esta suene como si sucediese en una cueva. Lo podemos comparar nuevamente conelretoquefotográfico,soloqueese“comosi”esmuchopoderosoqueenlovisual,y bastante más amplio. Ya mencionamos que al no ver la fuente, el medio sonoro tiene mayor posibilidad de manipular y convencer (para no decir engañar). 1.3 Después de la grabación, pensar en la escucha (Los sonidos apócrifos) El “como si” no es sólo importante en la edición, también lo es en el montaje. Muchísimas veces vamos a poner un sonido ajeno debajo de una imagen, simulando que le corresponde, aunque no sea cierto. El ejemplo más simple es el doblaje: los actores adquieren idiomas (y a veces terribles acentos) que nunca hablaron. Lo vemos en muchísimos casos más, hasta el punto que a menudo esperamos que algo suene de cierta manera. El clásico ejemplo se halla en la ciencia ficción: donde no hay aire, no puede sonar una explosión, y la luz (como del laser) no suena en la vida real; así que toda la acción en el espacio (casi todo Star Wars) debería ser en realidad muda. La película Gravity trata de mostrar esto, aunque si escuchamos con atención, a menudo sobrepone ruidos asociables a la acción. También esperamos cierto condimento sonoro en los sonidos de balazos y sobre todo golpes en las películas de acción, o grillos en un campo abierto, etc. Otro buen ejemplo son las animaciones: no se graba algo existente, así que se tiene que prever el sonido. Wall-E fue la primera película de Pixar en la que estuvo un artista sonoro (Ben Burtt) desde el inicio del diseñovisual. Todo esto lo debemos considerar al prever el montaje, y por ende, al preparar la grabación de los fragmentos que serán ensamblados en él. Aparte de ello hemos de pensar en cómo incidir en el significado mediante montaje, como complementar, contraponer, potenciar la lectura de la imagen. Estos son posibili67


dades del ámbito narrativo, entremos a continuación en detalles más técnicos.

2 Grabación casera Luego de planear qué grabar, nos centraremos ahora en cómo grabar sonido y editarlo (su reproducción, es decir el lado de los parlantes, será tarea de nuestro público). Nuestro ámbito será el de la grabación y edición digital, en específico las de bajo presupuesto. 2.1 Las entrañas del micrófono ¿Cómo funciona un micrófono, o un parlante? Consideremos que el sonido es transmitido normalmente por ondas de aire, así que, para hacer sonido, tenemos que poner aire en movimiento haciendo vibrar algo: nuestra voz es la vibración de nuestras cuerdas vocales y la resonancia de nuestro cuerpo. Para registrarlo, necesitamos captar la vibración que surge al impactar las ondas sonoras en algo (nuestro oído funciona igual). El mecanismo mediante el cuál nuestra tecnología actual registra el sonido es a menudo el mismo que el de su reproducción: la vibración electromagnética. 68


El principio es el siguiente: la electricidad genera magnetismo, el cuál se puede transformar en movimiento, y viceversa. Si pasa electricidad por una bobina (cable de metal enrollado), esta adquiere calidades de un imán y puede repeler o atraer otro imán. El cuál, si está pegado a la membrana de un parlante, la hace vibrar, generándose así ondas sonoras. A su vez, si a la inversa muevo un imán dentro de una bobina se produce un movimiento de electrones, es decir electricidad, cuyo flujo se puede amplificar para registrarlo. Este último es el funcionamiento de un micrófono dinámico.

Hay diversos tipos de micrófonos, otros en vez de imán usan elementos electrónicos para captar las ondas de aire (en algunos, tales elementos necesitan ellos mismos electricidad, sea por baterías o cable), y sus características se desarrollan en función de qué se quiere grabar: voz, instrumentos, ambientes, etc. El tamaño también varía bajo los mismos criterios. Pero el principio suele ser siempre parecido: la vibración o deformación de una membrana es convertida en impulsos eléctricos. La construcción de un micrófono influye en qué dirección de sonido registra. Puede ser desde sensible a todo su alrededor (omnidireccional), hasta, pasando por diversas direccionalidades intermedias, estar centrado en sólo un punto específico 69


(micrófono de cañon, o shotgun). Podríamos compararlos, si pensamos en lentes de cámara, con el gran angular ojo de pez por un lado y con un teleobjetivo muy potente por el otro. Fuente: NN y lainf en Wikipedia CC BY-SA 3.0 2.2 Micrófonos a nuestra mano, y qué debemos cuidar El micrófono más simple y común suele ser para voz, así que normalmente es dinámico y registra lo que está a su alrededor. Es aquel al que se aferran los cantantes en el Karaoke, pero en realidad, no es necesario quitárselo, pues hoy por hoy estamos rodeados por micrófonos. Las computadoras y los celulares, obviamente, tienen uno. Pero no es tan recomendable usarlos para grabar: más sensibles, y a la vez más manipulables, son los de los audífonos con micrófono que muchos tienen con su celular. Mejor calidad tiene el auricular, mejor es, probablemente, su micro. Claro, si se tiene acceso a otros tipos de micrófono (direccionales, de solapa, etc), sería ideal poder experimentar con ellos. Sin embargo, no debemos olvidar que su sensibilidad y dirección varían. Es decir, no hay un tipo de micrófono ideal, hay que probar escuchándolo según lo que queremos registrar. En lo que hay que poner la máxima atención es que el micrófono no escucha como nosotros. Consideremos lo siguiente: - Distancia. Pasa a menudo, cuando recién aprendemos a grabar, que pensamos que un micrófono graba de la misma manera como ven nuestros propios ojos: que va a estár dirigido hacia lo que estamos mirando, y registrará enfocándolo al igual que nuestra vista y el lente de una cámara. Y en consecuencia, dirigimos un micrófono hacia lo que queremos registrar a pesar de que esté a muchos metros de distancia y rodeado de otras fuentes de sonido. Sin embargo, es una equivocación, pues al revisar la grabación, nos daríamos con una masa indistinguible de ruidos. Eso se debe a que un micrófono, a menos que sea altamente 70


direccional, va a grabar absolutamente todo, comenzando por lo más cercano. Así que si grabamos, desde el fondo, a alguien exponiendo delante de una clase, vamos a encontrarnos con todos los ruidos de los que están sentados en medio. Con mucha suerte distinguiríamos en medio del barullo la voz de quien expone. Es por ello que los micrófonos no especializados (como los integrados en cámaras de fotografía) registran mas o menos todo, y bastante poco de aquello que enfocamos. Por ello es importante acercar el micrófono a la fuente de sonido, aún si eso implica grabar audio y video con aparatos separados y/o en momentos diferentes; total, se pueden juntar aleditar.

- Entorno Por lo mismo, debemos considerar que todo lo que oímos de nuestro alrededor será registrado. Típico es tener una grabación llena de ruido de tráfico. Por eso, si vamos a grabar a alguien hablando, o lo grabamos aparte en un lugar tranquilo, o acercamos el micrófono, o usamos uno direccional. - Ruidos deinterferencia ¡Atención! Las vibraciones, como vimos arriba, son registradas, 71


es decir, también las no planeadas. No debemos subestimar el viento: una ligera brisa en un micrófono hace un ruido infernal, así que o se cubre con algo que deje pasar el sonido (por eso hay esas motas peludas cuando se graba al aire libre). Otro detalle, si nos acercamos mucho con el micro a la boca: el aire de consonantes como P o S genera más presión (para lo cual se usan poperstoppers, que se puede fabricar con una panty). Fuente: Wikipedia CC BY-SA 3.0 Lo más importante, al grabar con el micrófono de los audífonos, es evitar que vibren, por ejemplo por micromovimientos si los sostenemos con la mano: mejor es sostenerlos por el cable. Si los ponemos sobre una mesa, es recomendable poner debajo una tela, o enrollarlos de tal modo que estén suspendidos en el aire. 2.3 Aparatos de grabación Hay diversas calidades en los aparatos para grabar la entrada del micrófono. En nuestra era digital las diferencias no son tan altas como en la era analógica. Un aparato simple puede registrar con una resolución muy alta. El límite de calidad son los circuitos que digitalizan la señal, pero, para nuestros fines, basta la calidad que nos puede dar una computadora, un cámara de fotos y/o video, e inclusive un celular. Así que recomendamos, si se usa un smartphone para grabar con headset, revisar si se halla una aplicación que incluya la máxima resolución posible y utilizarla para grabar. Es útil que tenga una barra de volumen, pues al grabar hay que evitar que el volumen sature. Si excede cierto límite ya no es posible el registro. Es como sobreexponer una foto: a partir de cierto punto sólo se ve blanco, y en el sonido sólo se oye ruido. La siguiente imagen muestra primero una grabación saturada, y una segunda mitad que sí registra correctamente.

72


Fuente:https://manual.audacityteam.org/man/audio_track_dropdown_menu.html Si se usa una cámara de fotos se debe evitar usar el micrófono integrado pues este suele ser, como mencionado anteriormente, bastante malo; hay que conseguirle uno externo. Si se tiene uno bueno, a menudo se graba con la misma cámara solamente el sonido, desechando la imagen. 2.4 Audífonos y derivados Respecto a escuchar al grabar y editar, hay poco que decir, excepto que hay que tratar de tener los mejores audífonos o auriculares posibles, y siempre cuidar en no excederse en volumen para cuidar los oídos propios. Ya que los parlantes internos de una computadora suelen ser planos, y por lo tanto no hay espacio para generar tonos graves, el sonido de estos parlantes es pésimo (peor, en este sentido, solo son los parlantes internos de un celular). Por ello hay que evitar monitorear una edición de sonido con los parlantes internos de una computadora - aparte de que significa, caso dado, una tortura sonora para los demás presentes. El micrófono de los auriculares de nuestros celulares nos pueden servir para grabar. Pero para oír el sonido al editar, brinda más fidelidad (por tamaño y no vibrar en el craneo) y seguridad (de no dañar el oído) utilizar los de casco, con el parlante no en sino sobre nuestra oreja.

73


Fuente: Fletcher6 y Pertsaboy Wikipedia CC BY-SA 3.0 Sin embargo, al editar sonido hay que considerar que los medios de reproducción del público probablemente no serán ideales, así que es bueno hacer una version que suene bien en un buen equipo, pero sobreviva en uno malo. Un nuevo ejercicio, ahora que ya tenemos las herramientas, puede ser tratar de grabar por separado los diversos sonidos que hemos detectado en el ejercicio de escucha anterior. Tomemos un espacio cualquiera, identifiquemos los sonidos que lo componen, e intentemos registrarlos de manera lo más independiente posible con nuestro celular y el micro desus audífonos. Por ejemplo el ruido de la ventilación, pasos de quien camina afuera, etc. 3 Montaje y edición Veamos a continuación el trabajo en la computadora. Antes que nada, pensemos en el material: como con todo medio digital, la resolución es un tema importante. Igual como en edición de fotografía o video, hay que buscar la máxima que podamos conseguir, y trabajar con ella hasta llegar a exportar el producto final.

Fuente: Moralapostel en Wikipedia CC BY-SA 3.0

74


Una onda sonora es medida en tiempo y valor. La resolución en el tiempo es indicada con la frecuencia de muestreo, o sea las veces por segundo que se mide una señal. La de un CD es de 441000 veces por segundo, es decir 44,1 KHz. El valor, es decir la posición o altura del sonido en cada instante, es indicado por el número de bits por muestra. El standard en un CD,16 bits, significa una amplitud de 65536 tonos diferentes posibles. Un equipo profesional de audio puede llegar a 192 KHz y 96 bits. También al igual que en foto y video hay varios formatos que implican un códec (código) de compresión y algunos sin perdida (lossless). Mayor compresión se alcanza eliminando las frecuencias que se supone no oímos, juntando los canales de estéreo, etc. Un MP3 tiene siempre compresión, WAV y AIFF son lossless y por lo tanto más voluminosos. En consecuencia, si se busca sonidos pregrabados, por ejemplo en internet, hay que poner atención en que sean lossless, o al menos que tengan la mayor resolución posible. 3.1 La lógica de losprogramas Como hemos visto, montaje equivale a ensamblar, edición a retocar el sonido. Se puede realizar los procesos por separado. Por ejemplo, al editar el video se realiza el montaje, en pistas, de sonidos a menudo retocados en un programa externo. Comparándolo con el diseño gráfico, podemos decir que ensamblamos en un programa de diagramación, digamos InDesign, las fotos retocadas con un programa especializado, digamos Photoshop. También podemos considerar imágenes creadas, por ejemplo 75


en Illustrator, lo cual correspondería en audio a programas de generación de sonido - es todo un ámbito, pero no entraremos aquí a él. A continuación vamos a abordar un programa que puede hacer ambas cosas a la vez. Vamos a tomar Audacity porque, a pesar de trabajar con muy altas resoluciones, es gratuito y puede correr sobre muchas computadoras; no solo porque existe para diversos sistemas operativos, sino también porque gasta poca potencia. Por todas estas razones también es uno de los programas sobre el que más información se halla en foros de internet, así que es ideal para autoaprendizaje. Sin embargo, la idea no es atarnos a una herramienta, sino entender cómo piensa un programa de edición. 3.1.1 Un programaconcreto Se puede bajar el programa en www.audacityteam.org. Luego de instalarlo quizás se tenga que instalar los complementos para poder importar y exportar MP3 y otros formatos no abiertos; búsquese en las FAQ las instrucciones al respecto. Audacity tiene una característica importante: maneja un archivo de proyecto (.aup) relativamente pequeño y una carpeta (_data) en la que mete los medios sin mayor compresión, por lo que esta carpeta resulta voluminosa y crece con el proyecto. Al inicio del trabajo se debe decidir dónde se van a colocar ambos elementos (disco externo, etc), pues si alguno es cambiado de lugar o renombrado, el programa no los podrá volver a conectar. Es recomendable por ello hacer una carpeta del proyecto, en la cuál también se meterán todos los sonidos que se usarán. El motivo es el siguiente: ya que se puede jalar archivos de sonido directamente a la linea de edición, puede suceder que si la fuente es un USB o CD que luego se extrae, o si el archivo es borrado, el programa ya no halle la referencia. Este tipo de confusiones se evita al meter todos los archivos a utilizar dentro de una solacarpeta. Para poder oír nuestro producto fuera de Audacity lo tenemos que exportar, por ejemplo en un MP3 de alta resolución. Cuando hayamos terminado de editar y exportamos el producto final, es 76


recomendable borrar la carpeta de Audacity dado el mucho espacio que ocupa. 3.1.2 Componentes básicos En la mayoría de los programas de edición se ve la onda de sonido como un gráfico de volúmenes. De esta manera podemos reconocer sucesos sonoros y sincronizarlos con la imagen. Suelen también tener botones de reproducción (pausa, adelantar, etc) y un manejo para cada pista (callarla, o que se reproduzca sola, así como su volumen y repartición estéreo generales). Aquí vemos estos elementos en Audacity: Funciones en la ventana de Audacity

77


Barra demedición

Las herramientas de trabajo en Audacity son 6: selección, envolvente (que sirve para manipular el volumen), dibujo (para mover, en máximo detalle, puntos exactos de la curva), zoom, traslado (para mover de un lado a otro), y una multifuncional que va saltando entre las anteriores según el área en donde ponemos el puntero. Vemos también que hay indicadores de volumen. En ellos, al grabar y reproducir el tope debe ser inferior a 0. Un buen referente es que los sonidos más fuertes apenas deben pasar -12. Se puede colocar un elemento en una pista, y retocarlo, para luego combinarlo con otras pistas paralelas. Aquí un ejemplo de elementos en pistas paralelas y en serie:

Fuente: http://mediensyndikat.de/grafik/audacity_clip_colours. png.Permiso del autor para el uso en este libro. La colorización no es del programa. 78


En la imagen vemos cómo funciona colocar los elementos en capas. A veces es más controlable dedicar a cada objeto sonoro una pista propia. Como vemos, no hay ningún momento en el cual no suene nada. Pues como dijimos, el silencio absoluto es poco natural. Una estrategia clásica es primero construir un fondo sonoro (el silencio que no es tal) a partir de elementos sobrepuestos e intercalados, y luego sobre esta alfombra sonora comenzar a colocar los elementos que han de resaltar. Antes de combinar los elementos, se les puede retocar. Esto implica recortar el largo exacto y suavizar su entrada y salida mediante el manejo del volumen en sus extremos (para que no suene de golpe). También implica aplicar efectos, sea de optimización como aumentar el volumen de la onda sonora (un efecto interesante es uno llamado normalizar) o limpiarla de ruido de grabación (una herramienta se llama remover ruido), sea de adecuación (como adjudicarle el eco de cierto espacio) o sea de distorsión, como el cambio de tiempo (aletargando el sonido, acelerándolo, o inclusive, por tiempo -100%, invirtiéndolo). Audacity, al igual que algunos otros programas de sonido, utiliza componentes de diversos standards abierto s (como los plugins VST y Nyquist). Esto conlleva a que, aparte de plugins comerciales, se hallan muchísimos puestos a disposición gratuita. Buscando un poco se halla un amplio espectro de efectos que pueden ayudar a mejorar, adecuar, distorsionar y en general a manipular el sonido de diversas formas. Ejercicios Ahora que sabemos los principios básicos para poder montar y editar, la mejor manera de aprenderlo es con ejercicios concretos. Hemos mencionado en el texto ejercicios para entrenar la escucha y el pensar sonoro. Lo que sigue son ejercicios para primero entrenarse en la herramienta de edición (que también puede ser otro programa de edición que Audacity), y luego para la creación de sentido mediantesonido.

79


1 Ejercicios de ensamblaje Estos ejercicios nos van a dar cierta familiaridad con la herramienta y con la grabación, así como nos entrenan en la sensibilidad que esto implica. a) Desarmar yreensamblar El primer ejercicio es desglosar una pieza sonora, extrayendo y juntando un tipo de audio. Puede ser aislar todos las veces que, en un diálogo de una escena fílmica, un solo personaje habla y juntarlas de manera continua para que parezca un monólogo, o sacar un instrumento de una pieza musical y recolocarlo de manera ininterrumpida. Un buen ejemplo es la pieza Concerto Grosso alla Rústica de Les Luthiers, pues intercala dos tipos de música: folclórica y clásica. Podemos extraer dos piezas musicales aislando las categorías. b) Ilustración El segundo ejercicio es uno de sincronización de sonido. Tomamos una escena de 10 segundos mínimo de una película muda, e imaginamos los sonidos que se escuchan. El reto es reconstruir el sonido de aquella escena, con sonidos extraídos de otras películas, de repositorios en internet de acceso abierto (como freesound.org o archive.org) o, mejor aún, grabados pornosotros mismos. En general es recomendable que tratemos de usar sonido sin restricciones de autoría (es decir, o propios, o de fuentes que expresamente permiten su libre uso). El ejercicio no incluye música. c) Des-ilustración Este ejercicio ya se dirige más hacia la creación de sentido complejo. La tarea en este caso es tomar una escena de una película sonora y cambiarle todos los sonidos. Por ejemplo: si hay pasos, reemplazarlos, y/o distorsionarlos, o colocar un sonido asociable pero no literal, etc. En esta parte hemos de considerar nociones acerca de la creación de sentido: ilustración, contrapunto, etc. Tampoco aquí debemos usar música. 80


d) Reproducción deespacio En este ejercicio retomamos el análisis de nuestro entorno. Nos paramos en un punto de un espacio, escuchamos atentamente y reconocemos sus sonidos a detalle, y luego grabamos cada sonido de manera aislada. Si grabamos por ejemplo una cocina, nos acercamos a la refrigeradora, al caño que gotea, etc. También tenemos que grabar la atmósfera, es decir, el silencio cuando los demás ruidos no están. Caso dado desenchufamos aparatos para grabar este semi-silencio. Finalmente ensamblamos en nuestro programa de edición nuevamente el espacio y lo comparamos con el sonido original del punto exacto del cual partimos. e) Reinvención de espacio Para este ejercicio, simplemente tomamos todo el material del anterior y jugamos con los parámetros. Usamos volumen y panorama (estéreo), y caso dado otros efectos. Por ejemplo, podemos aumentar el ruido de la refrigeradora, la podemos colocar a la izquierda en vez de a la derecha, o hacemos que suene como si no funcionase bien, o, con cierto eco y efecto similares, damos la impresión de que el espacio de la cocina es más grande. Aquí podemos, si deseamos, incluir la noción de música acusmática, es decir, una composición que no recae en instrumentos musicales, sino en la organización de sonidos. Un ejemplo en cine son aquellas dos escenas en la película Zatoichi de Takeshi Kitano en las que los sonidos incidentales del entorno van conformando un ritmo. 2. Ejercicios de narración En esta parte entramos a la creación desde la concepción compleja, es decir, desde una estrategia de diseño. El objetivo es ingeniar un mundo en el cuál sucede una historia, o dicho a la inversa, una narración que tiene lugar en un entorno. Así que crearemos ambos, primero de manera independiente, y luego fusionada.

81


A) Paisajesonoro Utilizamos aquí la palabra paisaje porque implica más que una mera extensión de territorio; la noción puede contener una forma de observarlo, asociaciones, un evocar. En ese sentido, el objetivo de esta tarea no es solamente construir un espacio poblado de objetos sonoros, sino también habitado por sensaciones. La estrategia para construirlo va a incluir por lo tanto decidir su lugar, sus características, y a la vez diseñar aquello que puede evocar. El material pueden ser sonidos de repositorios abiertos y grabados por nosotros, aunque podemos también intervenirlo con efectos, con ruidos no identificables o sí reconocibles y demás elementos. Como vemos, el ejercicio es más complejo que meramente describir un espacio: es darle un ambiente. Este ambiente no tiene que ser estático, puede implicar cierto dinamismo (sea cíclico o lineal, es decir, una evolución), siempre y cuando esto no se confunda con la historia a contar. B) Narrativa sonora En esta parte vamos a contar una historia sonora. Como en la época de las radionovelas, pero sin utilizar diálogos. Caso dado sí se puede usar voz, pero no como herramienta principal de sentido. Un buen ejemplo de sonorización de una película sin basarse en diálogos, y en donde el habla es un ruido más, son las películas de Jacques Tati, como Les vacances de Monsieur Hulot. Otro ejemplo de contar historias con el sonido es el cuento musical Pedro y el Lobo, de Sergei Prokofjev. Si bien nosotros no usaremos música, podemos utilizar su estrategia de Leitmotiv utilizando ciertos sonidos para reconocer a los personajes. La tarea es desarrollar una narrativa con curva dramática que es solamente contada mediante acciones sonoras. Para ello será necesario planear las acciones que vamos a oir, la secuencia y la relación entre las acciones, además de cómo vamos hacer todo aquello identificable acústicamente. Es recomendable hacérselo escuchar a diversas personas para cotejar qué tan entendible resulta.

82


C) Fusión: un historia en un paisaje La última parte finalmente es combinar los dos ejercicios anteriores. Al escuchar, debemos poder diferenciar qué es el paisaje y qué es la acción - aunque es válido utilizar caso dado la fusión de ambos. Bibliografía del ensayo: Chion, Michel. Film: A Sound Art. New York: Columbia University Press 2009. Flückiger, Barbara. Sound Design. Die virtuelle Klangwelt des Films. Marburg: Schüren 2001. Filmografía del ensayo: Gravity (Gravedad). Dir. Alfonso Cuarón, USA 2013. Les vacances de Monsieur Hulot (Las vacaciones del Sr. Hulot). Jacques Tati, Francia 1953. Zatoichi. Takeshi Kitano, Japón 2003. Ejemplos recomendados: Pedro y el lobo - https://www.youtube.com/watch?v=rXIltpC8As0Dark Echo - http://www.darkechogame.com

83


GRUPO DE INVESTIGACIÓN DE SEMIÓTICA VISUAL GRUPO DE INVESTIGACIÓN DE VIDEO DISEÑO PRODUCCIONES VIDI VIDEO DISEÑO


85


www.vidipucp.wordpress.com http://vimeo.com/channels/vidi http://departamento.pucp.edu.pe/arte/laboratorio-semiotico/

GRUPO DE INVESTIGACIÓN DE SEMIÓTICA VISUAL

GRUPO DE INVESTIGACIÓN DE VIDEO DISEÑO

PRODUCCIONES VIDI VIDEO DISEÑO


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.