SONAC 2014

Page 1


COMITÉ ORGANIZADOR: Tomás Villón Christiam Garzón Luis Bravo M. COMITÉ EDITOR: Christiam Garzón Luis Bravo M. Carlos Jurado Orellana


S O N A C 2 0 1 4

Bienvenida Editorial DISEÑO E IMPLEMENTACIÓN DE UN PROTOTIPO DE ESTACIÓN DE MONITOREO DE RUIDO DE BAJO COSTO.

3 4 5

Juan Carlos Merlo Bodenhorst

RELACIÓN ENTRE LA EXPOSICIÓN AL RUIDO AMBIENTAL Y LA MOLESTIA QUE OCASIONA EN AULAS DE EDUCACIÓN MEDIA EN QUITO, ECUADOR.

10

Pablo Ávila, Luis Bravo-Moncayo

EVALUACIÓN DEL IMPACTO ACÚSTICO GENERADO AL INTERIOR DE LOS BUSES DEL SISTEMA INTEGRADO DE TRANSPORTE PÚBLICO ECOVÍA DEL DISTRITO METROPOLITANO DE QUITO.

16

Dennys Alejandro Granizo Vallejo

DESARROLLO DE UN SOFTWARE DE PROCESAMIENTO PARA OBTENER SEÑALES DE AUDIO BINAURALES A PARTIR DE SEÑALES DE AUDIO MONOFÓNICAS.

23

Juan Antonio León Buitrón

EVALUACIÓN DE LOS COMPONENTES DEUNA BANDA SONORA EN MATERIAL AUDIOVISUAL APLICADO A PUBLICIDAD PARA TELEVISIÓN, CONSIDERANDO LAS PERCEPCIONES PSICOACÚSTICAS DE SONORIDAD, TIMBRE, ESPACIALIDAD Y DIRECCIONALIDAD.

29

Andrea Estefanía Olmedo Guerra

DESARROLLO DE UNA SÍNTESIS FM UTILIZANDO LA PROPORCIÓN ÁUREA Y LA SUCESIÓN DE FIBONACCI A TRAVÉS DEL LENGUAJE DE PROGRAMACIÓN MAX/MSP.

35

Valeria Villarreal

DISEÑO Y CONSTRUCCIÓN DE UN CONTROLADOR MIDI UTILIZANDO DISTINTOS COMPONENTES DE CONTROL FÍSICOS. Roberto Vásquez

45

1


S O N A C 2 0 1 4

3

» Bienvenida

E

s para nuestra universidad, la Facultad de Ingeniería y Ciencias Agropecuarias, y la carrera de Ingeniería en Sonido y Acústica, una satisfacción llegar al término de un año más de este gran propósito, que es el de formar nuevos profesionales, emprendedores y llenos de valores para el éxito en sus carreras de servicio. Nosotros como institución seguimos invirtiendo, en contrataciones de los mejores profesores del campo, infraestructura física y equipos para laboratorios. Todo esto acompañado de un sistema de calidad que representa la mejora continua y sostenibilidad entre los diferentes actores de la universidad, estudiantes, profesores y funcionarios de esta institución. Es notable los logros de nuestros coordinadores de carrera que hacen posible la gestión de mejora continua en nuestros estudiantes, producto de la buena tutoría, organización y clara comunicación en el proceso de aprendizaje –enseñanza. Como evidencia de estos logros de formación académica, ahora presentamos el quinto número de la revista SONAC, donde hemos publicado los trabajos de titulación más destacados, que aportan significativamente al campo de la Acústica en nuestro medio. Además de felicitar a toda la plana de colaboradores que hace posible el crecimiento y fortalecimiento de la carrera, dejo de manifiesto el compromiso de facilitar y dirigir los recursos de la universidad enfocados en el estudiante, seguiremos cumpliendo con nuestros planes de mejoras con la mística de “Amar lo que hacemos” y de esa manera alcanzar los resultados que se deben reflejar en las expectativas de los estudiantes y el desarrollo de la comunidad profesional de la Acústica. Tomas Villón M. Decano Facultad de Ingeniería y Ciencias Agropecuarias UDLA


» Editorial

E

n los últimos años en el Ecuador, se ha evidenciado un incremento de regulaciones de formación académica de nivel superior, lo cual ha desembocado en el aumento de personal docente - investigador especializado en ciertas áreas de prioridad productiva para el país, mismo que tiene la misión de transmitir y generar conocimiento junto a talento humano ecuatoriano en las diferentes universidades que tiene el Ecuador. Este es el caso de la única carrera de Ingeniería en Sonido y Acústica del Ecuador, la misma que una vez más presenta el resultado de su arduo trabajo recogido durante un año en cuanto a avances tecnológicos y científicos, realizados por los investigadores y estudiantes de nuestra carrera. Esta ocasión, se presenta una edición más de la revista especializada en sonido y acústica SONAC, con una gran gama de temas de alto nivel, que van desde diseño de prototipos de medición de ruido de bajo coste, hasta el desarrollo de métodos de síntesis sonora por metodologías matemáticas, como son las series de Fibonacci; todo este producto es fruto del esfuerzo de un claustro académico comprendido por profesionales, académicos e investigadores de varias nacionalidades con amplia trayectoria en el campo de la acústica, el sonido y sus afines. Por todo lo antedicho, esta revista constituye un trabajo valioso para aquel lector multidisciplinario que está ávido de encontrar varios puntos de relación entre temas de sonido y acústica sin la necesaria secuencia que impone un texto definido. Un fraterno reconocimiento a nuestros autores, estudiantes, docentes e investigadores que hicieron posible la realización de este tomo, y la reiterada invitación a “ser y hacer siempre Acústica”, bienvenidos. Christiam Garzón P. Coordinador académico Ingeniería en Sonido y Acústica Universidad de Las Américas


DISEÑO E IMPLEMENTACIÓN DE UN PROTOTIPO DE ESTACIÓN DE MONITOREO DE RUIDO DE BAJO COSTO. JUAN CARLOS MERLO BODENHORST Universidad de las Américas, Ecuador, Quito. jcmerlob@gmail.com RESUMEN: El ruido, principalmente el urbano, es un fenómeno cambiante que afecta a millones de personas diariamente. Su monitoreo es complejo y necesario si se desea tomar medidas adecuadas de prevención, construcción y planificación urbana. Por esta razón y la creciente disponibilidad de la tecnología digital, nace la iniciativa de desarrollar estaciones de monitoreo de bajo costo. Estos puntos de monitoreo se podrían distribuir a lo largo de las zonas afectadas, y realizar un seguimiento extensivo del ruido urbano, el cual se adquiere en una estación central de recepción. Este proyecto abarca el desarrollo y pruebas de un primer prototipo de dicha estación de monitoreo, que, con un bajo costo, logra buenos resultados y entrega una idea más clara del futuro de estos sistemas. Palabras claves: Adquisición de datos, DAQ, Micro controlador, Monitoreo, Ruido, Prototipo, Urbano.

I. INTRODUCCIÓN Una tecnología digital cada vez más accesible y económica, es un incentivo constante para la experimentación y la innovación. En todos los campos de la ingeniería existe la posibilidad de rediseñar y optimizar los diversos sistemas. De esto surge la idea de crear un instrumento de metrología acústica o sonómetro, utilizando la tecnología de los micro controladores. El objetivo es crear un dispositivo lo suficientemente flexible y de bajo costo como para ser parte de una red de monitoreo acústico para zonas urbanas. Los micro controladores son esencialmente computadores miniaturizados en forma de circuitos integrados. En la era moderna son el corazón de cualquier dispositivo digital, tienen diversas arquitecturas que varían dependiendo su tecnología de fabricación y aplicación específica. Desde un simple reloj de mano hasta un avanzado brazo robótico, el fundamento es el mismo, aplicado a diferente escala y capacidad. Las posibilidades son numerosas, sin embargo esta tecnología solo representa materia prima de lo que es verdaderamente un dispositivo funcional, que debe ser diseñado, testeado y ensamblado por su fabricante.

II. METODOLOGÍA A. Sistemas digitales de adquisición de datos. Para construir el dispositivo de este proyecto era preciso conocer la teoría detrás de estos sistemas. Un sonómetro digital es un tipo de sistema bastante usual, llamado sistema de adquisición de datos digital (DAQ), estos sistemas se caracterizan por tener cuatro etapas indispensables para cumplir su función básica de realizar mediciones: 1. Un sensor o transductor para capturar un fenómeno o acción que deseamos medir, que consecuentemente lo convierte a una señal eléctrica que represente dicho fenómeno. 2. Una etapa de adecuación de la señal, que se encarga de adaptar la salida de la señal a las necesidades de la conversión analógica-digital. Comúnmente esta etapa consta de ganancia y filtrado (como el filtro anti-aliasing) pero puede también comprender etapas más complejas de procesamiento según las necesidades. 3. Un convertidor A/D, que es un circuito utilizado para medir voltajes de entrada, que se transcriben a datos digitales, cuya resolución depende de las capacidades del convertidor y una vez que se digitaliza la información, es posible realizar cualquier tipo de procesamiento computarizado. 4. Finalmente la información debe ser procesada y desplegada, en un aparato de metrología acústica, esto significa calibrar la medición del voltaje realizada, al nivel de presión sonora que originó el mismo, con el fin de mostrar los datos de medición al usuario del sistema a través de una pantalla o display. Para el diseño del prototipo sería necesario resolver cada una de dichas etapas. B. Transductor electro acústico y sistemas lineales. Un transductor electro acústico convierte la energía acústica a una señal eléctrica, los mejores para la tarea son los micrófonos de condensador, por tener una respuesta de amplitud lineal en todo el espectro audible. Es decir que la entrada acústica a dicho sistema mantiene una relación de primer orden con el voltaje de salida.

5


La linealidad en este tipo de sistemas es muy importante, porque determina la estructura del algoritmo de calibración, el mismo se aplicará una vez que la señal del transductor sea digitalizada. Tener un sistema lineal desde el transductor hasta la conversión A/D, significa que se puede calibrar el voltaje medido por el convertidor, a la presión sonora de entrada, utilizando una función matemática de primer orden. Esto minimiza errores en la medición generados por el algoritmo de calibración que se torna mucho más fácil de diseñar.

'$!!"

!"#$%&'()'(*%#+)%(,-!(.+/"0(

'!"

'"

!"#$%&'()'(*%#+)%(,!0(

En la figura 1 se muestran los datos experimentales del sistema sensor y pre amplificador. Este muestra un comportamiento lineal con respecto a la presión sonora de entrada, el mismo comportamiento que se buscará en la zona de funcionamiento de cada una de las etapas del sistema de adquisición de datos, esto con el fin de crear un sistema lineal de medición.

El circuito integrado BA3834S es un analizador de espectro analógico. Utiliza 7 filtros pasa banda dispuestos en octavas desde 62Hz hasta 15kHZ, se usa para realizar un simple análisis de espectro a bajo costo con un CI, ya que este tipo de circuito integrado se utiliza mucho en sistemas de audio para funciones de reproducción gráfica. Lo que lo hace atractivo para este proyecto es que posterior al filtrado en octavas de la señal, el CI aplica un proceso llamado Peak Hold a cada banda, es decir un tipo de rectificación de la señal alterna, donde en su salida se obtiene voltaje de corriente continua, el mismo que está correlacionado al nivel de voltaje pico en cada una de las 7 bandas de frecuencia. La figura 2 muestra la respuesta encontrada al utilizar un generador de tonos puros, en la frecuencia central de las bandas de 62Hz, 1kHz y 15kHz.

'#!!" '!!!" &!!" %!!"

!('"

!(!'"

$!!" #!!" !"

!(!!'" !"

!(#"

!($"

!(%"

!(&"

'"

'(#"

.1'2+"3(*"3"1%()'(43$1%)%(,.%(.+/"0(

Figura 1. Respuesta a la amplitud de entrada, para el sistema: micrófono de condensador Behringer ECM8000 y pre amplificador Rolls mp-13, entre 0.06 y 1 pascales de presión sonora pico (70 y 94 dB).

Es importante mencionar que dicha recta está ligada al nivel de ganancia en el que se realizó el experimento. Este traslada la pendiente de respuesta arriba o abajo, al subir o bajar el nivel en el preamplificador, respectivamente. Esto convierte a la ganancia en pieza clave para la calibración del sistema, ya que llevará un determinado rango de nivel de presión sonora (NPS) de entrada al sistema, al rango de voltaje de salida necesario para el resto de componentes electrónicos en las etapas posteriores del prototipo de medición. C. Circuito analizador de espectro (CI). La señal está lista para ser adecuada al nivel de voltaje necesario por el pre amplificador, cumpliendo así una primera, y muy común etapa de acondicionamiento de la señal. Un sistema común de conversión A/D tendría una última etapa, un filtro anti-aliasing para evitar distorsiones de transcripción al momento de la conversión, y digitalizaría toda la información en la señal eléctrica del transductor. Esta es la línea de funcionamiento de los sistemas de grabación digital, que producen flujos grandes de información y requiere de equipos digitales avanzados y costosos. Con la idea de mantener un bajo costo del sistema se aplicó una etapa adicional de acondicionamiento de la señal, un circuito analizador de espectro.

'"

'!"

!"#$%&'()'('3$1%)%(,-!(.+/"0(

'!!"

)*+,*"-"."'!!!/0" )*+,*"%"."'1213/0" )*+,*"!"."%&/0"

Figura 2. Respuesta a la amplitud del circuito integrado BA3834S.

El circuito integrado proporciona una señal de corriente continua equivalente a la envolvente de la señal original de audio, y con la cual se determinará la amplitud de la misma. Esta señal acondicionada requiere cientos de veces menos información para ser digitalizada correctamente, ahorrando dinero en las capacidades del convertidor A/D, pero perdiendo la información original de audio en cada banda de frecuencia. En la respuesta también podemos observar el comportamiento lineal que buscamos para todas las etapas del sistema. Si observamos la entrada al CI en el rango de los 30 a 600 mV, es claro que produce una respuesta lineal en la salida en el rango de 0.25 a 4.7 voltios, aproximadamente. El rango dinámico de este rango de funcionamiento seria de: 20 log(600/30) = 26.02 dB Con la prueba anterior se espera que el rango útil de un analizador no supere los 26 dB. El CI muestra un rango dinámico limitado, pero podría ser parte de varias etapas de medición de la amplitud, por lo que el proyecto se centró en evaluar el funcionamiento de esta etapa individual, ya que aún resta evaluar el comportamiento de los filtros pasa

6


banda, que consta experimentales.

principalmente

de

pruebas

D. Conversión A/D. Para esta etapa crucial de la adquisición se utilizó el micro controlador (MC) ATmega328 de Atmel. En una popular tarjeta para diseño de proyectos y prototipos electrónicos llamada Arduino UNO, este MC se suma a una interfaz USB, por la cual se puede programar el ATmega328 directamente de un computador, y acceder con código de programación a sus 14 pines de entrada o salida digital y 6 entradas de conversión A/D de 10 bits. En el prototipo se utilizó una de las entradas analógicas para obtener la medición del voltaje de salida en el CI analizador de espectro. 4 pines digitales se utilizan como salidas para generar señales de control, necesarias para seleccionar la salida del analizador de espectro desde el programa del MC, y realizar las mediciones del voltaje en cada banda de frecuencia. De cualquier forma que se diseñe un aparato electrónico, el micro controlador ofrece facilidades para el funcionamiento, como en este caso que se utilizó el algoritmo del procesador para controlar el circuito integrado que se deseó implementar. En general se encontró un funcionamiento muy estable en la conversión del MC. La conversión A/D se realiza entre 0 a 5 voltios, y una resolución de 10 bits por lo que el voltaje mínimo a medir es: 5 × 1/1024 = 0.0048 v o aproximadamente 5mV. dinámico de:

que equivale a un rango

20×log(5000/5) = 60 dB Es así que la entrada del micro controlador está totalmente capacitada para leer la salida del CI entre 250 y 4700 mV. Finalmente se estableció que el prototipo realice el muestreo de la señal cada 200ms para mantener un flujo bajo de información y tener una respuesta impulsiva aceptable. E. Transmisión, calibración y despliegue de datos. Para la transmisión de datos se utilizó una tarjeta de red especial para la tarjeta Arduino UNO. Con este podemos usar el algoritmo del procesador para enviar paquetes de información a través de una red de computación LAN. Con tan solo un comando en el código se envían los datos de medición en las 7 bandas en un rango de 0 a 1024 hacia la dirección IP de un computador que actuará como receptor de datos.

Figura 3. El micro controlador, la tarjeta de red y la placa del circuito integrado, durante una prueba de respuesta con un generador de tonos.

Para la recepción de datos, se programó un computador utilizando LabView de National Instruments, que es una interfaz de programación enfocada a la adquisición de datos en laboratorio. El programa de recepción llamado "Data Logger", se diseñó como una interfaz de usuario completa, esta busca un paquete UDP de red cada 200ms y lo procesa para entregarlo al usuario calibrado en dB. Como sabemos que el voltaje medido al final del sistema es linealmente proporcional a la presión sonora en el diafragma del transductor, se desarrolló una función de calibración: NPS = 20×log(V/Vref ) + C donde la amplitud del voltaje V en la escala de conversión A/D (0-1024) se referencia a un nivel de voltaje Vref, y C es el nivel de presión sonora obtenido en laboratorio, que produce una salida de voltaje V igual a Vref, para cada una de las bandas. Es decir que para realizar la calibración se debe ajustar la ganancia del preamplificador y encontrar los 7 valores C de calibración para las bandas del CI. El nivel se calibra para cada banda individualmente y se suma la amplitud de las 7 bandas para determinar el NPS total del espectro, para esto se uso la función: NPStotal = 10×log(10NPS0/10 + ⋯ + 10NPS6/10 ) + ∆ Donde ∆ es un factor de corrección constante en dB, que se implementó para compensar errores en la sumatoria de la amplitud en las bandas, puesto a que los filtros pasa banda analógicos se sobreponen entre sí, por lo que se esperaba que la cuantificación de la amplitud total sea sobrevalorada. Posteriormente el valor de ∆ se encontró alrededor de 12.5dB, mediante pruebas de laboratorio comparativas con un sonómetro Solo 01dB. Un valor alto, y que no funciona correctamente si la mayoría de bandas en el analizador de espectro están inactivas, con lo que puede bajar la corrección hasta 9.2dB. Finalmente se adecuó el programa receptor de datos en PC, para realizar capturas y cálculo del NPS equivalente (o nivel de presión sonora promedio), con lo que el prototipo está listo para ser evaluado con otro instrumento de referencia. 7


Para la evaluación del prototipo se utilizó una serie de experimentos comparativos, la idea era exponer al prototipo y a un sonómetro de referencia, a la misma entrada acústica y evaluar las diferencias.

Figura 4. Condiciones experimento de evaluación.

de

laboratorio

del

último

Se ubicaron dos transductores idénticos, uno conectado al prototipo y otro al sonómetro de referencia (Interfaz de audio y computador) a una distancia de 30cm de una fuente de mediana potencia. Todo esto dentro de una sala absorbente, con la idea de minimizar la influencia acústica del recinto, y que la incidencia sobre los transductores sea únicamente sobre el eje directo. Con el ensayo listo se procedió a medir con ruido rosa en incrementos progresivos de amplitud, tomando niveles del prototipo y sonómetro de referencia se pudo modelar la respuesta a la amplitud en dB. La figura 5 muestra el nivel medido en el sonómetro con respecto al nivel obtenido por el prototipo. 88.1dB

!"

Finalmente se realizó más comparaciones utilizando muestras de audio representativas de ruido urbano, con el fin de seguir probando la capacidad del prototipo de cuantificar el NPS, ahora ante diferentes señales con diferentes contenidos espectrales, lo que pondrá a prueba la calibración y el factor de corrección =-9.2dB. Con la ayuda de una función de captura y exportación de datos que existe en ambos, el sonómetro y el "Data Logger", se logró realizar una comparación temporal de las capturas (Figura 6) y no solo la comparación del nivel equivalente. En la figura 6 se presentan dos de las capturas realizadas y que representan buenos ejemplos de las observaciones realizadas. La primera captura consta de una Autopista con bajo tráfico, el contenido espectral es bajo y se puede notar que el prototipo sigue muy bien al sonómetro con la corrección de =-9.2dB, esto es hasta que el nivel sale del rango de funcionamiento de los filtros pasa banda, que por el nivel de calibración de 88.1dB está entre 94dB y 77.5dB.

@>$"8+2$%(

''!" '!1" '!!" 61"

88.1dB

6!" &1" &!"

4'"

51"

4'(1"

!"

1"

'!"

4#"

'1"

#1"

-!"

-1"

$!"

$1"

1!"

$1"

1!"

D=><>E:>" B>+>?8<=>"

Nivel Equivalente P: 92.1dB S:95.1dB

4-" 4-(1"

="32$1>//+A3( ''!"

4$"

'!1"

4$(1" 41" 5!"

#!"

<+'-8"()'(=%8$>1%(,2'?0(

4#(1"

51"

&!"

&1"

;.*('3('#(*"3"-'$1"(,):0(

6!"

61"

'!!"

'!1"

''!"

''1"

'#!"

789:;89<*":=>?8,@>" A<*:*"B;:8=@>="C'1,)"

Figura 5. Respuesta promedio al ruido rosa,

= -12.5dB.

Con este ensayo se pudo comprobar, de manera práctica, la respuesta esperada en el sistema. Alrededor del nivel de calibración de C=88.1dB que se ubicó en la escala de amplitud Vref = 451, encontramos la parte central de la respuesta, donde la diferencia entre el sonómetro y el prototipo alcanza el error mínimo de -0.5dB. y con un error máximo de -1.5dB para 81 y 96 decibeles, esto nos deja un rango efectivo de medición de unos 15 dB. La línea de etapa superior, representa una extrapolación de lo que podría ser una segunda etapa de medición de amplitud, calibrada 15 dB sobre la primera etapa, este

;.*($"$%#(,):0(

5+6'1'3/+%(.1"$"78"(9(*"3"-'$1"(,):0(

4!(1"

segundo CI podría extender el rango dinámico del prototipo. Dado a que el costo de los CI es despreciable en relación al resto del sistema, esta mejora sería económicamente viable.

;.*($"$%#(,):0(

III. ANÁLISIS DE RESULTADOS

'!!" 61" 6!" &1" &!" 51" 5!"

!"

1"

'!"

'1"

#!"

#1"

-!"

-1"

<+'-8"()'(=%8$>1%(,2'?0(

$!"

D=><>E:>" B>+>?8<=>"

Nivel Equivalente P: 93.3dB S:90.8dB

Figura 6. Ensayos de captura de muestras de audio.

Se observó también 3 dB menos en la lectura del nivel equivalente en el prototipo, con respecto al sonómetro de referencia. Sin embargo este error parecería estar ligado a la falta de rango dinámico, y no sería importante en un sistema de rango ampliado. También es posible encontrar diferencias importantes en los segundos 9 y 38, el nivel del prototipo sugiere que hubo

8


algún error de cuantificación , ya que el nivel está en el rango operacional. Esto pudo ser producido por frecuencias específicas a las cuales el prototipo no responde bien, frecuencias intermedias entre los filtros analógicos, o quizás por sonido emitido en los límites de muy alta o baja frecuencia para el CI los rangos cubiertos por los filtros pasa banda. En la muestra de audio de una construcción urbana (figura 6), se presentó un ruido con alto contenido espectral, esta señal no tiene un rango dinámico amplio, por lo que se mantiene en el rango de funcionamiento del prototipo, sin embargo la sumatoria del nivel total se mantiene alrededor de 3 dB por sobre el prototipo durante toda la captura, lo que siguiere una corrección ∆=-12.5dB y revela el problema de incertidumbre que se encontró en ensayos anteriores, y se supone es un efecto de la superposición de los filtros pasa banda.

4) FCEIA (s.f.). “Niveles Sonoros, Federico Miyara” recuperado el 17 de junio del aa a 2 2014 de http://www.fceia.unr.edu.ar/acustica/biblio/niveles.htm 5) Franden, J. (2010). Handbook of Modern Sensors: Physics, Designs, And Applications. Springer. 6) Gerges, S. y Arenas, J. (2004). Fundamentos de Control de Vibraciones. Florianópolis, Brasil. NR Editora. 7) Miyara, F. (2004). Acústica y sistemas de sonido. Bogotá, Colombia. Fundación Decibel. 8) Young, S. (2001). Computerized Data Acquisition and Analysis for the Life Sciences. Cambridge, United Kingdom. Cambridge University Press.

IV. CONCLUSIONES En conclusión el proyecto cumplió todas sus expectativas, al poder completar un sistema de adquisición de datos útil y de bajo costo. El prototipo presenta unas buenas prestaciones, se pudo modelar todas las etapas del sistema, y determinar los puntos débiles que ayudarán a futuras investigaciones. Por un lado se encontró una buena estabilidad en los componentes, y se determinó que se puede medir señales de voltaje con una muy buena precisión en relación al costo del prototipo que no excede los 200 dólares. Por otro lado se detectó un punto débil en los filtros pasa banda, y podría ser superado si se ubican filtros con mayor resolución, o si eliminamos el analizador de espectro para rectificar y calcular la amplitud de toda la señal, sin el filtrado por bandas. Esto perderá toda la información espectral de la señal y nos llevaría a usar filtros de ponderación analógicos, difíciles de diseñar, pero podría ser el diseño de un segundo prototipo de bajo costo, que desde el punto de vista de esta investigación, podría llegar a una precisión excepcional.

RECONOCIMIENTO Agradecimientos a mi familia y la Universidad de las Américas, por el apoyo en esta investigación y durante el desarrollo de mis estudios de Ingeniería. REFERENCIAS

1) Arduino.cc (s.f.). “Información de productos, Arduino UNO” recuperado el 17 de octubre del 2013 http://arduino.cc/en/Main/ArduinoBoardUno 2) Burr, M. (2013). “Embedded Systems Glossary” recuperado el 4 de octubre del 2013 de www.barrgroup.com/embedded-systems/glossary 3) Comisión Electrotécnica Internacional. (2005). Norma Internacional IEC 61672. GINEBRA, Suiza. 9


RELACIÓN ENTRE LA EXPOSICIÓN AL RUIDO AMBIENTAL Y LA MOLESTIA QUE OCASIONA EN AULAS DE EDUCACIÓN MEDIA EN QUITO, ECUADOR. PABLO ÁVILAa, LUIS BRAVO-MONCAYOb Universidad de las Américas, Ecuador, Quito. a pavila@udlanet.ec b luis.bravo@udla.edu.ec RESUMEN: En este documento se presenta la investigación llevada a cabo en 5 escuelas urbanas y rurales del Distrito Metropolitano de Quito – Ecuador, donde se evaluó las condiciones acústicas de sus aulas, la relación entre el ruido ambiental medido en las aulas de clase, y la molestia ocasionada por el ruido de tráfico. Los parámetros acústicos evaluados en las aulas fueron: ruido de fondo, tiempo de reverberación, e inteligibilidad de la palabra. Además se generaron mapas de ruido de tráfico vehicular y mediciones de ruido de fondo en los exteriores de las aulas. La molestia acústica se evaluó por medio de una valoración subjetiva, donde se utilizó una escala numérica del 1 al 10 y una cualitativa de 5 valores. Para evaluar el efecto dosis-respuesta se recurrió al uso de métodos estadístico descriptivos e inferenciales, generando un modelo de predicción. En Ecuador no existe un estándar relacionado con la exposición al ruido en el sector educativo, por lo que las medidas encontradas fueron evaluadas según normativas internacionales. Los resultados encontrados muestran la necesidad de gestionar el ruido al que se exponen los alumnos de las escuelas evaluadas, ya que sus aulas no tienen un ambiente acústico apropiado para el aprendizaje. Es así que este resultado se ve plasmado en la valoración de molestia acústica; donde el 72% del total de la muestra evaluada presentan molestia asociada al ruido de tráfico Palabras claves: Escuelas, molestia, contaminación acústica, Quito.

I. INTRODUCCIÓN Se ha demostrado que ciertos estímulos sonoros pueden contribuir en el aprendizaje de un estudiante [1]; sin embargo, si un sonido se produce de forma prolongada o a su vez provoca molestia en el receptor, suele interfiere negativamente el proceso de aprendizaje. La exposición al ruido ambiental genera un déficit en el rendimiento tanto de profesores y de estudiantes [2][3][4]. Es así que las condiciones de calidad acústica dentro de aulas de clase están enfocadas en reducir el tiempo de reverberación y el ruido de fondo para que los mensajes generados en su interior tengan un carácter inteligible. El mayor problema presente en las aulas ha sido identificado

como el ruido de fondo generado por el tráfico vehicular [18]; pero así mismo no solo este agente contaminante se encuentra presente en ellas; también es posible encontrar ruido generado por aeronaves, que posee un carácter diferente [2]. Luego de haber encontrado el principal agente contaminador dentro de las aulas se concluyó que su principal consecuencia es la molestia que ocasiona [5][6]. Además se pueden destacar consecuencias de tipo fisiológico y psicológico producidas en base a ruido fluctuante; indistintamente de cualquier factor demográfico presente en la población de estudio [7]. Generalmente al evaluar exposiciones al ruido se utiliza el descriptor Nivel equivalente Día-Tarde-Noche LDEN por la relación que tiene con tiempos prolongados de exposición; sin embargo, en casos donde se requiere evaluar tiempos de exposición más cortos se recomienda utilizar el descriptor Nivel Continuo Equivalente LAeq [8]. Entre los estudios previos realizados en el Distrito Metropolitano de Quito podemos encontrar el desarrollado por la Secretaría de Ambiente del Municipio, donde se identifica al ruido ambiental como el tercer problema ambiental de mayor importancia para la ciudadanía [9]. El objetivo planteado para este trabajo fue hallar la relación entre el ruido ambiental y la molestia que produce; ya sea ruido percibido dentro o fuera de las aulas de clase (patios y corredores) de 5 establecimientos educativos en distintas zonas de la ciudad de Quito, donde la población de estudio se seleccionó acorde a los siguientes criterios: • Distribución geográfica apropiada • Capacidad instalada del establecimiento (>300 alumnos) • Antecedentes con estudios relacionados al estudio de contaminación de suelos y aire Determinados los parámetros mencionados, se eligieron las siguientes instituciones educativas acorde a cada sector: Escuela Sector • Mariscal Sucre Centro Histórico • Julio Enrique Moreno Sur • Nacional Nanegalito Nanegalito • Dr. Arturo Freire Tababela • Leonardo Maldonado Puembo

10


En la Figura 1, podemos encontrar su respectiva ubicación geográfica.

Con el fin de lograr resultados de mayor interés y aportar con la veracidad de este estudio se realizó la medición de tiempo de reverberación en dos temporadas: durante periodo lectivo y en vacaciones; en los dos casos sin presencia de personas dentro de las aulas de clase. B. Ruido de fondo interior El método por medio del cual se realizaron las mediciones fue el indicado en la normativa UNE-ISO 1996-2 [12]; cabe recalcar que se tomó como tiempo de medición en cada ciclo un equivalente a 15 minutos por medición y la ubicación del sonómetro en todos los casos fue en el centro del aula de clase, a 1,5 (m) de altura. El proceso de medición se realizó mientras las aulas se encontraban desocupadas. C. Ruido de fondo exterior Para evaluar este parámetro se realizaron mapas de ruido a través de modelamiento computacional, y mediciones en los patios y corredores de cada institución educativa con el fin de corroborar cada uno de los resultados encontrados. Las mediciones exteriores se realizaron por medio de la normativa UNE-ISO 1996-2 [12], bajo el mismo concepto planteado en el apéndice anterior. Para el método de predicción se utilizaron mapas de ruido de tráfico rodado, generados por medio del software CadnaA, según el método de RLS-90.

Figura 1: Ubicación geográfica en la ciudad de Quito de los centros educativos seleccionados para el estudio.

II. METODOLOGÍA Para el desarrollo de este trabajo instrumentación detallada en la tabla 1.

se

utilizó

la

Tabla 1: Instrumentación implementada

Equipo Sonómetro integrador Tipo 2 Sonómetro integrador Tipo 1 Calibrador

Marca Quest

Modelo Sound Pro SE/DL

No. Serie BIG30019

NTI-Audio

XL2

A2A06073E0

Quest

QII20065

Calibrador

01dB

QC-10 CAL CAL 21

Generador de Señal Equipo

NTI-Audio

Talkbox

TNN973

Marca

Modelo

No. Serie

Sonómetro integrador Tipo 2

Quest

Sound Pro SE/DL

BIG30019

51030986

A. Tiempo de reverberación La evaluación de este parámetro se realizó por medio del método de “Ingeniería” sugerido en la normativa UNE-EN ISO 3382-2 (2008)[10], donde se plantea al menos dos posiciones de fuente y dos de micrófono con un mínimo de 6 combinaciones fuente-micrófono independientes, además se utilizó como fuente generadora globos de plástico para cada muestra (>20dB por banda de octava), para evaluar el comportamiento de la reverberación se utilizó el módulo de análisis de T60 integrado en el sonómetro NTI Audio XL2 [11]. Los 6 ciclos encontrados en cada medición fueron promediados según su banda de octava.

D. Inteligibilidad de la palabra La evaluación de la inteligibilidad de la palabra se realizó según el método de STI (Speech Transmition Index) el cual se ejecutó a su vez de dos modos, el primero por medio del método calculado predictivo de Houtgast y Steeneken [13][14] el cual se basa en valores de T60 y ruido de fondo, generando una matriz donde se evalúa la reducción de índice de modulación de la voz en ciertas frecuencias consideradas (Fm) versus las frecuencias donde la voz humana predomina (Fo). Fm(KHz): 0.63, 0.8, 1.0, 1.25, 1.6, 2.0, 2.5, 3.15, 4.0, 5.0, 6.3, 8.0, 10.0, 12.5; Fo(Hz): 125, 250, 500, 1000, 2000, 4000 y 8000 La segunda forma para encontrar el valor de STI fue por medio de mediciones realizadas en el interior de cada aula evaluada; donde se colocó un Talkbox NTI en la posición del hablante (profesor), mientras que el sonómetro se ubicó en 12 posiciones distribuidas en la sala de clase, donde luego se realizaría un valor promedio de STI, este proceso se realizó según el módulo de STI-PA incorporado en el sonómetro XL2 [11]. E. Molestia Acústica La valoración de molestia acústica se ejecutó por medio de dos escalas, la primera una numérica que contiene una división de 10 valores, partiendo desde el 1, valor en el cual no molesta en absoluto el ruido de tráfico y 10 lo hace extremadamente; así mismo se realizó la misma evaluación por medio de una escala cualitativa la cual llevó los siguientes niveles: Nada en absoluto, Ligeramente, Medianamente, Mucho y Extremadamente. Todos estos valores se tomaron por medio de una encuesta diseñada según los lineamientos planteados por la normativa ISO/TS 11


15666 (2003) [15], donde además se solicitó identificar determinadas fuentes de ruido de tipo comunitario, industrial o comercial y de tráfico que puedan ser percibidas por los alumnos en las aulas. La encuesta mencionada se enfocó hacia estudiantes mayores de 13 años. F. Análisis Estadístico Descriptivo: Todos los valores encontrados se analizaron por medio de gráficas de distribución y el cálculo de los siguientes valores: Media, Intervalo de confianza (Media al 95%), Media recortada al 5%, Mediana, Varianza, Desviación típica, Mínimo, Máximo, Rango, Amplitud Intercuartil, Asimetría y Curtosis. Inferencial: En primera instancia el estudio estadístico inferencial evalúo la igualdad de valores medios de distintos grupos por medio de un ANOVA, también llamado Análisis de Varianza. Cuando se obtuvo diferencia significativa de valores medios se realizó un agrupamiento de los factores a través del test de Tukey o Scheffe.

“regular” desde el punto de vista de inteligibilidad de la palabra, lo cual se puede corroborar en la figura 7.

Tababela 16%

Centro 24%

Puembo 21% Guamaní 19% Nanegalito 20%

Figura 2: Distribución poblacional acorde al sector.

Luego se generó un estudio de correlación por medio de pruebas de Chi-cuadrado de Pearson con el fin de encontrar alguna dependencia o independencia entre las variables planteadas en el estudio. Posteriormente, se generó un modelo de predicción a través de una regresión logística donde el modelo encontrado compara la probabilidad de expresar molestia según las variables independientes.

Figura 3: Heterogeneidad según el sector de los encuestados.

III. ANÁLISIS DE RESULTADOS Tras recolectar y organizar todos los datos tomados en la encuesta, encontramos los resultados más relevantes citados a continuación; los cuales se realizaron encuestando a un total de 1169 individuos en las 40 aulas donde se evaluó sus condiciones acústicas; en la tabla 2 se desglosa cada uno de los valores mencionados: Tabla 2: Tamaño de la muestra según el caso de estudio Pobla Muestra Nombre del Sector Proporción ción establecimiento Muestra / educativo Población Antonio José de Sucre Julio Enrique Moreno Nacional Nanegalito Dr. Arturo Freire Leonardo Maldonado

Total

Centro

1120

284

25,4%

Figura 4: Porcentaje de la permanencia en los encuestados.

Sur

485

225

46,6%

Nanegalito

413

229

55,4%

Tababela

406

188

46,3%

Puembo

950

243

25,6%

Si se aprecia la figura 5 se puede observar que el ruido de fondo interior encontrado supera en todos los casos los 35dB(A) sugeridos por entidades internacionales para fines educativos [18]; de los cuales el menor nivel medido fue el encontrado en Nanegalito de 40,9dB(A) y el mayor en el sector del Centro Histórico con 55,6dB(A).

3374

1169

34,6%

En la figura 6 se puede destacar que el 95% de las aulas evaluadas presentan valores por encima de 0,6 segundos, que es el valor de T60 recomendado para salas destinadas a la docencia [16][17], así mismo el 88% de las mismas aulas tienen valores de STI menores a 0,6 lo cual se califica como

Los niveles de ruido medidos y modelados al exterior de las aulas superan el valor sugerido de 55dB(A) [16][17] en la mayoría de los casos, el único establecimiento que cumple con estos estándares es el Colegio Nacional Nanegalito.

12


Figura 5: Ruido de fondo según el sector de cada instituto educativo.

Figura 8: Valoración subjetiva de la molestia producida por el ruido de tráfico

Para las variables “Género” y “Permanencia” se aceptó la hipótesis. Además se realizó un agrupamiento para la variable “Sector”, según el test de Scheffe. Se puede destacar que los sectores: Tababela, Puembo y Sur presentan niveles medios de ruido de fondo similares. Tabla 3: Test de Scheffe del ruido de fondo según el sector al cual pertenece cada escuela Sector Aulas Subset for alfa = 0.05 1 2 3

Figura 6: T60 según al sector de cada instituto educativo.

Nanegalito

7

Tababela

7

48,1

Puembo

8

49,3

Sur

9

50,4

Centro Histórico

9

Sig.

40,9

55,6 1,000

0,181

1,000

Asimismo se generó una prueba de Chi-cuadrado de Pearson, donde se acepta la hipótesis de independencia entre las variables de tipo geográfico y demográfico; versus todas aquellas asociadas con la molestia, donde la variable “Sector”, variable de tipo geográfico, rechaza la hipótesis de independencia hacia todas las variables asociadas con la molestia. Finalemente se obtuvo un modelo de regresión logística el cual se despliega en la tabla 4, además en la tabla 5 se detalla las variables descartadas en el modelo planteado. Tabla 4: Resultados de la regresión logística por medio del método de Wald. Figura 7: STI según al sector de cada instituto educativo.

Sector

La figura 8 muestra el porcentaje de encuestados que se sienten molestos por el ruido de tráfico en sus aulas de clase, donde podemos sobresaltar que el 77,2% del total de Tababela encuestados expresan molestia. Centro Histórico Luego de realizar el análisis de varianza del “ruido Fdgde Sur fondo” según el “Sector” se descartó la hipótesis de igualdad Nanegalito de medias. Puembo Constante

B

Variables en la ecuación E.T. Wald gl Sig.

I.C. 95% para EXP(B) Inf. Sup.

43,75 4

0,000

9,81

1

0,002 2,088 1,317 3,308

0,225 0,03 0,215 4,40 0,246 9,57 0,165 37,82

1 1 1 1

0,851 0,036 0,002 0,000

0,736 0,235 0,042 -0,452 0,762 1,015

Exp (B)

1,043 0,672 1,620 0,636 0,417 0,970 2,143 1,322 3,472 2,760 13


Tabla 5. Variables descartadas según el modelo planteado.

Variables que no están en la ecuación

Paso 1

TRmid Variables R. Fondo STI Estadísticos globales

Puntuación 1,133 ,662 ,137 2,247

gl 1 1 1 3

Sig. ,287 ,416 ,711 ,523

En la figura 9 se muestra un Odds-Ratio, donde podemos encontrar la probabilidad de que la población de estudio perteneciente a cada sector, exprese molestia asociada al ruido.

En la tabla 3 se encuentra el test de Scheffe desarrollado en la variable “ruido de fondo” respecto al “sector”, donde se destaca un seccionamiento evidente entre los 5 casos de estudio, de los cuales la primera sección la conforma el colegio ubicado en el sector Nanegalito con una exposición de ruido menor; luego el siguiente grupo está conformado por los colegios ubicados en los siguientes sectores: Tababela, Puembo y Sur; y para finalizar el ubicado en el sector del Centro Histórico, el cual presenta mayor exposición al ruido. En el odds-ratio de la figura 9 podemos ubicar la relación entre las probabilidades de que la población de estudio perteneciente a cada sector se sienta molesta por efectos de ruido, donde cabe mencionar que las secciones del Centro Histórico y Puembo poseen el mismo valor, en el caso del Sur se tiene una probabilidad de 0.49 respecto a la de Puembo y Centro Histórico; y así mismo en los sectores de Nanegalito con 0,3 y Tababela con 0,47.

RECONOCIMIENTO Los autores desean expresar su agradecimiento a la Secretaría de Ambiente que financió el estudio, a Miguel Chávez, Christiam Garzón, y a todas las autoridades y alumnos de las escuelas en las que se realizó el trabajo. REFERENCIAS Figura 9: Probabilidad de expresar molestia según el sector.

IV. CONCLUSIONES En todas las salas evaluadas el ruido de fondo supera el nivel de 35dB(A) sugerido por estándares internacionales, aun así el caso que presentó menor nivel de ruido de fondo dentro de las aulas fue el Colegio Nacional Nanegalito con un valor promedio de 40,9dB(A), mientras que la institución educativa con mayor nivel sonoro es la Unidad Educativa Mariscal Sucre, localizada en el Centro Histórico de la ciudad con 55,6dB(A). Todas las aulas analizadas superan el valor óptimo de 0,6 segundos de T60 propuesto por la OMS [18] para lugares predestinados a la docencia; además de ello esta misma entidad sugiere un valor máximo de 1s, que es superado por el 95% del total de los resultados examinados. Al tener valores de T60 y Ruido de fondo muy alejados de los sugeridos, las consecuencias se ven reflejadas en los valores de STI presentes en las aulas, donde el 88% tienen una calificación de inteligibilidad de la palabra “regular”, es decir el proceso de comunicación verbal no es apto para el aprendizaje. El 77,2% de los encuestados se sienten molestos por presencia de ruido de trafico dentro de sus aulas de clase, de los cuales el 36,65% siente una molestia ligera; el 27,47% mediana; el 11,76% mucha y el 1,20% extrema.

[1] Balarezo D. (2012) Procesos psicoacústicos aplicados a la estimulación del proceso cognitivo de la atención en niños de 5 años. SONAC Magazine [Internet]. [cited 2014 Sep 23], vol. 3, pp 63-70. Available from: http://issuu.com/lubrabrito/docs/revista_sonac_2012 . [2] Matheson, M., Clark, C., Martin, R., van Kempen, E., Haines, M., Barrio, I.L., Hygge, S. & Stansfeld, S. (2010) The effects of road traffic and aircraft noise exposure on children's episodic memory: The RANCH Project. Noise Health, vol. 12, 244-254. [3] Shield, B.M. & Dockrell, J.E. (2003) The effects of noise on children at school: A review. J Building Acoustics, 10(2), pp 97-106. [4] Crandell, C. & Samaldino J. (2000) Classroom Acoustics for Children With Normal Hearing and Whit Hearing Impairment, Vol 31, pp 362-370. [5] Haines, M.M., Stansfeld, S.A., Job, R.S.F. & Berglund, B. (2001) A follow-up study of effects of chronic aircraft noise exposure on child stress responses and cognition. Int. J. Epidemiol,30(4), pp 839-845. [6] Haines, M.M., Stansfeld, S.A., Job, R.S.F. & Berglund, B. (2001) Chronic aircraft noise exposure, stress responses, mental health and cognitive performance in school children. Psychol Med, vol.31, pp. 265–277. [7] Ouis, D. (2001) Annoyance from road traffic noise: A Review. Journal of Environmental Psychology, Lund, Vol. 21, pp 101-120. [8] Miedema M.E. & Oudshoorn G.M. (2001) Annoyance from transportation noise: Relationships with exposure 14


metrics DNL and DENL and their confidence intervals. Environ Health Perspect, 109(4), pp 409-416. [9] Chávez M. (2012) Gestión sobre ruido ambiental en el Distrito Metropolitano de Quito, Ecuador. SONAC Magazine [Internet]. [cited 2014 Sep 23], vol. 3, pp 107115. Available from: http://issuu.com/lubrabrito/docs/revista_sonac_2012 . [10] UNE-EN ISO 3382-2. (2008) Acústica – Medición de parámetros acústicos en recintos – Parte 2: Tiempo de reverberación en recintos ordinarios. [11] NTI Audio. (2013) XL2 Operating Manual. Switzerland. NTI Audio. [12] ISO 1996-2. (2007) Acoustics - Description, measurement and assessment of environmental noise - Part 2: Determination of environmental noise levels. [13] Higini, A., (1999) ABC de la Acústica Arquitectónica, 1ra Ed., Ceac Editora, Madrid. [14] IEC 60268-16. (2011) Sound system equipment – Part 16: Objective rating of speech intelligibility by speech transmission index.. [15] ISO/TS 15666:2003-02. (2003) Acoustics - Assessment of noise annoyance by means of social and socio-acoustic surveys. [16] BB93. (2003) Regulatory framework for the acoustic design of the schools in support of the Building Regulations. [17] ANSI/ASA S12.60. (2010) Performance criteria, Desing Requierments, and Guidelines for Schools – Part 1: Permanent Schools. [18]OMS. (1980) Criterios de Salud Ambiental – Ruido, Ginebra

15


EVALUACIÓN DEL IMPACTO ACÚSTICO GENERADO AL INTERIOR DE LOS BUSES DEL SISTEMA INTEGRADO DE TRANSPORTE PÚBLICO ECOVÍA DEL DISTRITO METROPOLITANO DE QUITO DENNYS ALEJANDRO GRANIZO VALLEJO Universidad de las Américas, Ecuador, Quito. troy_sito@hotmail.com RESUMEN: El presente estudio está enfocado a la evaluación de los niveles de ruido generados al interior de los buses articulados del sistema de transporte Ecovía, del Distrito Metropolitano de Quito. La metodología desarrollada propone mediciones bajo condiciones controladas que permitan evaluar objetivamente el ruido dentro de los autobuses y conseguir una representación real de los niveles a los que se exponen chofer y pasajeros. Se evaluaron un total de 11 buses, 1 bajo condiciones controladas y 10 en la ruta de operación normal. Para el análisis de los resultados obtenidos se utilizaron las siguientes normativas: Decreto 2393 (Ecuador), Real Decreto 286/2009 (España), Decreto 129 (Chile), NHO-11999 (Brasil), NR-15 y NR-17 (Brasil). Con la metodología propuesta, se lograron obtener valores muy representativos a los generados en ruta normal, con niveles que superan ciertos criterios de las normativas consideradas como el nivel de exposición diaria, confort acústico laboral, ruido interior en vehículos articulados entre otros.

Como se ve, la razón del enfoque en el tema es debida a la operación de buses en áreas urbanas se ha tornado en una actividad estresante y poco saludable. En consecuencia, las personas expuestas a dichos niveles pueden sufrir trastornos como desplazamientos del umbral auditivo, incremento de pulso/presión arterial, fatiga mental, nerviosismo, frustración, desconcentración, bajo desempeño laboral y conflictos sociales. [2](Ewans y Johansoon, 1988, pp. 99 108).

Palabras claves: Ruido, buses, exposición al ruido, buses articulados, Quito.

I. INTRODUCCIÓN Es evidente que una gran cantidad de habitantes del Distrito Metropolitano de Quito (DMQ) utiliza a diario los sistemas de transporte público como alternativa de movilización. Ya sea porque no poseen vehículo propio, por ahorrar dinero, por la dificultad de encontrar estacionamientos, por restricción vehicular, entre otros. La Organización Mundial de la Salud (OMS) estima que alrededor de 278 millones de personas en el mundo tienen problemas auditivos permanentes y aproximadamente 500 millones de personas son afectadas por altos niveles de ruido. Por lo tanto se ha estimado que el 80% de la incomodidad sonora es proveniente de vehículos motorizados y tráfico rodado [10] (OMS, 1999). Estudios más recientes confirman estas cifras además de comprobar la pérdida de 1 millón de vidas “saludables” por causa del ruido de tráfico. (OMS, 2011).

Figura 1. Evaluación de niveles de ruido en buses Ecovía.

Dada la carencia de normativas y ordenanzas en nuestro país, no es posible fundamentar un estudio con contextos de nuestra realidad. Por lo tanto, la interrogante es identificar qué sucede con los niveles de ruido en la presente investigación y cuál es el impacto que el ruido genera. El presente estudio esta enfocado a determinar los niveles de ruido a los que se encuentran expuestos pasajeros y choferes al interior de las unidades de transporte. Dicha exposición se ve agravada por factores como: estado de los vehículos, calzada irregular, pasajeros, tiempo de exposición, etc. Sin embargo, el estudio considera una evaluación bajo condiciones controladas e ideales como veremos detallado mas adelante en el desarrollo de la metodología.

16


Investigaciones similares realizadas por el Doctor Paulo Zannin (2003) [14] (Laboratorio de acústica ambiental, Universidad Federal de Paraná) señalan que las causas determinantes en la producción de ruido son: el año de fabricación del vehículo y ubicación del motor. Además se logran identificar niveles de exposición diaria (en choferes) que varían entre 73,8 - 79 dBA. En otros estudios de Zannin (2006) [13] proyecta niveles de exposición diaria de 77 79,6 dBA.

pavimentada, libre de polvo, piedras o cualquier elemento que absorba o genere sonido.

Al aplicar la metodología desarrollada en el presente estudio, se logra reproducir el comportamiento de los resultados obtenidos en estudios previos y las mediciones en la ruta de operación normal. Es decir los valores de exposición diaria fueron similares a los presentados anteriormente.

Los puntos de medición así como alturas y distancias fueron seleccionados de modo que la distribución del sonido al interior se vea representada adecuadamente en función al chofer y pasajeros. Como se muestra en la figura 2, el primer punto corresponde a la ubicación del chofer, situado a 70 cm sobre el asiento del conductor. El segundo punto situado en la mitad del bus articulado a 1.50 m de altura, mientras que el punto 3, se ubica en la parte trasera de todo el vehículo, también a 1.50 m de altura.

Adicionalmente se realizaron evaluaciones complementarias que involucran el uso del sistema de megafonía, dosis diaria, análisis espectral, interferencia de la palabra y una estimación de la reacción de la comunidad.

Por lo tanto el lugar de ensayo seleccionado fue la pista del ex-aeropuerto Mariscal Sucre, actual parque Bicentenario, por cumplir con todos los requerimientos de la metodología propuesta, lugar en el que se desarrollaron los dos tipos de ensayos, estacionario y dinámico, los que se puntualizan mas adelante

II. METODOLOGÍA El desarrollo de la metodología propuesta está basada en las siguientes normativas: • • • •

ISO 362 - Medida del ruido emitido por aceleración de vehículos. ISO 5130 – Medida del nivel de presión sonora emitido por vehículos en estado estacionario. ISO 5128 - Medida del ruido dentro de vehículos a motor. Decreto 129 (Chile) – Norma de emisión de ruidos para buses de locomoción colectiva urbana y rural.

Para poder proceder con las mediciones bajo condiciones controladas se deben cumplir con una serie de requerimientos planteados a partir de las normativas mencionadas. Entre éstos se pueden mencionar: características y cantidades de medida del instrumento de medición, posiciones del micrófono, condiciones climáticas, condiciones del vehículo y lugar de ensayo. Asimismo, se plantean dos tipos de ensayos: Ensayo Dinámico (vehículo en movimiento) y Ensayo Estacionario (vehículo detenido). A. Procedimiento El lugar de ensayo seleccionado debe cumplir con los requerimientos de la metodología y de las normativas que lo sustentan. Es decir, el sonido emitido por el vehículo hacia el exterior debe contribuir con el ruido interno, solamente por reflexiones de la superficie de la pista y no por reflexiones de edificios, paredes o cualquier obstáculo similar. Para ellos se recomienda mantener un radio de aproximadamente 20 metros de distancia con superficies grandes y/o reflectantes, que la superficie sea llana y

Figura 2. Puntos de medición

El sonómetro utilizado fue un Quest SoundPro SE/DL el que fue configurado con filtro de ponderación de frecuencias “A” y respuesta temporal “Fast”, además de ser calibrado según la metodología o como lo indica el Standard Internacional para Sonómetros (IEC 61672(. Las cantidades de medida consideradas son: Lmax (NPS máximo), Lmin (NPS mínimo) y Leq (NPS equivalente) La metodología también sugiere tener condiciones climáticas ideales, por lo tanto no deben existir condiciones meteorológicas desfavorables como precipitaciones o cualquier disturbio climático que influyan en la medición. Las condiciones del vehículo también son importantes por lo que se debe tomar en cuenta lo siguiente: El vehículo debe estar en condiciones de operación tales que el motor mantenga una temperatura de uso normal. Toda apertura como escapes de aire, ventanas o puertas deben estar cerradas a menos que los ruidos generados por éstos sean motivo de estudio. Para vehículos de uso público con más de ocho asientos, no deben haber más de tres personas durante el ensayo. Solamente equipos del vehículo, instrumentos de medición y personal necesario.

17


1) Ensayo Estacionario: Se evalúan cuatro eventos • • • •

Ruido de Fondo Ruido de motor en Ralentí Ruido de puertas con vehículo en Ralentí Ruido de puertas con vehículo Apagado

El conductor opera el vehículo simulando cada una de las cinco paradas en donde se registran los siguientes eventos: • • • • •

Frenado Apertura de puertas Cierre de puertas Aceleración Desplazamiento

El ruido de fondo y ralentí se mide en las mismas posiciones en las que se medirán los niveles de presión sonora (dBA) emitidos por el autobús, y se obtiene con una medición de un minuto de duración en donde el valor registrado es LAmax. Se realizaron 3 registros para cada caso.

Durante el ensayo dinámico se registraron los tiempos en los que ocurren los diferentes eventos, para poder identificarlos posteriormente en el análisis temporal de los niveles.

Para evaluar el ruido de puertas se procede a medir aperturas y cierres de puertas para los dos casos, vehículo apagado y en ralentí, de la siguiente manera:

Cada una de los eventos mencionados en el ensayo dinámico también es realizado de manera independiente para cada uno de los tres puntos de medición seleccionados.

Se realizan tres registros, en los cuales se ejecutan dos ciclos de apertura y cierre, de acuerdo al siguiente proceso:

La metodología desarrollada establece el uso de un solo instrumento de medición, de ahí el planteamiento de mediciones independientes por cada punto. Sin embargo, si es que se puede disponer de 3 sonómetros, las mediciones se pueden realizar simultáneamente sin problema alguno.

a) b) c) d) e) f) g)

Apertura de puertas Pausa de 6 segundos Cierre de puertas Pausa de 10 segundos Apertura de puertas Pausa de 6 segundos Cierre de puertas

Se registran dos aperturas y dos cierres en cada medición, en total se obtienen seis (6) aperturas y seis (6) cierres. Es importante conocer que los puntos de medición 2 y 3 se encuentran ubicados cerca de las puertas. En especial el punto 3 que prácticamente se sitúa a lado de la ultima puerta mientras el punto 2 mantiene una distancia aproximada de 2 metros. Hay mencionar, que las mediciones del ensayo estacionario fueron realizadas en orden estipulado para cada uno de los tres puntos de medición (ruido de fondo, motor en ralentí, puertas von vehículo apagado y puertas con vehículo ralentí). Es decir se realizó todo el ensayo estacionario en el punto 1, después en el punto 2 y finalmente en el punto 3. 2) Ensayo Dinámico: Se realizó un simulacro de 5 paradas (estaciones), para ello se dividió la pista en cinco partes con una distancia de 200 metros entre cada cono, distancia que permite alcanzar los 50 km/h, que es la velocidad a la cual se encuentran regulados los buses articulados Ecovía.

Como ya se dijo, las cantidades de medida consideradas son LAmax, LAmin, LeqA, las cuales son registradas en el sonómetro para posteriormente ser analizadas y promediadas en conjunto con todas la muestras independientemente para cada evento y puntos de medición. B. Mediciones Comparativas Con la finalidad de comprobar la certidumbre de la metodología desarrollada, se proceden a realizar una serie de mediciones extras solamente con fines comparativos. 1) Megafonía: Se decidió realizar mediciones adicionales para determinar el nivel que aporta el sistema de megafonía para anuncios del autobús. Se evaluaron los tres anuncios de rutina que se realizan en operación normal: Saludos inicial, anuncio siguiente parada y anuncio cierre de puertas. 2) Mediciones en Ruta con gente: Se realizaron 10 mediciones, las que se cumplieron en una ruta de circulación normal de la Ecovía. Los buses fueron seleccionados aleatoriamente, los mismos que recorrieron exactamente la misma distancia. La ruta seleccionada consta desde que el bus parte de la primera estación (Rio Coca), hasta alcanzar las tres paradas siguientes de donde se obtuvo un registro continuo de aproximadamente 7 minutos. Cada recorrido se realizó bajo condiciones de flujo de pasajeros controlada, es decir, se limitó la cantidad de pasajeros presentes en cada vehículo a aproximadamente 42 (sentados). Las mediciones fueron realizadas únicamente en el primer punto de medición (chofer).

Figura 3. Paradas del ensayo dinámico

18


3) Percepción de molestia en los Pasajeros: La única manera de conocer el nivel de molestia percibido por los pasajeros es mediante entrevistas personales o encuestas. Debido a la gran cantidad de personas que utilizan la Ecovía, el universo de estudio se centra en los 10 vehículos utilizados para el ensayo con gente. Donde se consideraron solo las personas que van sentadas, en total 420 pasajeros. A partir del cual se calcula una muestra de 120 para un nivel de confianza del 99% y un error de estimación del 10%. Por lo tanto, las encuestas realizadas fueron enfocadas a 120 personas que utilizaron los vehículos mencionados.

III. RESULTADOS Posterior a la recolección de datos, se procedió a la tabulación de los valores, para después ser analizados. En primera instancia la revisión de registros se lo realizó mediante el software QuestSuite Pro, para luego exportarlos a Microsoft Excel, en donde serían procesados y analizados. El análisis estadístico se realizó para cada una de las muestras de todos los eventos, las cuales se consideraron en su totalidad siendo unificadas mediante un promedio aritmético. El margen de error viene determinado por la desviación estándar del conjunto de muestras, a partir de las cuales se determina la variabilidad de cada nivel y vienen representadas por las líneas verticales como se muestra en la figura 4.

Figura 4. Desviación estandar o margen de error del prmedio aritmetico de muestras para Apretura de puertas en el Punto 3

En total se registraron 43 mediciones bajo condiciones controladas (ensayo dinámico y estacionario). Gracias a que las condiciones fueron ideales y los tiempos de medida fueron estrictamente controlados, cada muestra registrada en un evento especifico, por ejemplo Apertura de puertas, posee el mismo tiempo de ocurrencia (6 muestras), por lo que fue fácil tabular los resultados en función del tiempo y nivel, para posteriormente realizar el promedio aritmético y desviación estándar de todas las muestras. Para el ensayo estacionario, se observa en la tabla 1, los niveles de presión sonora máximos generados por cada

evento en cada punto de medición. Es notorio que los niveles con mayor amplitud se obtienen en el punto 3, con excepción del ruido de fondo y ralentí en donde se producen los niveles más bajos.

Figura 5. Comparación de NPS en ralentí para los tres puntos de medición Tabla 1. Comparación de los niveles máximos generados en el Ensayo Estacionario. (Ralentí R*)

(dBA)

(dBA)

(dBA)

Punto1

Punto2

Punto3

Ruido de fondo

29,0

34,8

29,2

Ralentí

66,0

65,5

61,7

Apertura de puertas

81,4

88,0

91,8

Cierre de puertas

76,9

86,6

92,2

Apertura de puertas (R*)

82,7

89,4

92,9

Cierre de puertas (R*)

87,5

88,3

95,1

Evento

En base a los resultados, se pueden identificar claramente las fuentes generadoras de ruido para cada circunstancia, por ejemplo, para el punto 1 y 2 se puede identificar el ruido de motor (ubicado en la mitad del vehículo), ventilador de motor en la parte frontal del panel de control y las puertas. Mientras que para el punto 3, el ruido de motor no influye significativamente y la fuente mas cercana es la puerta trasera. De la misma manera, en la tabla 2 se muestran los niveles de presión sonora máximos generados por cada evento durante el ensayo dinámico para los tres puntos de medición. Se pueden observar que los niveles con mayor amplitud son los producidos por la apertura y cierre de puertas, en el caso de los puntos 2 y 3. El punto 1 mantiene niveles relativamente similares entre todos los eventos, puesto que el ruido del motor es registrado desde más cerca. Tabla 2. Comparación de los niveles máximos generados en el Ensayo Dinámico

Evento

Punto1 (dBA)

Punto2 (dBA)

Punto3 (dBA)

Desplazamiento

82,9

78,8

77,5

Frenado

75,0

72,2

67,1

Apertura de puertas

82,0

89,6

93,0

19


Cierre de puertas

87,8

94,2

90,7

Aceleración

84,0

79,4

76,8

Las gráficas generadas a partir de los registros para cada evento son muy claros y permiten diferenciar claramente su comportamiento. A continuación se muestra la figura correspondiente al promedio de las cinco muestras para cada evento respectivamente.

Es importante conocer que el cálculo de la exposición diaria normalizada a 8 horas, se la realizó en función de la siguiente ecuación: 𝐿𝐴𝑒𝑞, 𝑑 = 𝐿𝐴𝑒𝑞, 𝑇 + 10𝑙𝑜𝑔

𝑇 8

Donde: LAeq,T = Nivel de exposición acumulado (ensayo) T = Tiempo de trabajo efectivo de una jornada laboral A partir de esto se estimó un T de 6 horas de trabajo efectivo, es decir sin considerar horas de almuerzo, descanso, cambio de turno y cambio de ruta en el día laborable del conductor obteniendo un LAeq de 79,2 dBA. Figura 7. Una estimación un tanto generosa, sin embargo, al considerar un T de 7 horas, el nivel de exposición diaria remonta hasta los 80 dBA.

Figura 6. Promedio de los niveles registrados durante el ensayo Dinámico, Punto 1. (Cinco muestras promediadas por evento)

La metodología permite registrar cada uno de los eventos de manera clara y sin diferencias significativas, por ejemplo, previo al promedio realizado en el análisis, es posible observar las gráficas e identificar cada una de las muestras registras.

Figura 8. Niveles de exposición (megafonía) ,Ensayo con gente.

Figura 7. Comparación de muestras de apertura de puertas, sin promediar

Los niveles de exposición diaria fueron analizados en función de los niveles equivalentes, correspondientes a cada evento. El presente análisis solo puede ser desarrollado utilizando los registros del ensayo dinámico; el que solo tiene sentido realizarlo en el lugar del chofer que es el que se expone al ruido del bus durante toda la jornada de trabajo, los niveles calculados para los puntos 2 y 3 son solo de referencia. La figura 8 muestra los niveles de exposición diaria calculados para cada punto. Además en el punto 1 se añaden los resultados de las exposiciones calculadas correspondientes a las mediciones extras con fines comparativos: con sistema de megafonía en funcionamiento y medición en ruta con gente. Como se puede observar los niveles en el punto 1 son similares entre si.

diaria

(dBA),

Extra

El nivel de exposición sonora calculado no supera el criterio de los 85 dBA adoptado por las normativas reguladoras brasileñas NR-15 y NOH-01, y el Decreto 2393 del Ecuador. Dichos criterios califican como aceptable una exposición continua a los niveles obtenidos. De la misma manera la dosis de ruido calculada es baja y no se consideran acciones requeridas. Por otro lado, el Real Decreto 286 dispone los 80 dBA como valor mínimo de exposición, para dar lugar a una acción. De manera que, el nivel de exposición obtenido en el cálculo anterior se puede tomar en cuenta para empezar a tomar acciones. De la misma manera, los conductores se encuentran sometidos a niveles de exposición sonora sobre los 65 y 70 dBA durante largos períodos de tiempo, lo cual, según la legislación NR-17 (Brasil) y el Decreto 2393 (Ecuador), se consideran inaceptables para una actividad que demanda concentración, y por lo tanto se lo califica como un ambiente laboral no confortable. Si se comparan los límites estipulados por el Decreto 129 de Chile, los niveles máximos instantáneos generados al 20


interior de los buses, durante un ensayo estacionario, no pueden superar los 85 dBA. Criterio que se lo supera la mayor parte del tiempo si se consideran los niveles emitidos por el ruido de las puertas, los que van desde los 86 dBA hasta 93 dBA. Así mismo, durante el ensayo dinámico se fija como límite máximo los 81 dBA, donde se producen niveles que oscilan entre los 83 y 84 dBA correspondientes al ruido del motor (aceleración y desplazamiento), es decir, se incumple el criterio. Conjuntamente al análisis, se calcularon las distancias efectivas de conversación en función al SIL (nivel de interferencia de la palabra) y los Leq calculados. Los cálculos pertenecen a los puntos de medición 2 y 3, correspondientes a la ubicación de los pasajeros. Los resultados indican que en la mayoría de los casos, es necesario hablar fuerte y muy fuerte para mantener distancias cómodas al momento de una conversación. Los desempeños vocales vienen dados por una constante K que permite estimar los diferente radios. A continuación se muestra un ejemplo de los resultados obtenidos para el punto 2. Tabla 3. Comparación de distancias calculadas para los desempeños vocales K, Hombres, Punto 2, Dinámico. VOZ (K)

NORMAL

ELEVADA

FUERTE

MUY FUERTE

Motor Apertura de Puertas Cierre de puertas

17,8 cm

35,5 cm

70,8 cm

126 cm

7 cm

14 cm

28 cm

50 cm

5 cm

10 cm

20 cm

35,5 cm

Finalmente, la molestia generada en los pasajeros se obtiene mediante una encuesta focalizada a la molestia que percibe el usuario ante diferentes ruidos identificados: motor, puertas, gente y ruido exterior. Los resultados muestran una orientación de “extremadamente molesto” hacia el ruido generado por la misma gente (43,5 % de los encuestados), puesto que esto viene acompañado de un sin número de factores influyentes y tan variables como: vendedores ambulantes, horas pico, celulares, música, peleas, entre otros. En segunda instancia, se encuentra el ruido generado por las puertas, que, según la encuesta, se lo califica como “medianamente molesto a muy molesto” (34,8% de los encuestados). Aquí se evidencia que a pesar de que el ruido de puertas produce niveles instantáneos considerables, la repetitividad de los eventos los hace menos influyente, y en cierto modo, la gente termina acostumbrándose a este ruido. El ruido generado por el exterior y el motor, no presenta mayor influencia sobre los pasajeros, puesto que los resultados proyectan que no se consideran molestias o en algunos casos poca molesta.

Figura 9. Molestia percibida por el ruido que genera la gente

III. CONCLUSIONES Y RECOMENDACIONES Los resultados obtenidos son lo suficientemente claros y concisos como para describir un comportamiento y una correspondencia entre la producción de ruido y el impacto acústico dentro de la Ecovía. Resulta interesante ver cómo el análisis independiente de cada evento puede recopilarse, para generar una representación general del comportamiento acústico del vehículo, aproximándose bastante a la información obtenida en un recorrido real. Exposición diaria controlada de 79,2 dBA y exposición diaria con gente de 78 dBA Los niveles de exposición diaria obtenidos se encuentran por debajo de los 85 dBA, sin embargo, un nivel de exposición diaria de 80 dBA, ya considera acciones e información necesaria para el control de niveles excesivos sobre los conductores. Los conductores se encuentran sometidos a niveles de exposición sonora sobre los 65 y 70 dBA durante largos períodos de tiempo, lo cual, según la legislación NR-17 (Brasil) y el Decreto 2393 (Ecuador), se consideran inaceptables para una actividad que demanda concentración, y por lo tanto se lo califica como un ambiente laboral no confortable. Estudios anteriores han demostrado que se pueden obtener valores similares si se realiza la medición durante: las 8 horas de trabajo, todo un recorrido, cinco minutos de recorrido y finalmente, en el presente trabajo, utilizó un ensayo dinámico de aproximadamente tres minutos. Es importante recalcar que los niveles de exposición diaria obtenidos son muy similares a los presentados en estudios anteriores, como los realizados en [14]Curitiba, Brasil, donde el Dr. Paulo Zannin obtuvo niveles entre 73,8 y 79 dBA, para buses bi-articulados, mientras que posteriores estudios publican valores entre 77 y 79,6 dBA para buses articulados.

21


Los resultados confirman que la fuente generadora de los niveles más altos de ruido, para el chofer, es el motor; considerando una exposición normalizada a 8 horas de trabajo. Sin embargo, las puertas y sus rampas son capaces de generar niveles instantáneos superiores a los ruidos del motor que pueden producir daños en determinado plazo. El chofer podría exponerse a menores niveles de ruido si tan solo se realizara el control de ruido sobre el ventilador ubicado en el panel de control, sin embargo es necesario un estudio puntual sobre dicha fuente de ruido que ayude a precisar el problema y el tipo solución. Se recomienda tomar medidas para que las puertas puedan mantener un desempeño correcto, es decir, que las válvulas de éstas, funcionen de manera óptima, con la regulación de aire correcta y con sus silenciadores instalados.

9) OMS Organización Mundial Para la Salud, (2011). Burden of disease from environmental noise. 10) OMS Organización Mundial Para la Salud, (1999), “Guidelines for community noise”, Ginebra. 11) Portela, BS. y Zannin PHT. (2010). Analysis of factors that influence noise levels inside urban buses. J Sci Ind Res; 2010 69:684-7 12) Randall, F. Barron, Ruston, Louisiana, U.S.A (2001) - Lazarus (1987) 13) Zannin, PHT. (2006). Ocupational noise in urban buses. Intl J Ind Ergon, 36 2006 901 – 905. Curitiba. Brazil. 14) Zannin, PHT., Diniz, FB., Giovanini, C., Ferreira, JAC. (2003). Interior noise profiles of buses in Curitiba. Transportation Research Part D 2003 8: 243-7.

Finalmente, se puede corroborar que la metodología planteada es válida y permite conocer el comportamiento del ruido con sus respectivas fuentes. Sin embargo no se garantiza que la metodología proporcione semejante fidelidad en todos los casos, puesto que se analizó un solo vehículo de un solo tipo (articulado).

RECONOCIMIENTO A la Empresa de Transporte Publico de Quito y su Gerente el Ing. Carlos Poveda por permitir el desarrollo de la investigación . A Miguel Ángel Chávez por su interés y aporte al proyecto. REFERENCIAS

1) Carrión, A. (1998). Diseño Acústico de espacios Arquitectónicos. Barcelona, España: Universidad Politécnica de Catalunya. 2) Ewans, GW. y Johansoon, G. (1998).Urban bus driving: an international area for the study of occupational health psychology. J Occup Health Psych. 3) Fernández, JM. (2013). Neumática Básica. Recuperado el 3 de Marzo de 2013 de http://www.euskalnet.net/j.m.f.b./neunatica.htm 4) Harris, C. (1995). Manual de Medidas Acústicas y Control de Ruido. España: Mc Graw Hill. 5) Miyara, F. (1999). Control de Ruido. Rosario, Argentina: Universidad Nacional de Rosario. 6) Miyara, F. (2006). Acústica y Sistemas de Sonido. Rosario, Argentina: Universidad Nacional de Rosario 7) Nadri, F., Monazzam, MR., Khanjani, N., Ghotbi, MR., Rajabizade, A. y Nadri H. (2011). An Invetigation on Occupational Noise Exposure in Kerman Metropolitan Bus Drivers. Int j Oc Hyg. Kerman. Iran. 8) OMS Organización Mundial Para la Salud, (2000). Transporte, ambiente y salud. Copenhague.

22


DESARROLLO DE UN SOFTWARE DE PROCESAMIENTO PARA OBTENER SEÑALES DE AUDIO BINAURALES A PARTIR DE SEÑALES DE AUDIO MONOFÓNICAS. JUAN ANTONIO LEÓN BUITRÓN Universidad de las Américas, Ecuador, Quito. a.leon.buitron@gmail.com RESUMEN: Se desarrolló un prototipo de software de procesamiento digital de señales en lenguaje de programación MAX/MSP que permite al usuario controlar la posición, alrededor de sí mismo, de una fuente sonora monofónica de entrada. Mediante su convolución con un conjunto de Funciones de Transferencia Relativas a la Cabeza (HRFT) es posible obtener una señal estéreo y binaural en su salida, considerando de ésta manera los fenómenos psicoacústicos presentes en la audición humana y necesarios para la localización espacial de fuentes. Finalmente se realiza una evaluación del procesamiento del software mediante análisis espectral. Palabras claves: binaural, localización de fuentes.

software,

rango son descritos como azimuth, elevation y distance.

psicoacústica,

I. INTRODUCCIÓN La psicoacústica es el campo de la acústica encargado del estudio de la audición y la percepción sonora, así como la estructura y funcionamiento de los mecanismos involucrados en dicho fenómeno. Debido a la ubicación de los oídos en ambos lados de la cabeza (su separación y posición en la misma) y el obstáculo que representa para la onda sonora el cuerpo y la cabeza en la transmisión de ésta (entre la fuente y el tímpano) es posible la localización de fuentes sonoras en el espacio. Esto gracias a claves temporales y espectrales que son introducidas durante la transmisión de las ondas sonoras.

Estas claves han sido planteadas dentro de varios estudios a lo largo de décadas, llegando a ser aceptadas como las principales para la localización de fuentes sonoras, a pesar de no haber llegado a ser totalmente comprendidas. La imposibilidad de cuantificar su eficacia en la localización demuestra la complejidad de la audición al involucrar fenómenos perceptivos y cognitivos.

Dichas claves permiten la localización de sonidos en las tres dimensiones (o planos). Diferencias de Tiempo y Nivel Interaural (ITD y ILD respectivamente) representan las claves principales para localización en el plano horizontal (también referido como acimut), así como cambios espectrales debido a cancelaciones, sombras acústicas, reflexiones y difracción causados por el pabellón auditivo, la cabeza y el torso permiten localización en el plano vertical (o elevación). Información generada por la interacción de las ondas sonoras y el entorno donde han sido producidas entregan las claves necesarias para la localización en el plano de la distancia (rango). Los planos con respecto al oyente se muestran en la figura 1, donde acimut, elevación y

La onda que llega al oyente y contiene la información espectral y temporal necesaria para su localización puede ser caracterizada completamente como una Función de Transferencia Relativa a la Cabeza (HRTF), es decir, funciones únicas que “entregan una descripción completa de la transmisión sonora” (Moller, 1992) y representan la relación entre el sonido producido por la fuente y el sonido que llega al oyente. Por lo tanto, dependerán de la ubicación de la fuente con respecto al oyente, siendo únicos para cada posición y para cada oído de cada individuo para el cual hayan sido obtenidos, idealmente mediante un proceso de grabación controlado y realizado en cámara anecoica. Debido a que la transmisión no solo depende de la posición

Figura 1. Esquema de percepción psicoacústica de fuentes sonoras o escucha binaural. Tomado de Begault, 2000, p. 3.

23


relativa de la fuente al oyente, pero también de los aspectos anatómicos del mismo para el cual han sido obtenidas dichas funciones, tanto la audición como las HRTF que pueden caracterizarla, son altamente personales.

que influyen en el timbre del sonido percibido. Realizar una comparación de espectro de señales procesadas con el software prototipo para la evaluación del procesamiento realizado.

II. METODOLOGÍA

Figura 2. HRTF de un individuo para cuatro posiciones distintas de la fuente. Tomado de Everest, 2007, p. 102. El ejemplo de la figura 2 muestra las funciones de transferencia obtenidas para un mismo individuo en cuatro posiciones distintas. Tomadas para una misma posición de elevación, se evidencia la diferencia en la respuesta de frecuencia entre las HRTF obtenidas para el centro (0º), izquierda (90º), detrás (180º) derecha (270º) con respecto al oyente. Es posible emplear las Respuestas al Impulso Relativas a la Cabeza (conocidas como HRIR y equivalentes temporales de las HRTF) superpuestas mediante convolución en el dominio del tiempo con una señal monofónica para obtener señales estereofónicas y binaurales. Este proceso se denomina síntesis binaural o síntesis de sonido 3D, donde los sonidos de entrada deberán ser procesados con una función o impulso tanto para el canal izquierdo y como para el derecho de forma independiente, ya que las claves contenidas en las mismas varían entre ambos oídos para una misma posición. No existe un procedimiento estandarizado para la medición de HRTF. La forma más empleada involucra ubicar los micrófonos de medición en la entrada del canal auditivo bloqueado del individuo. Esto debido a que a partir de dicho punto, la transmisión es unidimensional, es decir, que las claves de localización son específicas para cada individuo y no dependientes de la posición de la fuente. Para éste propósito, la reproducción resulta ideal mediante audífonos. Las salida binaural será apreciada únicamente cuando es entregada por separado para ambos oídos. Por lo tanto, como objetivos del proyecto se plantea: •

Determinar el tipo de análisis de los parámetros de una señal de audio monofónica con el fin de establecer las propiedades y de qué manera estos serán manipulados. Desarrollar un prototipo de software de procesamiento de señales que considere fenómenos psicoacústicos propios de la audición

A. Desarrollo de Software. El software desarrollado es un prototipo de procesador capaz de transformar señales de entrada monofónicas en señales de salida binaurales, desarrollado en el software MAX/MSP 5, un entorno de programación enfocado al audio y video de carácter modular, donde objetos y mensajes se interconectan entre sí para crear cadenas de procesamiento de señales digitales. El prototipo presenta una interfaz gráfica clara y ordenada, sin la necesidad de exponer las interconexiones y mostrando únicamente los objetos necesarios con el fin de que resulte más amigable para el usuario operador. La interfaz gráfica de usuario se muestra en la figura 3.

Figura 3. Interfaz gráfica del software desarrollado para obtener señales binaurales a partir de señales monofónicas. El usuario es capaz de ubicar a una señal monofónica, mediante síntesis 3D, en una semiesfera alrededor de su cabeza por medio de la convolución con un conjunto seleccionable de HRIR de cinco individuos distintos. Para la reproducción de la señal resultante, deberá emplearse un par de audífonos, con el fin de mantener separados los canales, necesario para la percepción binaural. Tanto las muestras de HRIR, como objetos externos de MAX/MSP empleados en el procesador y las muestras de que se incluyen como ejemplos de señales de entrada, han sido tomadas de librerías de proyectos que permiten su libre empleo en proyectos no comerciales. El software se divide en 5 partes para una mejor comprensión del procesamiento realizado. 1) Sección de Entrada: Permite seleccionar la señal de entrada monofónica que se asume se encuentra al centro, directamente frente al oyente

24


y que será procesada para poder ser ubicada en una semiesfera a su alrededor. Idealmente, se deberá emplear una muestra de audio obtenida en cámara anecoica, por lo que se han incluido siete muestras que cumplen con dicha condición, tomadas de la librería OpenAIR (Audiolab, University Of York, 2009). Sin embargo, es posible el uso de cualquier archivo de audio almacenado en el computador como señal de entrada monofónica. En el caso de cargar una archivo de audio estereofónico, el software considera únicamente al canal izquierdo del mismo como fuente de entrada. 2) Sección de Posición: Se selecciona la posición en el espacio en la que se desea ubicar a la fuente de entrada asignando un valor tanto para elevación (plano vertical) como en acimut (plano horizontal), expresados en grados con respecto al oyente. Existen 187 posiciones (por cada individuo) con respecto al oyente (ubicado al centro). Las posiciones disponibles dependen de la densidad espacial de los HRIR empleados, siendo éstos los de cinco individuos distintos obtenidos de la base de datos del Proyecto LISTEN, llevado a cabo por IRCAM (Instituto de Investigación y Coordinación Acústica / Música) y la empresa AKG Acoustics (Warusfel, s.f.). El software presenta un sistema de coordenadas donde 0º representa la posición de la fuente al centro y frente a la cabeza del usuario. La densidad espacial de las muestras o puntos de HRIR es de 24 en el plano horizontal por cada plano de elevación (entre -45º y 45º). Para los últimos tres planos de elevación, 60º, 75º y 90º, existen únicamente 12, 6 y 1 punto por cada plano, respectivamente. De ésta manera, es posible una configuración de semiesfera alrededor del usuario. El movimiento de la fuente en el plano horizontal, se realiza entre 0º y 360º, siendo 90º en la posición del oído derecho y 270º en la del oído izquierdo. Para el movimiento en el plano vertical, 90º corresponde a la fuente y desciende hasta -45º por debajo la cabeza. 3) Sección de Selección de Individuo: Se emplean los cinco primeros individuos (de 51 disponibles en la base de datos) de los cuales se pueden obtener los impulsos para la convolución con la señal de entrada. El objetivo es el de que mediante una prueba puramente auditiva, usuario pueda seleccionar un conjunto de HRIR que resulte más adecuado para la percepción binaural, dando lugar a una localización de fuentes más realista. Al seleccionar una posición, se envía un mensaje a una estructura lógica de comparación diseñada para cada individuo y carga el archivo de audio correspondiente al HRIR de dicha posición en memoria temporal para su posterior procesamiento y reproducción. 4) Sección de Convolución: En ésta sección, la señal de entrada y el impulso HRIR de la posición e individuo seleccionado llegan a dos objetos externos del paquete A Harker Externals (Harker, 2012), para ser convolucionados. Estos se realizan de manera independiente para cada canal, por lo que se requiere dividir

la señal del impulso almacenada en el buffer estéreo en dos buffers monofónicos. La convolución se realiza en el dominio del tiempo (convolución discreta) para las primeras 128 muestras (de un total de 512 de cada impulso) y en el dominio de la frecuencia, mediante Transformada Rápida de Fourier (FFT) para las 384 muestras restantes. Dicho esquema de procesamiento sigue los lineamientos establecidos y recomendados por Harker para lograr un proceso de convolución prácticamente en tiempo real, sin latencia apreciable. 5) Sección de Salida: La sección de salida recibe las señales procesadas y las envía a un control de nivel de salida que cuenta además con varias opciones de monitoreo visual de las mismas; numérica (en escala de decibeles), espectrogramas, vumetros y medidores de pico para el canal izquierdo y derecho.

III. ANÁLISIS DE RESULTADOS Se realizan pruebas de evaluación mediante la comparación de los espectros sonoros de las señales binaurales de salida. El fin es el de evaluar el procesamiento que lleva a cabo el software y poder encontrar tendencias o cambios generales que permitan verificar la existencia de las claves psicoacústicas conocidas en los espectros sonoros resultantes. Se emplea un segundo de ruido blanco como señal de entrada que, al poseer un espectro constante, permite la visualización clara del filtrado producido por las HRTF, fácil de evidenciar mediante la comparación de los mismos por canal (izquierdo y derecho) y por posición para un mismo individuo. Dos individuos han sido seleccionados al azar (Individuo 2 e Individuo 5) de la base de datos disponible y se comparan sus espectros sonoros, en primer lugar, para cinco posiciones de elevación (-30º, 0º, 30º, 60º, 90º) con acimut constante y en segundo lugar, para ocho posiciones de acimut (0º, 45º, 90º, º135º, 180º, 225º, 270º, 315º) con elevación constate. Las señales obtenidas en las pruebas fueron importadas al software Pro Tools LE 8.0.4 y su análisis espectral se realizó mediante el plug-in Ozone 5 de iZotope. El análisis de espectro se configura con un frame (FFT size) de 512 muestras, con un solapamiento (overlapp) de 50% (cada 256 muestras) y empleando una Ventana de Hanning (windowing) con el fin de evitar filtraje o fuga en la lectura del espectro, siendo esta una ventana recomendada para señales aleatorias y presentando “una buena resolución en frecuencia y filtrado espectral reducido” (National Instruments Corporation, 2013). Los espectros resultantes se presentan como gráficos de espectro sonoro que muestra la amplitud y frecuencia en el

25


tiempo de un segundo y analizados para los dos canales izquierdo y derecho) de cada posición. La amplitud se encuentra representada en el eje de las abscisas en una escala de decibeles (entre -120 y 0 [dB]). En la gráfica es representada por una escala de colores entre azul y amarillo, para valores menores y mayores respectivamente. La frecuencia se encuentra en el eje de las ordenadas en un rango entre 20 y 20000 [Hz]. Para todas las figuras, la primera muestra representa el ruido blanco de entrada, seguido de la respuestas izquierda (arriba) y derecha (abajo) para todas las posiciones evaluadas en el eje correspondiente. Los resultados se muestran en las figuras 3 y 4 para análisis en elevación y figuras 4 y 5 para análisis en acimut.

Figura 4. Comparación de espectros sonoros de posiciones de elevación evaluadas para el individuo 5. Entre las diferencias apreciables para las distintas posiciones de elevación evaluadas, en términos prácticos, se puede considerar que las señales son bastante similares en sus espectros sonoros, en un rango de frecuencias bajas y medias.

Figura 3. Comparación de espectros sonoros de posiciones de elevación evaluadas para el individuo 2.

A partir de 3000 [Hz] aproximadamente, las diferencias entre ambos canales son más notables, lo que coincide con la propuesta de varios autores que plantean la necesidad de contenido en altas frecuencias del sonido emitido por la fuente para la aparición de claves espectrales fundamentales en la localización en el plano vertical. Se observan claves que se manifiestan como picos y valles en el espectro y son producto de cancelación, sombras, reflexión y difracción acústica causada por el propio oyente al interponerse en la transmisión de la onda. Al aumentar la posición de elevación, los espectros comienzan a volverse más constantes, sin llegar a ser planos totalmente, pero perdiendo las deficiencias notorias que se evidencian en ciertas posiciones de elevación en forma de picos y valles pronunciados, lo que dificulta la capacidad del oyente en distinguir su procedencia. La influencia de bajas frecuencias en la percepción en la localización vertical no es evidente en el análisis, a pesar de que pueden representar claves de ubicación importantes al tratarse de una longitudes de onda comparables en tamaño, con el obstáculo que representa el cuerpo frente a la

26


propagación de la onda. Es común un decaimiento de nivel bajo los 160 [Hz] aproximadamente para todas las posiciones evaluadas, que probablemente se debe a la convolución de señales, defecto común en dicho proceso o a la falta de bajas frecuencias de las HRIR empleadas, que no ha sido evaluado. Si bien el filtrado varia con la posición, la variación es leve y es prácticamente idéntica para los dos canales de la salida binaural evaluada (incluso en la evaluación de cambio de acimut). La principal diferencia que se puede observar para las muestras de distintas posiciones de acimut es evidenciada como diferencia de nivel entre cada par de espectros, izquierdo y derecho, producto de las diferencias interaulares (ILD) producidas por la cabeza (más evidente en posiciones extremas, donde un oído es claramente opacado por la cabeza), consideradas como las claves principales para la localización de fuentes en éste plano junto con las diferencias temporales (ITD) que son empleadas al utilizar HRIR pero no son apreciables en un análisis espectral. Los cambios de posición para una misma elevación presentan espectros complejos y rizados que difícilmente muestran similitudes entre canales para una misma posición. Un análisis cualitativo del procesamiento del software mediante pruebas a individuos puede entregar resultados que evalúen la capacidad del software y su efectividad en la localización de fuentes y percepción espacial de las mismas.

Figura 6. Comparación de espectros sonoros de posiciones de acimut evaluadas para el individuo 5.

Sin embargo, las condiciones en las que se realizan deberán ser controladas, limitando las variables presentes y los resultados que se pueden obtener, además de la necesidad de considerar un número de individuos suficientemente grande que represente una muestra válida de la población. Las capacidades de evaluación consideradas para el proyecto son demasiado amplias y pueden ser el motivo de nuevas investigaciones, por lo que se ve necesaria la limitación de variables y resultados a un cierto número de criterios.

Figura 5. Comparación de espectros sonoros de posiciones de acimut evaluadas para el individuo 2.

Al limitar las pruebas a un único individuo resulta suficiente para la evaluación buscada. Las pruebas realizadas para un segundo individuo (Individuo 5) cumple con el objetivo de presentar un nuevo conjunto de datos que apoye a los resultados obtenidos con las pruebas del Individuo 2 y verifique el procesamiento realizado. Se puede observar las tendencias apreciadas para el Individuo 2 en los espectros sonoros del Individuo 5. No se pretende comparar a los resultados de los individuos entre sí. Como se espera, el segundo individuo presenta resultados similares a los presentados por el primer individuo, con cambios espectrales esperados de acuerdo al cambio de posición de acimut y elevación que evidencian las claves psicoacústicas presentes, así como diferencias mínimas debidas a empleo de funciones específicas a la antropometría (desconocidas) de cada individuo. Estas diferencias serán comunes para

27


cualquier conjunto de HRTF de dos individuos que se empleen.

IV. CONCLUSIONES Es posible la creación de un modelo de síntesis binaural mediante convolución de señales de entrada con HRIR dando paso a la posibilidad a un sistema de producción audiovisual simple y envolvente que aprovecha la configuración tradicional de dos canales, mediante audífonos, y que va de la mano con un mercado que apuesta cada vez más por en sistemas simples, económicos y portátiles. Las claves espectrales y temporales necesarias para la localización sonora, y cuya influencia no han llegado a ser comprendidas en su totalidad son implementadas al emplear HRTF en la etapa de procesamiento, una ventaja frente a modelos estructurales propuestos por distintos autores y considerados en una primera instancia para la etapa de procesamiento. El alto grado de control y condiciones necesarios que exigen las pruebas para el estudio de la percepción en la audición limitan de alguna manera a una fácil obtención de resultados. Un esquema de convolución tanto en el dominio del tiempo y dominio de la frecuencia permite el procesamiento en tiempo real de las señales y el cambio dinámico de la posición de la fuente durante la reproducción de una señal de entrada. Sin embargo, discontinuidad en la amplitud de la señal de salida al ser procesada resulta en un ruido audible al cambiar de HRIR en medio de la reproducción. Estudios acústicos pueden beneficiarse del uso de HRTF/HRIR y sus claves de localización en etapas de análisis y evaluación, brindando un enfoque que más realista para procesos tradicionales que no necesariamente reflejan la realidad de la situación acústica que se evalúa o simula, o se consideran insuficientes. La psicoacústica es un campo amplio por explorar y que difícilmente será definido en su totalidad al lidiar con procesos subjetivos y funciones complementarias. Sin embargo el software presenta la posibilidad de su empleo como herramienta de investigación aprovechando su capacidad de procesamiento y enfocándolo a la realización de pruebas para la evaluación de la percepción y localización de fuentes sonoras, con la necesidad de un replanteamiento de variables e interfase gráfica ya que pueden llegar a influir y parcializar los resultados. Una evaluación psicoacústica puede ser una herramienta de investigación potente donde el análisis de resultados puede derivar en descubrimientos significativos dentro del campo.

un algoritmo de generación de reflexiones o reverberación artificial. El no incluir generación de reverberación artificial representa una ventaja al no perjudicar la calidad espectral y temporal que aportan las HRTF, por lo que funciona de manera óptima para señales de entrada que han sido registradas bajo condiciones anecoicas. Existe una cantidad de mejoras que pueden ser implementadas en el prototipo como la implementación de un sistema de crossfade (cambio de nivel gradual en la selección dinámica de HRIR), una ampliación de la base de datos de HRIR (mediante interpolación de la base de datos proporcionada) incorporación de los 46 de individuos restantes en la base de datos de HRIR del proyecto LISTEN para una mayor opción de selección de individuo. Implementación de un módulo de reverberación realista para expandir la capacidad de localización a tres dimensiones e incluso la implementar un sistema hardware para análisis de movimiento de la cabeza del usuario (head-tracking) para simulación más realista o automatización vía MIDI.

RECONOCIMIENTO Se agradece de forma especial a los ingenieros Marcelo Lazzati y Christoph Scheuermann por su guía y aporte al proyecto, así como a Rui Penha y a los ingenieros Danny Leiva, Hugo Jácome, Juan Pazmiño, Christiam Garzón y Luis Bravo por su ayuda y colaboración. REFERENCIAS

1) Audiolab, University of York. (2009). Acoustics And Psychoacoustics Book. Recuperado de http://www. openairlib.net/anechoicdb/content/acoustics-andpsychoacoustics-book 2) Begault, D. (2000). 3-D Sound For Virtual Reality And Multimedia. Moffett Field, Estados Unidos: NASA/TM. 3) Everest, A. (2007). Critical Listening Skills For Audio Professionals. Boston, Estados Unidos: Thomson Course Technology PTR. 4) Harker, A. (2012). Software. Recuperado de http://alexanderjharker. co.uk/Software.html 5) Moller, H. (marzo, 1992). Fundamentals of Binaural Technology. Applied Acoustics, 36 (3-4), 171-218. 6) Warusfel, O (s.f.). Listen HRTF Database. Recuperado de http://recherche.ircam.fr/ equipes/salles/listen/index. Html. 7) National Instruments Corporation. (2013). Windowing: Optimizing FFTs Using Window Functions. Recuperado el 28 de septiembre de 2013 de http://www.ni.com/white-paper/4844/en/

El único control de la posición de la fuente en la dimensión de la distancia existe en forma del control de nivel de salida de audio a pesar de que se consideró emplear

28


EVALUACIÓN DE LOS COMPONENTES DE UNA BANDA SONORA EN MATERIAL AUDIOVISUAL APLICADO A PUBLICIDAD PARA TELEVISIÓN, CONSIDERANDO LAS PERCEPCIONES PSICOACÚSTICAS DE SONORIDAD, TIMBRE, ESPACIALIDAD Y DIRECCIONALIDAD. ANDREA ESTEFANÍA OLMEDO GUERRA Universidad de las Américas, Ecuador, Quito. anniaolmedo@gmail.com RESUMEN: La televisión utiliza todas las herramientas que puede para vender distintas clases de ideas. La intención de este proyecto es realizar un estudio obtener mayor provecho de un medio de comunicación masivo de esta magnitud. Existen elementos sonoros que modifican la percepción de la teleaudiencia basándose en principios psicoacústicos, logrando así tener un mayor número de interesados en el mensaje que se está transmitiendo. A las percepciones psicoacústicas que serán modificadas, es decir sonoridad, timbre, espacialidad y direccionalidad, se les asignará variables las cuales permitirán ingresar los resultados obtenidos dentro de gráficos estadísticos para ser analizados. Palabras claves: psicoacústica, banda sonora, sonoridad, timbre, espacialidad, direccionalidad.

I. INTRODUCCIÓN Este proyecto tiene como principal objetivo evaluar los elementos de una banda sonora en material audiovisual aplicado a publicidad para televisión, considerando las percepciones psicoacústicas de sonoridad, timbre, espacialidad y direccionalidad. El desarrollo consta de tres partes, recopilación de información, selección del material audiovisual, identificación de elementos sonoros, creación de guiones técnicos y modificación de las percepciones psicoacústicas, y por último, realización de encuestas con el material trabajado y análisis de los datos obtenidos. Los resultados y conclusiones obtenidos entregan distintas teorías sobre cómo la muestra seleccionada percibió el material audiovisual creando así particularidades en cada caso de evaluación.

II. METODOLOGÍA A. Variables psicoacústicas en función de los elementos de la banda sonora Dentro de las variables psicoacústicas existentes, se han escogido cuatro de ellas para ser evaluadas, estas son: sonoridad, timbre, espacialidad y direccionalidad. Dejando fuera de las variables a evaluar solamente a la altura, que es un parámetro que depende de la intensidad o sonoridad y del timbre, que son dos variables que se evaluarán como independientes. Así mismo, los parámetros de la banda sonora (B.S.) en la cual se harán las evaluaciones son: diálogos, efectos ambientales, efectos sonoros o efectos particulares y música. Sin tomar en cuenta al silencio que, a pesar de aportar mucha expresividad, no se le puede realizar modificación alguna. Por lo tanto se plantea la siguiente tabla, en la que se pueden observar las posibles combinaciones de variables psicoacústicas vs elementos de la banda sonora. Tabla 1. Posibles combinaciones de variables psicoacústicas vs. elementos de la banda sonora.

En la tabla 1 se puede observar que existen dieciséis posibles permutaciones, las cuales entregarían idealmente datos concisos sobre percepciones en cada caso. Sin embargo, se realizó un análisis de las combinaciones y se seleccionó aquellas que no solamente son factibles sino que también son útiles, llegando así a la siguiente tabla que tiene marcada con una X aquellas celdas que corresponden a 29


las combinaciones que se van a analizar. Tabla 2. Combinaciones de variables psicoacústicas vs elementos de la banda sonora que serán analizadas.

B. Justificación de las combinaciones seleccionadas o no seleccionadas 1) Timbre vs. Diálogos: Este caso fue seleccionado, ya que una de las principales características que permite distinguir una voz de otra, es su timbre, provocado por las diferencias físicas entre todos los elementos que intervienen cuando se trata de “hablar” (aparato fonador). 2) Timbre vs. Efectos Ambientales: Este caso no fue seleccionado, ya que los efectos ambientales son la reunión de elementos particulares en un recinto determinado. Por lo tanto el modificar el timbre a la suma de estos elementos, no tendría efecto alguno. 3) Timbre vs. Efectos Sonoros: Este caso no fue seleccionado, ya que los efectos sonoros dentro de un film, de por sí ya son exagerados y alterados para que tengan un efecto sonoro que impacte en la audiencia. 4) Timbre vs. Música: Este caso fue seleccionado, ya que el timbre es una cualidad propia de cada instrumento, por lo tanto si una guitarra toca un Am y un piano también lo hace, uno puede reconocer la diferencia por los materiales de cada instrumento y por los armónicos que estos generan; eso quiere decir que si se realizan modificaciones tímbricas a la totalidad del tema musical, ¿afecta al espectador? 5) Sonoridad vs. Diálogos: Este caso no fue seleccionado, ya que para que una idea expresada con palabras sea comprendida, necesita estar a un nivel de presión sonora que permita al oyente escuchar con claridad, sin hacer esfuerzo y sin sentir molestias (Fernández y Martínez, 1999, p 204). Por lo tanto este punto queda descartado de análisis, sin embargo para todo material que contenga diálogos, se utilizará un nivel adecuado. 6) Sonoridad vs. Efectos Ambientales: Este caso fue seleccionado, por la importancia de los planos sonoros dentro de la mezcla y de la ubicación espacial que se le quiere dar al oyente, situándole en un entorno auditivo adecuado a la imagen presentada, o ¿podría ser lo contrario? 7) Sonoridad vs. Efectos Sonoros: Este caso fue seleccionado, cuando se tiene material audiovisual, el sonido y la imagen tienen igual nivel de importancia, por tanto ¿es necesario reforzar una imagen con un efecto sonoro? ¿causan la misma impresión como elementos independientes que como elementos complementarios? 8) Sonoridad vs. Música: Este caso fue seleccionado, por la importancia de los planos sonoros dentro de la mezcla, cuando un elemento sonoro no es el principal y está como parte de relleno, ¿Cuál es el que causa mayor impacto? Ya que la música mueve emociones, ¿es primordial que esté en un primer plano sonoro? 9) Espacialidad vs. Diálogos: Este caso fue seleccionado, por la importancia que tiene la reverberación que un recinto aporta a la voz. Los seres humanos están acostumbrados a escuchar reflexiones tempranas y tardías a distintos niveles

sonoros y basándose en dicho concepto, sitúan tanto dimensiones espaciales como ubicación de la fuente. Si es que en un comercial, se rompe con dicha “costumbre” ¿el oyente es afectado? 10) Espacialidad vs. Efectos Ambientales: Este caso no fue seleccionado porque al momento de realizar la grabación de un ambiente determinado, ya se está grabando no solo el aporte que el recinto realiza a los distintos sonidos particulares si no también el ruido de fondo existente, por lo cual aumentar o disminuir el tiempo entre las distintas clases de reflexiones no resulta funcional. 11) Espacialidad vs. Efectos Sonoros: Este caso fue seleccionado, los distintos impulsos sonoros se comportan diferente de acuerdo al lugar en el que están ubicados, y si a un sonido generado en un recinto con un comportamiento determinado dentro de tal espacio, se le alteran los factores que influyen dentro de la ubicación espacial, ¿tiene incidencia en el espectador? 12) Espacialidad vs. Música: Este caso no fue seleccionado, lo único que se lograría aumentando la espacialidad a la música es crear un sensación difusa en un elemento que no aporta en función de su mensaje si no de sensaciones. Al no ser un film como tal el material que se está utilizando, la música debe envolver al oyente más que ser un elemento ubicado en pantalla. 13) Direccionalidad vs. Diálogos: Este caso fue seleccionado, utilizando la teoría de Chion de que el cerebro ubica espacialmente los sonidos de acuerdo a la posición en la que se ubican en pantalla sin importar si en la mezcla sonora están ubicados a 0˚, se selecciona esta combinación para validar si al oyente le pasó inadvertido la direccionalidad de las voces o si es que le es relevante que la fuente este ubicada en el mismo lugar tanto visual como auditivamente. 14) Direccionalidad vs. Efectos Ambientales: Este caso no fue seleccionado, un ambiente no proviene de un lugar, es algo que rodea al oyente por ende no tiene dirección determinada. 15) Direccionalidad vs. Efectos Sonoros: Este caso fue seleccionado, utilizando la teoría de Chion de que el cerebro ubica espacialmente los sonidos de acuerdo a la posición en la que se ubican en pantalla sin importar si en la mezcla sonora están ubicados a 0˚, se selecciona esta combinación para validar si al oyente le pasó inadvertido la direccionalidad de los efectos sonoros o si es que le es relevante. 16) Direccionalidad vs. Música: Este caso no fue seleccionado, como antes se mencionó, la música dentro de los comerciales seleccionados, tiene una función ambiental más que como elemento sonoro, por tanto ubicarla espacialmente rompe con los requerimientos de la imagen. C. Material audiovisual El criterio de selección de los comerciales que se utilizarán como material de análisis, se basa en los siguientes parámetros: Existencia de los elementos de la banda sonora, para este punto se presentan tablas que indican que elementos posee el comercial y de estos, cuales fueron seleccionados para ser modificados. De esta forma los no seleccionados se 30


mantendrán sin alteraciones durante el análisis.

3) Canal+ – Never underestimate the power of a great story

Mercado objetivo de las marcas seleccionadas, el target de los comerciales sería hombres y mujeres entre 18 y 30 años con un nivel socio económico variable; este último factor se debe a la diversidad de productos publicitados entre los comerciales seleccionados. Premios o menciones a los comerciales, este punto considera el galardón más alto que haya tenido cada comercial siendo un bonus al material audiovisual seleccionado. Reduciendo así la selección, a cinco videos: 1) Mercedes Benz - Dreams

Figura 3. Canal+, Never underestimate the power of a great story Tomado de www.coloribus.com, 2013 Tabla 5. Elemento de la B.S. existentes y elementos a analizarse en el comercial 3.

4) H2O - Braids Figura 1. Mercedes-Benz. Dreams Tomado de www.coloribus.com, 2013 Tabla 3. Elemento de la B.S. existentes y elementos a analizarse en el comercial 1.

2) Guinness – Made of More Figura 4. H20, Braids Tomado de www.coloribus.com, 2013 Tabla 4. Elemento de la B.S. existentes y elementos a analizarse en el comercial 4.

Figura 2. Guinness, Made of More Tomado de www.coloribus.com, 2013

5) Ford – Park assist

Tabla 4. Elemento de la B.S. existentes y elementos a analizarse en el comercial 2.

Figura 5. Ford Park Assist Tomado de www.coloribus.com, 2013

31


Tabla 7. Elemento de la B.S. existentes y elementos a analizarse en el comercial 5.

D. Post-Producción, modificaciones psicoacústicas al material El primer paso en la post-producción fue realizar una mezcla base en función de niveles y paneos para cada comercial. Tomando en cuenta la compatibilidad mono-estéreo que a pesar de no estar considerada dentro de los objetivos del proyecto, resulta un buen análisis al tratarse de televisión. Las modificaciones psicoacústicas se realizaron en función a la tabla 2 que tiene las permutaciones entre elementos de la banda sonora y parámetros psicoacústicos, distribuyéndolo entre los comerciales de la siguiente forma:

Tabla 10. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 3.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de sonoridad/efectos ambientales se aumentaron 9dB a la mezcla base, y se disminuyeron 9dB a la mezcla base en los efectos ambientales. En la variación espacialidad/efectos sonoros se aumentó a estos elementos una reverberación que crea una sensación de que el espacio en el que suenan es muy grande y con un toque metálico que de alguna forma es irreal a lo que se está viendo en pantalla. Tabla 11. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 4.

Tabla 8. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 1.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de sonoridad/música se aumentaron 9dB a la mezcla base, y se disminuyeron 9dB a la mezcla base. Que sonoramente representa 3 veces más que el original. En la variación direccionalidad/efectos sonoros se crearon dos comerciales el uno tiene todos los efectos particulares con el paneo al centro y el otro tiene los paneos automatizados para que se comporten según las imágenes que se están visualizando. Tabla 9. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 2.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de espacialidad/diálogos se aumentó a estos elementos 2 diferentes reverberaciones la una crea una sensación de que el espacio en el que suenan es muy grande que de alguna forma es irreal a lo que se está viendo, la segunda es una reverberación mucho más pequeña y lejos de causar abstracción del sonido con la imagen, permite ubicar mejor las voces en el espacio. En la variación direccionalidad/diálogos se realizaron dos opciones la una presenta los paneos sincronizados con lo que uno ve en la imagen, eso quiere decir que si uno ve un hombre hablando a la derecha entonces el sonido vendrá de la derecha. La otra opción hace lo contrario, ubica al sonido en el lugar contrario al que se ubica la fuente visualmente. Tabla 12. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 5.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de timbre/música se ecualizó a la canción seleccionada de tal forma que se aumentaron 6dB a las fundamentales de los elementos que más se perciben y también se disminuyeron 6dB, de tal forma que la segunda curva de ecualización quedo invertida en función de la primera. En la variación sonoridad/efectos sonoros se aumentaron 6dB en la mezcla base a los efectos sonoros y se disminuyeron 6dB. Obteniendo dos opciones para realizar comparaciones.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En este comercial se realiza una sola variación que es timbre/diálogos donde las voces de los dos protagonistas fueron alteradas de tal forma se cambió su pitch y se ecualizaron al punto de obtener dos opciones extremas, voces muy agudas y voces muy graves que, de acuerdo a que observe pueden ser totalmente irreales o podrían ser coherentes con la imagen. Al terminar con la mezcla de todos los comerciales y realizar los modificaciones antes señaladas, se aumentó el

32


nivel del master de tal forma que se mantiene la dinámica generada en la mezcla y se utiliza todo el rango dinámico, tomando al pico más alto como el nivel que llegara a 0 nominal.

Es importante mencionar que no se utilizó ninguna herramienta para normalizar con el criterio de mantener todos los detalles psicoacústicos. E. Evaluación La metodología utilizada para la realización de encuestas se basa en: • Etapa de preguntas cerradas, eso quiere decir que todas las preguntas tendrán las opciones de respuestas ya establecidas. Así mismo se dividirán en dos que son las que solo presentan dos posibles respuestas y las que entregan un rango mayor de opciones. • Etapa de preguntas abiertas, eso quiere decir que existe el caso de 4 preguntas que pide justificar las respuestas. • Las preguntas pueden ser de dos clases: de carácter comparativo entre dos o más opciones del material audiovisual presentado, o con indicaciones previas a la pregunta donde se anticipa al encuestado a que debe prestarle atención. • Se realizarán un máximo de dos preguntas por variación psicoacústica. • La encuesta posee una etapa en la que hay una pregunta para todas las variables de comerciales que se tiene que responder a la par del resto de encuestas.

III. ANÁLISIS DE RESULTADOS A partir de la muestra escogida se obtienen los siguientes datos ante la evaluación realizada: • Existe una marcada preferencia por los comerciales donde los diálogos del narrador son más claros. Por ende más allá del entorno audiovisual, la inteligibilidad de la palabra resulta un factor clave para la transmisión acertada del mensaje. • Cuando en material audiovisual existen música y diálogos al mismo tiempo, causa una mejor impresión el hecho de que la música no se encuentre en primer plano, eso quiere decir que su sonoridad sea menor. Existe una marcada tendencia a asumir que entre los dos elementos, los diálogos tienen muy poco nivel en vez de considerar que la música debería ser enviada a un plano posterior. Esto sucede por una respuesta natural a considerar que el mensaje transmitido se encuentra siempre en los diálogos. • La espacialidad es un factor clave cuando se trata de comprensión de diálogos, existe una preferencia por los comerciales donde la reverberación utilizada es coherente con la ubicación visual de la fuente.

En la evaluación de direccionalidad vs. efectos particulares, la teoría indica que el movimiento de la imagen debe ser igual al movimiento sonoro para obtener entornos acertados. Sin embargo los datos obtenidos indican que existen mayor coherencia entre la imagen y el sonido cuando a pesar del movimiento visual, la fuente sonora viene del centro es decir se encuentra estática. Se percibe un entorno audiovisual más realista cuando no existe paneo alguno. Si bien la música es un elemento que respalda el concepto del material audiovisual, los cambios que se le puedan realizar en función del timbre, son notorios, más no relevantes dentro de su función descrita. El aumento de sonoridad en efectos particulares, se nota como tal. A pesar de esto, cuando la sonoridad disminuye, la percepción es que el resto de elementos sonoros como música y efectos ambientales, aumenta. Al realizar una comparación entre la percepción de distintos niveles (sonoridad) en efectos ambientales, los datos arrojados indican que: se considera exagerado a este elemento sonoro cuando tienen una menor sonoridad, y considera normal cuando tienen una mayor sonoridad. Lo que permite indicar que cuando se trata de ambientes es mejor tener una sonoridad mayor para causar una mayor percepción de realismo. Las cifras recopiladas señalan que la espacialidad es un elemento relevante en el contexto audiovisual; y se corrobora que los diferentes tipos de reverberaciones utilizados son diferenciados, y aquellos que resultan incongruentes con la imagen son menos aceptados. La percepción de los diálogos se ve afectada cuando la ubicación de la fuente sonora no es la misma que la ubicación de la fuente visual, causa dificultad en la percepción del mensaje. Sin embargo, cuando la fuente sonora y la fuente visual están ubicadas en el mismo punto esta particularidad para desapercibida.

En cuanto a la fase final de la encuesta donde se busca tener una impresión general sobre cuál es el comercial que más gustó a la muestra: • Evaluando la sonoridad, el comercial que más gustó fue el número 3, donde había un incremento de nivel en efectos ambientales. Por lo tanto se concluye que los efectos ambientales crean un entorno audiovisual más realista que permite a la audiencia enfocar su atención al mensaje, sin necesidad de autocompletar dicho entorno. En efectos ambientales no hay sonoridades exageradas, es preferible que sobre antes que falte nivel. • Evaluando el timbre, el comercial que más gustó fue el número 2, donde la música fue ecualizada de tal forma que las fundamentales y armónicos de los instrumentos principales le daban mayor presencia dentro de la mezcla. Se concluye que cualquier alteración que le dé a la música un mayor 33


protagonismo dentro de la banda sonora, es bien aceptado por la audiencia, ya que este es un elemento que crea sensaciones y emociones al espectador. Evaluando la direccionalidad, el comercial que más gustó fue el número 4, donde la ubicación de la fuente sonora y visual era la misma. Se concluye que el crear imagen vs. fuente sonora coherente, resulta natural para el espectador. Evaluando la espacialidad, el comercial que más gustó fue el número 4, donde el tipo de reverberación seleccionado consideraba las características físicas del recinto que se presentaba en la imagen. Se concluye que una reverberación adecuada permite a la audiencia ubicarse auditivamente en el espacio visual presentado. El comercial que más gustó entre todos los presentados, fue el número 4 y más que contener cualquier clase de elemento sonoro significativo, lo que causa esta resolución es el concepto publicitario que se maneja. El grupo encuestado resuelve que la mayor razón para sentir o no empatía con uno u otro comercial, es la sensación de realismo entre lo que se ve y lo que se escucha. Por ende el comercial que menos gusto fue el número 5 donde las voces, no corresponden a los personajes.

IV. CONCLUSIONES •

Se concluye que no se puede generalizar o estandarizar la forma en la que la teleaudiencia percibe la modificación de elementos sonoros basándose en principios psicoacústicos y el impacto que estos causan. Ya que preexisten distintas características dentro de cada persona que hacen que su atención se focalice en unos u otros elementos del material audiovisual como el concepto, las imágenes o la parte auditiva.

La publicidad en televisión trabaja por modificar y cambiar la ideología o modo de pensar de la gente hacia un producto específico para que tenga mayor aceptación y sea adquirido; utilizando la mayor cantidad de herramientas que puede para llegar a su público objetivo, esto quiere decir: la persuasión, el convencimiento para adoptar una determinada postura, la creación de una necesidad en el público, etc. El uso de temas y conceptos agradables trabajados de tal forma que los sentidos lleven al cerebro el mensaje que se quiere, es el punto de partida para investigaciones de esta clase: que disminuyen horas de trabajo al usar elementos ya comprobados y aumentan la calidad de publicidad.

REFERENCIAS

1) Basso, G. (2009). Percepción auditiva. Buenos Aires, Argentina: Universidad Nacional de Quilmes Editorial. 2) Bievenido, L. (2008). Dirección de documentales para televisión. Guión, producción y realización. Navarra, España: Eunsa. 3) Bueno, E., Cruz, I., & Duran, J. (1998). Economía de la empresa. Análisis de las decisiones empresariales. Madrid, España: Ediciones Piramide. 4) Chion, M. (1998). La audiovisión. Barcelona, España: Paidós. 5) Fernandez, F., & Martinez, J. (1992). Manual básico de lenguaje y narrativa audiovisual. Barcelona, España: Paidós. 6) Foley, H., & Maltin, M. (1996). Sensación y percepción. México: Prentice Hall Hispanoamericana. 7) García, J. L. (1992). Lenguaje audiovisual. México D.F, México: Alhambra Mexicana. 8) Gerges, S. (1998). Ruido: fundamentos y control. Florianópolis, Brasil: Universidad Federal de Santa Catarina. 9) Kemp, P. (2012). Cine: Toda la historia. Barcelona, España: Blume. 10) Kindem, G., & Musburger, R. (2007). Manual de producción audiovisual digital. Barcelona, España: Omega. 11) Miyara, F. (2004). Acústica y sistemas de sonido. Bogota, Colombia: Fundación Decibel. 12) Rodríguez, A. (1998). La dimensión sonora del lenguaje audiovisual. Barcelona, España: Paidós. 13) Rose, J. (2008). Audio postproduction for film and video. Unites States of America: Elsevier-Focal Press. 14) Rosillo, J. (2008). Formulación y evaluación de proyectos de inversión para empresas manufactureras y de servicio. Bogota, Colombia: Cengage Learning. 15) Rumsey, F., & Mc Cormick, T. (2009). Introducción al sonido y la grabación. Madrid, España: IORTV. 16) Viers, R. (2008). The sound effects bible. United States of America: Michael Wiese Productions. 17) Wyatt, H., & Amyes, T. (2005). Post Producción de audio para TV y Cine. Kidlington, England: Elsevier. 18) Zettl, H. (2009). Television production handbook. United States of America: Wadsworth Cengage Learning.

RECONOCIMIENTO A Marcelo Lazzati y Jhonatan López por su valioso aporte.

34


DESARROLLO DE UNA SÍNTESIS FM UTILIZANDO LA PROPORCIÓN ÁUREA Y LA SUCESIÓN DE FIBONACCI A TRAVÉS DEL LENGUAJE DE PROGRAMACIÓN MAX/MSP. VALERIA VILLARREAL Universidad de las Américas, Ecuador, Quito. vnvillarrealv@gmail.com RESUMEN: Se presenta un método de síntesis FM, donde los elementos necesarios para su implementación poseen un diseño relacionados con la proporción áurea y la serie de Fibonacci, luego, la síntesis se ha programado en el entorno Max/MSP para tener como resultado final una interfaz de usuario que puede ser manejada a través de un controlador MIDI. Los resultados obtenidos han sido analizados en dos aspectos: musical y técnico. Para el primer caso se toma como punto de comparación las características del sistema musical temperado y en el segundo un análisis espectral para determinar el comportamiento acústico de los resultados sonoros obtenidos con el sintetizador.

El trabajo aquí presentado busca responder estas interrogantes al basar el diseño de un método de síntesis sonora, en el número Phi y la serie de Fibonacci. El desarrollo de los ordenadores en los últimos años, ha hecho de éstos herramientas importantes en las tareas de la vida diaria, y la música sin duda alguna, es una de ellas. Es gracias a los computadores y los instrumentos electrónicos que hoy en día la experimentación musical está al alcance de mucha gente, más de lo que hace veinte años pudo haberse pensado. Tomando provecho de esta realidad se puede proponer utilizar como medio para su consecución el entorno de programación Max/MSP.

II. METODOLOGÍA

Finalmente, se presenta un instrumento que permite entender de mejor forma la síntesis por modulación de frecuencia, sus ventajas y desventajas sumándole características musicales en un sistema no tradicional, todo ello para utilizarlo como una herramienta diferente para la experimentación, interpretación y composición musical.

A. Interfaz de usuario En la figura 1 se muestra el resultado de este trabajo mediante la interfaz de usuario lograda, se debe mencionar que se hace necesario el uso de un controlador MIDI para interactuar con la misma, ya que este controlador envía la información MIDI necesaria para su correcto funcionamiento.

Palabras claves: Fibonacci, Phi, Max/MSP, Síntesis FM

En la parte derecha superior se encuentra el control general donde se enciende o apaga el instrumento virtual, además de su control de ganancia, al lado izquierdo se seleccionan todos los parámetros de la síntesis FM; en la parte inferior se visualizan los valores de frecuencia moduladora y portadora además de las envolventes para cada una de las cinco voces de este sintetizador, finalmente en el centro se observan los gráficos de espectro y forma de onda.

I. INTRODUCCIÓN La estructura de la música occidental tal y como se la conoce en este momento fue definida hace muchos años, y en la actualidad se encuentra inmensamente difundida por el mundo, además se sabe que estos elementos musicales, principalmente los intervalos, poseen una relación matemática definida; de igual forma la síntesis de sonido aparecida hace más de cincuenta años, ha logrado definir durante todo este tiempo, elementos o componentes básicos para su implementación y gracias al trabajo de Dave Smith en los años 80, hoy todo esto está gobernado por el protocolo MIDI (Manning, 2004) en donde el rango 0 a 127 es un estándar, sin embargo, ¿qué ocurre si a estos dos sistemas se les aplica una relación diferente? ¿Qué sucede si se definen varios de estos elementos con dicha relación para formar una estructura distinta? ¿Qué sucede si esa relación es un número importante como lo es Phi?

Figura 1. Interfaz de usuario

35


A continuación en la figura 2 se presenta el patch principal, donde se observan los bloques de programación que se repiten para cada voz y dentro de estos un subpatch denominado MINI que contiene la síntesis.

Figura 4. Programación de las formas de onda Para el caso de la forma de onda Fibonacci la programación se observa en la figura 5. Figura 2. Patch principal B. Elementos de síntesis FM con las características del número áureo y la serie de Fibonacci en su diseño. Para los osciladores se han definido cinco formas de onda: sinusoidal, triangular, rectangular, diente de sierra y Fibonacci, ya que exceptuando la primera, se trata de formas de ondas con frecuencia fundamental y armónicos los cuales al interactuar mediante FM crearán espectros más complejos y por lo tanto se podrán crear timbres también más complejos. La forma de onda Fibonacci (figura 3) es un conjunto de formas de onda sinusoidales que representan una frecuencia fundamental y sus armónicos donde la relación sigue la serie de Fibonacci y la amplitud de éstos está calculado por la fórmula 1/Φ + n como se muestra en la tabla 1.

Tabla 1. Forma de onda Fibonacci

Amplitud

Para la afinación se utilizó el sistema de Chowning (2008) donde se presenta un sistema basado en Phi para crear una pseudo octava de 10 semitonos, a continuación usando el mismo método, se crearon cinco sistemas de 12 a 8 semitonos que por su propia naturaleza son diferentes entre sí y que al ser integrados con el protocolo MIDI poseen frecuencias máximas asignables distintas como se observa en la tabla 2. Tabla 2. Frecuencias máximas asignables para los cinco tipos de afinación

Figura 3. Forma de onda Fibonacci

Sobretono (n)

Figura 5. Programación de la forma de onda Fibonacci

1

2

3

5

8

13

21

34

0.5

0.27

0.21

0.15

0.10

0.06

0.04

0.02

La programación consiste en un umenu que permite seleccionar la forma deseada y dentro del subpatch “Formas de onda” se produce la señal correcta como se nota en la figura 4.

Cantidad semitonos (n)

Frec. máxima (Hz)

12

3330.191

11

5271.780

10

9148.358

9

17944.3

8

41653.76

La programación usa nuevamente un umenu para la selección de la afinación deseada y el subpatch “Afinación” cargará la base de datos correcta al objeto coll, tal como se muestra en la figura 6.

36


una forma de envolvente en dicho objeto se crean una lista de puntos que es enviada por la segunda salida del objeto hacia line~ el cual crea la envolvente ADS. Una observación a tomar en cuenta es que si el punto final de la envolvente es distinto del valor máximo en x, además de ser 0 en el eje y (0, máximo x), es posible mantener presionada la tecla y el valor de sostenimiento seguirá tanto como sea el tiempo que se mantenga la tecla presionada, consecuentemente la envolvente en sus primeras 3 etapas puede superar el valor de 2,5 segundos definida en un inicio.

Figura 6. Programación de la afinación Con respecto a la envolvente, esta es definida gracias al objeto function donde los valores de velocidad son utilizados para calcular el rango y dominio de dicho objeto o lo que es lo mismo la amplitud y el tiempo respectivamente. Para el primer caso se utiliza la fórmula: Velocidad MIDI * 0.618… y luego estos valores se escalan entre 0 y 1 ya que estos son los datos que acepta Max/MSP como válidos para el rango. El dominio se calcula usando: Velocidad MIDI^1.618… de tal forma que el valor máximo que se alcanza es 2,5 segundos para las tres primeras etapas de la envolvente (ADS) y 2.5 segundos más para el relajamiento (R). Para entender el comportamiento de la envolvente, cuyo diagrama de flujo se representa en la figura 7 y su programación en la figura 8, se debe comprender que, cuando una tecla del controlador MIDI que se encuentre conectado al patch es presionada, se envía un mensaje con un valor de velocidad distinto de 0 y al soltar la tecla se remite un valor de 0; la envolvente definida mediante un objeto function debe gatillar el ADS cuando la nota es presionada y el relajamiento debe gatillarse al enviarse el valor de 0, es decir, cuando la tecla deja de ser tocada, entonces se hace uso del objeto select para direccionar el valor de velocidad cuando es distinto de cero o no. En el primer caso, la velocidad atraviesa el objeto trigger que envía simultáneamente un bang (b) y dos mensajes de números enteros (i) y que son el mismo valor de velocidad pero destinados a dos salidas distintas, una de ellas contiene las expresiones matemáticas para calcular los datos del rango o eje “y” de function mediante dos objetos consecutivos expr; la segunda salida realiza el mismo proceso anterior pero para obtener los valores del eje “x” o dominio, es por ello que ambas salidas se dirigen a los mensajes range y domain respectivos, que al dirigirse a la entrada de function definen las dimensiones de este objeto. Entonces, la señal bang junto con los mensajes range y domain fijan las dimensiones del objeto function. Al definir

Para el caso del release solo se necesita definir un valor de duración que en este caso es el mismo que se genera para el mensaje domain, por lo tanto, se envía el mismo valor al mensaje size del dial o potenciómetro; el valor que se le asigne a este potenciómetro se dirige al mensaje 0. $1 el cual es gatillado solamente cuando la velocidad es igual a 0, finalmente la salida de este mensaje es enviado al mismo objeto line~ usado en la envolvente ADS, esto para ahorrar recursos ya que nunca sucederá que tanto el mensaje de ADS y release lleguen al mismo tiempo.

Figura 7. Diagrama de flujo de la envolvente

Figura 8. Programación de la envolvente El índice de modulación (MI), que define la amplitud de los componentes laterales producto de la síntesis FM, utiliza un knob para enviar valores de 0 a 127 y calcular su valor siguiendo la ecuación: Valor MIDI x Phi. Para la programación simplemente se hace uso de un dial que produce los valores de 0 a 127 y que ingresan al objeto expr que posee la ecuación para el cálculo de los valores 37


adecuados como se aprecia en la figura 9.

9, 8

3

TOTAL

144

1,854 -

2

1

89

55

La programación de este elemento es igual a la usada para la afinación. Figura 9. Programación del índice de modulación (MI) La razón de armonicidad (HR), que define la relación armónica (número entero) o no armónica (número no entero) de los componentes laterales, está precisada como la frecuencia moduladora sobre la frecuencia portadora o lo que es lo mismo: fm/fc, sin embargo, en la síntesis los valores asignables son HR y fc y que se multiplican para obtener la fm; por ello el caso de la razón de armonicidad es especial ya que se debe tomar los valores correctos de HR que no invaliden el diseño de afinación previamente definido. Como solución a esto se han usado los valores de frecuencia ya definidos y se han calculado todos los valores posibles de HR; como resultado se obtuvieron 1265 datos que se pudieron reducir a 177 al expresarlos con tres cifras significativas. De ellos se tomaron 144 que es un valor de la serie de Fibonacci que más se acerca al 128 del protocolo MIDI, finalmente se los distribuyó en dos tablas de datos de 89 y 55 valores nuevamente valores de la serie de Fibonacci. Cada valor de HR posee una codificación ya que algunos valores estaban presentes en todas las afinaciones y otros solamente en dos, tres, o cuatro. Se contaron estas combinaciones para luego distribuirlas en cada tabla mediante el valor Phi, como se observa en la tabla 3.

C. Programación de la síntesis FM. A continuación se explica el funcionamiento del patch de programación. Como ya ha sido mencionado, en primer lugar, existen como parámetros seleccionables: afinación, forma de onda portadora, forma de onda moduladora, razón de armonicidad. Así también existen valores regulables que son: índice de modulación, razón de armonicidad, release, envolvente y ganancia. En la figura 10 se visualiza cómo la nota MIDI que proviene del objeto notein (1) ingresa al objeto coll (2) del segmento de la señal portadora para ser buscado en la base de datos de la afinación previamente elegida y enviar el valor de frecuencia correcto hacia la entrada izquierda de un objeto *~1. el cual también recibe en su entrada derecha el valor de Harmonicity Ratio (3) y por lo tanto, se produce una multiplicación de la frecuencia portadora y del HR que al estar definido como fm/fc generará en su salida la señal correspondiente a la moduladora.

1 Not

Tabla 3. Distribución de los HR para dos tablas a y b Codificación

# Valor áureo Combinaciones

Tabla a

Tabla b

12, 11, 10, 9, 8

31

19,158

19

12

12, 11, 10, 9

7

4,326

4

3

12, 11, 10, 8

1

0,618

1

0

12, 10, 9, 8

3

1,854

2

1

12, 11, 10

6

3,708

4

2

12, 10, 9

2

1,236

1

1

12, 10, 8

13

8,034

8

5

12, 10

46

28,428

28

18

11, 9, 8

3

1,854

2

1

12, 9

10

6,18

6

4

12, 8

10

6,18

6

4

11, 9

4

2,472

3

1

11, 8

5

3,09

3

2

5 = sen 2= 3 = HR

fc * 4=

Figura 10. Programación para la obtención de la frecuencia moduladora y su forma de onda

El valor de fm (4) ingresa al subpatch que define la forma de onda de la señal moduladora y es así que en su salida existe la señal, sen (fm), (5) (para efectos del caso se ha supuesto que se ha elegido una señal sinusoidal). El MI definido como am/fm (1) se multiplica con la envolvente (2), tal como se observa en la figura 11 a través de un objeto *~1., esto para obtener un espectro dinámico, es decir, que el índice de modulación varíe de acuerdo a la forma de la envolvente. No obstante, la salida del objeto *~1. sigue siendo el índice de modulación, en otras palabras, continúa estando definido como: am/fm. Luego, esta señal es mezclada con un nuevo *~ a la señal de fm (3) para obtener como resultado la amplitud de la señal moduladora a m (4)

38


Figura 11. Obtención de la amplitud de la señal moduladora am

Se multiplican nuevamente las señales de la amplitud am (1) y la forma de onda sen (fm) (2) para obtener la señal moduladora completa, am * sen (fm) (3), esto se visualiza en la figura 12.

Figura 13. Programación para la obtención de la señal modulada

III. ANÁLISIS DE RESULTADOS 1) Resultados y análisis de la afinación: Se puede observar en Anexo 1 que solamente para el caso de la afinación 12 el inicio de la octava temperada coincide con la del sistema basado en Phi (recuadros blancos), en los demás casos existe un desplazamiento de los valores, siendo así que por ejemplo para el inicio de la primera pseudo octava (34.442 Hz) de la afinación 8, en el sistema temperado apenas se encuentra en Sol#.

Figura 12. Programación para la obtención de la señal moduladora final

En la figura 13 se puede ver cómo se suman la frecuencia portadora (1) y la señal moduladora (2) mediante un objeto +~ cuya salida ingresa al subpatch “Formas de Onda” correspondiente a la señal portadora para elegir la forma de onda deseada (3). Inmediatamente, se multiplica la señal final junto con la envolvente, que en este caso sí define la amplitud de toda la señal (5) y se consigue la señal modulada en frecuencia. Finalmente, toda la señal es controlada por un objeto gain (6) que envía la información al objeto ezdac~ que reproduce el sonido.

Esto significa que para cada afinación las frecuencias bases serán notas distintas y en un solo caso, en la afinación 12, será siempre Do, para la afinación 11 las frecuencias bases, desde la más baja hasta la más alta, se encontrarán en: Si, La#, La, Sol#, Sol, Fa#, Fa, Mi, Re#, Re y Do#. Siguiendo el mismo orden, para la afinación 10, las frecuencias bases estarán en: La#, Sol#, Fa#, Mi, Re, Do para volver a repetir la secuencia una vez más. Para la afinación 9 serán: La, Fa#, Re#, Do y repitiéndose esto dos veces más. En último lugar para la afinación 8 se tendrá: Sol#, Mi, Do para repetirse cuatro veces. Con respecto a la frecuencia también existe un desplazamiento y es por ello que, entre una afinación y la subsiguiente se percibe un aumento en la frecuencia, por ejemplo si se toca la nota La4 (440 Hz en la escala temperada) con la afinación 12 se produce una nota de 209.3 Hz y la misma nota en la afinación 9 será 448.42 Hz, es decir, una diferencia mayor a dos, claramente notable. Sin embargo, esto no se considera un impedimento en la interpretación musical ya que en la mayoría de los casos, al igual que un intérprete que tocara un piano que posee una única afinación, la persona manejando el instrumento querrá mantener una sola afinación. Independientemente de las coincidencias o no de las frecuencias bases para cada 39


afinación, el programa trabaja con un teclado MIDI y por lo tanto se ve siempre ligado a poseer doce notas para cada escala. Para hacer un análisis de los intervalos producidos por el programa se han transformado los valores de los semitonos para cada afinación en cents y se obtiene la tabla 5. Tabla 5. Intervalos en cents para cada afinación Afinación # Nota en la 8va

12

11

10

9

8

1

69,424

75,735

2

83,309

92,566

104,136

138,848 151,471 166,618

185,131

208,273

3

208,273 227,206 249,927

277,697

312,409

4

277,697 302,942 333,236

370,262

416,545

5

347,121 378,677 416,545

462,828

520,681

6

416,545 454,413 499,854

555,394

624,818

7

485,969 530,148 583,163

647,959

728,954

8

555,394 605,884 666,472

740,525

833,090

9

624,818 681,619 749,781

833,090

937,227

10

694,242 757,355 833,090

925,656

1041,363

11

763,666 833,090 916,399 1018,221 1145,499

12

833,090 908,826 999,708 1110,787 1249,635

Existen algunos datos aproximados a los de la escala temperada pero que jamás son exactamente los mismos. Ya que la afinación 12 tiene una distancia entre una frecuencia y la siguiente de 69.424 cents, es decir, menor a un semitono, en este caso a pesar de la coincidencia de frecuencias bases mencionada anteriormente, auditivamente no pueden percibirse los intervalos clásicos ni la consecución de la octava, ya que entre la primera y la doceava nota de esta octava apenas existen 833.09 cents que es un valor intermedio entre una sexta menor y una mayor. Por otro lado, para la afinación original del trabajo de John Chowning (1973) la distancia entre la primera y la doceava nota (y que sea dicho nuevamente, no coinciden con las frecuencias bases) es de 1110.787 cents valor cercano a 1200 para la escala temperada, razón por la cual, auditivamente la relación de intervalos resulta muy similar para una persona con audición entrenada promedio.

- Mientras aumenta el HR, también aumenta la frecuencia moduladora y por lo tanto, sucede lo mismo con las frecuencias de los sobretonos. - Si el HR es menor a 1, los sobretonos con n negativo son siempre positivos, si el HR es 1, n= -1 es 0 Hz y cuando el HR es mayor a 1, los sobretonos con n negativo son frecuencias negativas. - Al calcular las distancias entre un sobretono y el siguiente, se observa que la relación que guardan está dada por la fórmula:

En algunos casos los resultados de frecuencia resultan negativos lo que significa solamente que el componente tiene la fase invertida. En el caso donde los componentes tienen el mismo valor de frecuencia pero con signos distintos, el valor negativo debe ser tomado como una frecuencia normal y se deben sumar las amplitudes de ambos. Recordando que el MI determina la amplitud de los componentes laterales de la señal modulada, se han calculado dichas amplitudes de acuerdo a lo presentado en el trabajo de John Chowning, utilizando funciones de Bessel de primera especie y orden n, cuyo argumento es el índice de modulación o MI. De esta forma, se han calculado las amplitudes (en un rango de 0 a 1) de los cinco primeros armónicos para cada uno de los valores diseñados para el índice de modulación. Cuando este índice es cero, el único componente con amplitud será la frecuencia portadora y por lo tanto es indiscutible que no existe modulación alguna y cabe mencionar que mientras este índice aumenta, será mayor la cantidad de componentes espectrales con amplitud significativa, tal como lo muestran las figuras 14 y 15.

MI = 0 2 0

2) Resultados y análisis de los índices de armonicidad y modulación: Se ha realizado un análisis matemático para uno de los casos más simples, donde tanto la forma de onda portadora y moduladora son señales sinusoidales.

-5 -4 -3 -2 -1 0 1 2 3 4 5

En esta oportunidad, se han realizado cálculos para los cinco primeros sobretonos y no se han utilizado cada una de las frecuencias existentes en el programa ya que es posible generalizar algunos comportamientos, así:

Figura 14. MI con valor 0

MI = 0

- Para todos los valores de HR, el espectro producido es inarmónico, a excepción del valor 1, que claramente produce la misma frecuencia portadora y moduladora y por ello, los sobretonos guardan relación de número entero. 40


MI = 205.49 0,1000 0,0000 -0,1000 -5-4-3-2-1 0 1 2 3 4 5 MI = 205.49 Figura 15. MI con valor máximo Se percibe que existen valores negativos de amplitud, al igual que las frecuencias esto representa que existe una inversión en la fase. Luego, se presentan los espectros de muestras de audio creadas por el sintetizador. Todos los archivos de audio poseen el formato aiff, una frecuencia de muestreo de 44100 Hz y 16 bits de profundidad. En la figura 16 se muestra el espectro del archivo de audio HR1000a.aif cuya configuración fue: una frecuencia portadora de 1000 Hz, un HR de 0.001 y MI de 0. De acuerdo a lo indicado, no existe modulación y por lo tanto el único valor presente es el del componente cero o lo que es lo mismo la frecuencia portadora.

Figura 16. Espectro de la muestra de audio HR1000a.aif Luego, se muestra el espectro del archivo de audio HR21b.aif cuya configuración fue: 21.86 Hz para la frecuencia portadora, 1 para el HR y 1.618 para el MI. Se espera que el espectro sea armónico debido al valor de HR igual a 1, sin embargo, se observa un fenómeno particular en esta forma de onda (véase figura 17) y es que debido a que la frecuencia moduladora es también 21.286 Hz y es un valor bajo de frecuencia, más allá de producirse sobretonos, se crea una distorsión en los ciclos individuales de la señal portadora.

Figura 15. Espectro de la muestra de audio HR21b.aif En la figura 18 se visualiza el espectrograma del archivo de audio HR21d.aif cuyas características son que la frecuencia portadora es 21.86 Hz, el HR es el máximo asignable 9.833 y el MI 1.618. Nótese que, solamente el valor de HR ha cambiado con respecto a la muestra HR21b.aif, sin embargo, se puede distinguir que el efecto de distorsión mencionado ya no está presente, pero si los componentes laterales y esto es debido a que con el valor de HR asignado, se generará una frecuencia moduladora que alcanza 209.305 Hz y por lo tanto los componentes laterales están más espaciados, además debido a que el valor de índice de modulación es aún pequeño, los componentes superiores al sobretono cinco no están presentes. Cabe señalar que este espectro es inarmónico.

Figura 18. Espectro de la muestra de audio HR21d.aif La figura 19 muestra el gráfico para el archivo HR1618b.aif con una frecuencia portadora de 1618 Hz, HR de 1 y MI de 1.618, en este caso, el espectro si es armónico, el valor de 0 Hz (aunque se extiende más allá de este) también se encuentra presente y en estos casos se lo denomina DC offset. Nótese que debido a que el MI es distinto de cero, los componentes laterales ya están presentes, es decir, existe modulación, no obstante, por el hecho de que este índice posee un valor pequeño, el armónico de 8090.1 Hz tiene escasa amplitud y los sobretonos de orden mayor ni siquiera están presentes.

41


Figura 19. Espectro de la muestra de audio HR1618b.aif El siguiente espectro a ser analizado fue el de la muestra HR1618d.aif, donde muchas de las frecuencias laterales están fuera del límite de 22050 Hz y por lo tanto se produce un efecto aliasing y por ello las frecuencias mostradas en la figura 20 no coinciden con dicha tabla, sin embargo, han sido calculadas las frecuencias de aliasing y se obtiene la siguiente tabla de valores: Tabla 6. Frecuencia originales y de aliasing del archivo HR1618d.aif

Sobretonos (Hz)

-5

Original 77930,97

Aliasing 33830,97

-4

62021,18

17921,18

-3

46111,38

2011,38

-2

30201,59

13898,41

-1

14291,79

14291,79

0

1618,00

1618,00

1

17527,79

17527,79

2

33437,59

10662,41

3

49347,38

5247,38

4

65257,18

21157,18

5

81166,97

37066,97

Se puede ver que estas frecuencias si concuerdan con el espectro mostrado en las figuras 20 y 21.

Figura 20. Espectro de la muestra de audio HR1618d.aif

Figura 21. Espectro de la muestra de audio HR1618d.aif Para la demostración del funcionamiento del índice de modulación, se ha utilizado una configuración muy similar a la del archivo de audio HR1618b.aif pero con un incremento en el MI a 27.506, un harmonicity ratio de 1 y una frecuencia portadora de 1618 Hz. Este audio que recibió el nombre de Simple2.aif se muestra en la figura 22, adviértase que aún está presente el DC offset pero es evidente que existen mayor cantidad de componentes laterales lo que corrobora que mientras mayor es el grado de MI es posible otorgar de amplitud significativa a mayor cantidad de frecuencias laterales. Por último se ha utilizado un índice de modulación máximo, es decir de 205.49, para una señal que por lo demás, es exactamente igual (Simplemax.aif) y en la figura 23 se visualiza que es aún mayor la cantidad de componentes espectrales.

Figura 22. Espectro de la muestra de audio Simple2.aif

Figura 23. Espectro de la muestra de audio Simplemax.aif

42


Seguidamente, se presentarán los resultados obtenidos con dos configuraciones diferentes que utilizan las otras formas de ondas elegibles en el programa. El primer archivo de audio se denomina Preset4.aif y utiliza una señal portadora Fibonacci de 1000 Hz, una moduladora triangular, un HR de 0.007 y un índice de modulación de 205.49. La figura 24 muestra el espectrograma de la señal cuya forma es muy particular, auditivamente esta muestra se percibe claramente como un vibrato que se produce porque la señal moduladora tendrá un valor de 7 Hz y por lo tanto se origina esta variación en la frecuencia que define a un vibrato; el valor MI controla la cantidad de desviación desde la frecuencia central, por lo que si el valor es grande, como en este caso, la desviación es mayor y el vibrato es evidente ya que el desplazamiento es aproximadamente desde 500 Hz hasta 1300 Hz.

IV. CONCLUSIONES A través de la elección de un tipo de síntesis y los elementos necesarios y/o básicos es posible implementar un método de síntesis donde el diseño esté basado en la proporción áurea y la serie de Fibonacci; además, el entorno de programación Max/MSP permitió la implementación de los elementos con su diseño particular y de la síntesis en general, mientras al mismo tiempo dotó de una interfaz gráfica para que el usuario pueda manipular el instrumento junto con una superficie de control MIDI. La síntesis FM permite obtener resultados espectrales complejos con una programación relativamente factible; se han utilizado solamente dos osciladores y los resultados obtenidos fueron amplios, con formas de ondas desde sinusoidales o puras hasta espectros armónicos complejos como ruido. Las formas de ondas utilizadas dotan al sintetizador de diferentes opciones a elegir, entregándole al mismo tiempo mayores capacidades sonoras así como de experimentación que derivan en la posibilidad de obtener mayor cantidad de timbres y efectos sonoros.

Figura 24. Espectro de la muestra de audio Preset4.aif La siguiente y última muestra de audio denominada Preset7.aif tiene una señal portadora Fibonacci y una moduladora diente de sierra, un índice de armonicidad de 0.825 y un índice de modulación 46.68, además no se define el valor de nota de la señal portadora ya que fueron presionadas cinco notas al azar y al mismo tiempo. En esta oportunidad ya que ambas formas de ondas poseen varios armónicos, los cuales interactúan entre sí, sumado a que por la modulación en frecuencia se generan nuevos armónicos y son cinco las notas presionadas, un valor de MI medio que probablemente otorgará de amplitud significativa a los sobretonos mayores a cinco, el resultado final auditivamente es un señal de ruido, por ello se puede observar en la figura 25 la gran carga armónica del espectro con un comportamiento aleatorio en la aparición de los componentes lo que es característico del ruido.

Figura 25. Espectro de la muestra de audio Preset7.aif

El índice de armonicidad modela en cierto grado el espectro de la señal, al definir la frecuencia de la señal moduladora a ser producida y en consecuencia las relaciones armónicas o inarmónicas con los parciales derivados de la modulación por frecuencia, así también, el índice de modulación modela la señal al definir la amplitud significativa de dichos sobretonos, sin embargo, el comportamiento de estos elementos no pueden asemejar el proceder de un filtro. El programa posee un único espectro armónico que sucede cuando el índice de armonicidad es uno. Al definir el ADS mediante el objeto function como parte de su programación, éste puede ser configurado con envolventes más complejas que permiten al sintetizador tener mayores posibilidades de creación de timbres. El sintetizador sin duda alguna podría mejorar su capacidad o desempeño como instrumento musical al aumentar la cantidad de voces. Se ha logrado presentar un sistema que mantiene similitudes con el sistema tradicional ya sea por razones técnicas como el uso de un controlador MIDI o musicales tal como la notación musical pero que simultáneamente en cierto punto se aleja de lo convencional; al presentar un diseño diferente se podría tomar por un lado, como un aspecto negativo al argumentar que no es necesario entregar un sistema nuevo ya que eso involucra que el instrumento probablemente no podrá ser incluido en la música o la producción musical de manera tan simple, pero los argumentos a favor señalan que en definitiva, al músico, productor, ingeniero, aficionado, o usuario en general, se le está presentando un nuevo sistema para la experimentación musical, un trabajo que se separa un poco de los cánones vastamente conocidos por la gente, para llevarlos a definir de una forma distinta la expresión de su arte. 43


https://ccrma.stanford.edu/sites/default/files/user/jc/Spri ngerPub3_0.pdf 3) Manning, P. (2004). Electronic and computer music [Versi贸n Digital PDF] (Edici贸n revisada y ampliada). Nueva York, Estados Unidos: Oxford University Press.

REFERENCIAS

1) Chowning, J. (1973). The Synthesis of Complex Audio Spectra by Means of Frequency Modulation, J. Audio Eng. Soc. 7 (21.), 526-534. Obtenido de https://ccrma.stanford.edu/sites/default/files/user/jc/fms ynthesispaperfinal_1.pdf 2) Chowning, J. (2008). Fifty Years of Computer Music: Ideas of the Past Speak to the Future. Obtenido de

Anexo 1. Notaci贸n musical del sistema temperado y las frecuencias calculadas bajo el sistema Phi.

Do

Do#

12

21,286

22,157

11

21,286

10 9

Re

Re#

Mi

23,064

24,007

24,990

22,238

23,233

24,271

21,286

22,336

23,437

21,286

22,455

23,689

8

21,286

22,606

12

34,442

35,851

11

35,982

10

37,921

9 8

Fa

Fa#

Sol

Sol#

La

La#

Si

26,012

27,077

28,184

29,338

30,538

31,787

33,088

25,357

26,491

27,675

28,913

30,206

31,556

32,968

34,442

24,592

25,804

27,077

28,411

29,812

31,282

32,824

34,442

36,140

24,990

26,362

27,810

29,338

30,949

32,649

34,442

36,334

38,329

24,007

25,496

27,077

28,755

30,538

32,431

34,442

36,577

38,845

41,253

37,318

38,845

40,434

42,089

43,811

45,603

47,469

49,411

51,433

53,538

37,591

39,272

41,028

42,863

44,780

46,782

48,874

51,059

53,343

55,728

58,220

39,791

41,752

43,811

45,970

48,237

50,615

53,110

55,728

58,475

61,358

64,383

40,434

42,655

44,998

47,469

50,076

52,827

55,728

58,789

62,018

65,424

69,017

72,808

43,811

46,527

49,411

52,475

55,728

59,183

62,852

66,749

70,887

75,282

79,949

84,906

12

55,728

58,008

60,382

62,852

65,424

68,101

70,887

73,788

76,807

79,949

83,221

86,626

11

60,824

63,543

66,85

69,354

72,455

75,695

79,080

82,616

86,310

90,170

94,202

98,415

10

67,557

70,887

74,382

78,049

81,896

85,934

90,170

94,615

99,279

104,174 109,309 114,698

9

76,807

81,025

85,75

90,170

95,122

100,347 105,858 111,672 117,806 124,276 131,102 138,302

8

90,170

95,760

101,697 108,002 114,698 121,809 129,361 137,381 145,898 154,943 164,549 174,751

12

90,170

93,859

97,00

11

102,815 107,413 112,216 117,234 122,477 127,954 133,675 139,653 145,898 152,422 159,238 166,359

10

120,352 126,285 132,511 139,043 145,898 153,090 160,638 168,557 176,866 185,585 194,734 204,334

9

145,898 153,911 162,365 171,282 180,689 190,614 201,083 212,127 223,777 236,068 249,034 262,711

8

185,585 197,091 209,310 222,287 236,068 250,704 266,247 282,753 300,283 318,900 338,671 359,668

101,697 105,858 110,189 114,698 119,391 124,276 129,361 134,654 140,163

44


DISEÑO Y CONSTRUCCIÓN DE UN CONTROLADOR MIDI UTILIZANDO DISTINTOS COMPONENTES DE CONTROL FÍSICOS R O B E R T O V Á S Q U E Z Universidad de las Américas, Ecuador, Quito. r_vasquez32@hotmail.com Youtube: Bobynator / MIDI Controller Demo RESUMEN: Utilizados en la producción musical como instrumentos musicales e interfaces de control, en interpretaciones en vivo tanto para audio y video como para el manejo de luces en un escenario, los controladores MIDI han tenido un amplio crecimiento en la industria musical desde el lanzamiento de la norma MIDI. Este trabajo busca brindar los conocimientos necesarios para diseñar y construir un controlador con varios sensores y componentes de control. Identificando los componentes electrónicos necesarios para su construcción, proponiendo una manera de realizar la conexión entre estos y finalmente, detallando la programación utilizada junto con programas y equipos de audio para obtener el funcionamiento exitoso del equipo. Palabras claves: Controladores MIDI, norma MIDI, producción musical, electrónica, instrumentos musicales.

I. INTRODUCCIÓN

Objetivo General Diseñar y construir un controlador MIDI utilizando diferentes componentes controladores físicos, partiendo de un circuito denominado Cerebro.   

La Interface Digital para Instrumentos Musicales o MIDI fue desarrollada como un protocolo de comunicación serial entre computadores, sintetizadores y otros dispositivos electrónicos para comunicarse entre sí y generar sonidos. Los controladores MIDI son dispositivos que generan información en lenguaje MIDI de cada acción de interpretación musical que se realice y la envían hacia un módulo o software para que transforme estos mensajes en señales de audio. Hoy en día se construyen controladores en forma de todo tipo de instrumentos musicales Los distintos controles utilizados en estos dispositivos, ya sea para interpretación como teclas, pads de percusión, o para modificación de parámetros como potenciómetros, han creado un sinfín de posibilidades al momento de interpretar música. Esto se debe a que logran producir diferentes resultados al momento de generar sonidos y existe gran control para modificar sus parámetros. Estos controladores se siguen desarrollando actualmente, incorporando tecnología como sensores de todo tipo, para tener cada vez un mayor control interpretativo.

Objetivos Específicos Identificar los componentes electrónicos necesarios para la construcción del controlador de acuerdo a las características que se requieren obtener. Determinar la programación de mensajes MIDI utilizando el software Brain Editor. Desarrollar un diseño innovador juntando todos los componentes adquiridos en una sola superficie de control, de manera que permita una adecuada ejecución y fácil interpretación musical del controlador. Evaluar las capacidades de control sobre dispositivos en hardware y software del estudio de producción musical de la Universidad de las Américas.

II. DISEÑO Y CONSTRUCCIÓN A.

Tarjeta Brain o Cerebro

Es el circuito principal del dispositivo. Esta tarjeta fabricada por la empresa Livid Instruments es la que recibe todas las conexiones y permite la comunicación con un computador para enviar y recibir mensajes MIDI. Se alimenta por medio de una conexión USB y es clasecompatible, lo que significa que no necesitará instalación de ningún driver para su funcionamiento en cualquier sistema operativo. Posee 64 entradas analógicas, hasta 179 entradas digitales y hasta 48 para LEDs. Las conexiones se realizan por medio de cables de cinta de 10 pines. B. Componentes Electrónicos 1) Sección de teclas: En esta etapa se decide tener 37 teclas de piano sensibles a la presión para lograr una buena

45


expresión interpretativa. Debido al presupuesto proyecto, se optó por teclas de menor tamaño.

del

Existen varias maneras de agregar la característica también conocida como velocity, agregando más botones en cada tecla, con sensores infrarrojos, táctiles, etc. Pero se decide por sensores de presión ya que resultó ser la manera más práctica y económica de implementarlo. 2) Rueda de Tono o Pitch Wheel: Para esta característica se decide instalar un joystick. Este componente tiene un mecanismo parecido al de un Pitch Wheel, donde dos potenciómetros controlan el movimiento hacia arriba y hacia abajo y se añade un resorte para mantener el control en el centro. Este control tiene un movimiento más corto y sus potenciómetros son en dos ejes, vertical y horizontal.

Figura 2. Dibujo de cortes frontal (Izq.), trasero y laterales (der.) realizado en AutoCAD.

La tarjeta Cerebro se atornilla a la pared posterior donde se perforaron los agujeros necesarios para las conexiones USB y MIDI. A continuación se muestra el compartimiento y el panel frontal luego del corte. Los componentes fueron colocados en el panel antes de terminar el acabado para tener una idea clara de las dimensiones y distancias exactas para realizar las conexiones.

3) Sección de Control de Mezcla: En esta sección se incluye controles básicos pensados para mezcla de canales y efectos. Dos faders grandes para control de nivel, uno como “Master Fader” y dos pequeños para crossfader y para envío de efectos. Se agrega ocho potenciómetros rotatorios y varios botones pulsadores para distintos usos. 4) Sección de Botones y Pads: Se incluyen 16 botones iluminados los cuales se configuran 8 como controles y 8 como notas. Cuatro pads con sensores de presión para gatillar sonidos de percusión. 5) Sensores Táctil e Infrarrojo: El sensor infrarrojo calcula la distancia entre la mano y el sensor utilizando luz infrarroja. De esta manera se puede controlar parámetros con movimientos leves sobre el sensor. El sensor táctil o touchstrip, funciona como potenciómetro que varía su resistencia dependiendo de dónde se sea presionado. Se escogió estos dos componentes porque no es muy común que se implementen en los controladores actualmente y de esta manera aportan algo de innovación al proyecto.

Figura 3. Compartimiento y panel frontal fabricados en madera.

Finalmente se recubre la base de la caja con material imitación de cuero y se laca de color gris metálico el panel frontal para obtener el acabado final.

C. Diseño del Panel Se utiliza el programa AutoCAD 2010 para realizar el diseño ya que brinda bastante precisión para graficar y acotar las dimensiones de los dibujos en unidades adecuadas. Posteriormente se lleva el archivo para ser cortado a laser en un panel de madera. Figura 4. Aspecto final del dispositivo con los componentes instalados.

D. Conexiones y Esquemas Las conexiones en la tarjeta Cerebro se dividen en tres columnas principales: controles analógicos, botones y LEDs. Cada grupo es nombrado según su función, por ejemplo A1-A8 para analógicos, L1-L8 para LEDs y B1-B8 para botones. Figura 1. Diseño final del panel frontal utilizando AutoCAD.

46


El sensor infrarrojo y el táctil disponen de sus conectores de la misma manera, Pin 1 para el positivo, Pin 2 para señal y Pin 3 hacia tierra.

Figura 7. Disposición de pines para el potenciómetro Softpot. Tomado de www.sparkfun.com, 2013.

Figura 5. Conexiones de 10 pines para controles análogicos, LEDs y botones. Tomado de wiki.lividinstruments.com, 2013.

Todas las conexiones utilizan cables de cinta de diez pines y cada conector en la tarjeta tiene marcado el pin 1 con una flecha, que debe ser empatada con el pin 1 de los cables de cinta. Para representar los circuitos electrónicos se utilizó dos programas, el uno Fritzing, de la empresa Interaction Design Labs para una representación más comprensiva y el otro, Proteus, de Labcenter Electronics utilizado más para el diseño de las placas de circuito impreso. 1) Controles Analógicos: Son todos los componentes que envían una señal continua hacia la placa. Generalmente tienen tres pines: tierra, señal y voltaje. En esta sección del Cerebro, cada conector tiene sus dos primeros pines asignados para tierra (Pin1) y voltaje (Pin2), y sus ocho siguientes para las señales individuales. Cada grupo comparte su conexión de tierra y voltaje. A estos controles analógicos se les añade un capacitor de 0.01uF entre la señal y tierra, que actúa como filtro pasa bajos para mejorar la respuesta de estos componentes.

Figura 8. Disposición de pines en sensor infrarrojo Sharp. Tomado de www.sharpsma.com, 2014.

Para los sensores de presión, cada uno tiene dos conexiones, una va hacia el positivo o Pin2, la otra va hacia una entrada de señal (Pin3-8) y esta a su vez, pasando por una resistencia de 10kOhms, es conectada a tierra (Pin1). En el caso del joystick, al tener dos ejes, se tiene una señal analógica tanto para el movimiento horizontal como el vertical. Una vez claros los circuitos y componentes necesarios, se procedió a trabajar con las placas impresas. En algunos casos se utilizó placas pre fabricadas adquiridas junto con los componentes, como en el ejemplo del control de joystick. En otros casos se elaboró el diseño de estas para posteriormente hacerlas imprimir. Para los primeros 16 controles analógicos, es decir los ocho potenciómetros rotatorios, cinco faders, dos de ambos ejes del joystick y el sensor infrarrojo, se utilizó una placa “Omni Board” de Livid Instruments. En esta se marca con verde las conexiones de tierra, señal y voltaje, y o café los hoyos para capacitores, como se puede apreciar en la figura 9.

Figura 6. Esquema electrónico para los potenciómetros elaborados en Fritzing.

47


Este procedimiento se efectúa para las siguientes placas hasta completar las 37 teclas, de la misma manera para los cuatro drum pads a excepción del control de touchstrip, al que se lo conecta de la misma manera pero no se agrega la resistencia. En su lugar se suelda un capacitor de 0.01uF y la terminal de tierra del componente se conecta a un pin disponible de los conectados a GND en la placa. Terminado dicho proceso, se conectan los cables de cinta a la tarjeta Cerebro, en los conectores analógicos restantes.

Figura 9. Placa Omni Board de la empresa Livid Instruments. Tomado de wiki.lividinstruments.com, 2013.

La implementación del control de velocity en el teclado fue la etapa más complicada del proyecto. En este caso se buscó implementar la función sin aumentar demasiado el costo general del proyecto. Ya que al utilizar un sensor completo en cada una de las 37 teclas hubiera significado un gasto considerable, se utilizó cortes pequeños de un solo sensor de presión largo y se adaptó cables a cada uno para colocarlo bajo el mecanismo de teclas adquirido.

Una vez conectada dicha placa, se procede con el diseño de dos placas más para el resto de controles analógicos, que incluyen los drum pads, control de touchstrip, y los 37 sensores de presión para las teclas de piano. El requisito que solicitan las empresas donde fabrican placas de circuitos es que el diseño se construya en el programa Proteus. Así que se utilizó la versión 8 de Proteus y su complementario Ares para diseñar las placas requeridas.

Se colocó un cable a cada extremo de la lámina de electrodos impresos. Estos no podían ser soldados el uno con el otro ya que se corría el riesgo de quemar la lámina y dañar el sensor, de manera que todos los cables fueron adheridos a la placa para limitar su movimiento. La tira de botones de goma es colocada encima de los sensores y todo el sistema es atornillado debajo del teclado para ser accionado por las teclas. 2) Matriz de Botones: La tarjeta soporta 16 botones por cada conector. Todo debe ir conectado en forma de matriz. En la Figura 11 se aprecia la disposición de los pines. Los dos primeros son columnas BC1 y BC2, los demás son filas, creando una matriz de 2x8 (2 columnas, 8 filas).

Figura 10. Esquema de placas para conexiones analógicas realizado en Ares.

Los pines marcados GND y V+ son para las conexiones de cables de cinta, cable 1 y 2 respectivamente. Los pines marcados del 1 al 16, son para los ocho cables restantes de cada cable de cinta. Siendo teclas y drum pads los controles analógicos que faltan por conectar, es decir, resistencias sensibles a la presión, todos van conectados de la siguiente manera. Todos tienen dos terminales, una que se suelda al pin conectado a V+ y la otra al pin adyacente marcado desde J1 a J16. Estos a su vez están conectados a R1-R16 donde se fija una resistencia de 10kOhms para completar el circuito.

Figura 11. Disposición de pines en sección de botones del cerebro.

La tarjeta incluye una resistencia en cada grupo conectada a tierra para descargar rápidamente el voltaje. Además, se debe añadir diodos de señal para controlar la dirección de la corriente en el circuito, lo cual es muy importante para mantener una sola dirección en la matriz. En este caso se utilizó diodos 1N4148. La matriz se conecta según la Figura 12. Un extremo del botón va conectado a una columna y el otro hacia el extremo positivo del diodo. Después se conecta el extremo negativo del diodo marcado con una franja, a una fila de la matriz y así sucesivamente la fila del botón 1 se conecta al botón 2 y 48


la columna del diodo 1 hacia la columna del diodo 9 en la siguiente fila. A continuación se muestra un ejemplo de una matriz de 2 columnas por 4 filas. Se utiliza la letra B para botón, D para diodo y R para resistencia.

Los demás LEDs son acoplados a la misma columna por su terminal positivo y hacia el resto de filas por su terminal negativo. En el diseño, se tiene los 16 LEDs para cada botón transparente, y dos más al lado izquierdo para los controles de canal A y B. Los LEDs se conectan en las mismas placas

Figura 12. Esquema de conexiones de una matriz de botones.

Con esta guía se diseñó una placa para los 14 botones del controlador que no incluyen luces LEDs. La siguiente placa que se utilizó fue la “Push Board” de Livid Instruments, fabricada especialmente para los botones transparentes que permiten incluir LEDs en su interior. Se adquirió 16 de estas placas agrupadas en cuatro grupos de cuatro. En la misma placa se conecta la matriz de botones y LEDs debajo del botón transparente. BR denota fila botón y BC columna botón.

de los botones transparentes. E. Programación En este apartado, se configura todos los controles y luces LED, utilizando el programa Brain V2 Configure, para que envíen y reciban los mensajes MIDI adecuados. Este programa permite programar los mensajes MIDI de Cambio de Controlador (CC) y notas, de acuerdo al sensor y control que ha sido conectado. Esto hace que la programación sea mucho más rápida y simplificada.

Figura 14. Ventana de programación de mensajes MIDI. Tomado del software Brain V2 Configure. Figura 13. Gráfico de conexiones en placas para matriz de botones.

3) Matriz de LEDs: De la misma manera, las conexiones para LEDs deben ser en matrices. En este caso, la matriz de LEDs tiene 4 columnas por 6 filas, dando un total de 24 LEDs en cada grupo. Se conecta de la misma manera que la matriz de botones, con la diferencia de que en este caso, la polaridad de los LEDs si es importante. En la tarjeta Cerebro, los primeros cuatro pines son columnas y los siguientes seis son filas. El extremo positivo del LED, identificado por el terminal más largo, se conecta a una columna y el terminal negativo va a una fila.

Lo primero que se aprecia en el programa son sus tres secciones: Botones, LEDs y Analógicos, que representan las secciones de mismo nombre en la tarjeta Cerebro. Se empezó con la programación de los botones, donde se tienen las columnas “ID” para identificar donde están conectados los botones en la tarjeta. La columna “MIDI”, donde se ingresa el número del mensaje MIDI que se quiere enviar al presionar dicho botón. “Type” es para escoger el tipo de mensaje, si va a ser de controlador continuo (CC) o de nota. “Btn as toggle” permite escoger si el botón va a actuar como interruptor o no.

49


En la sección LEDS se tiene la columna de identificación ID, MIDI para indicar que mensaje va a encender/apagar el LED y la columna Type para seleccionar si dicho mensaje es CC o nota. Cada LED debe tener un solo mensaje asignado a este, si existen varios mensajes asignados a un LED, el programa muestra un error. Finalmente en la sección de ANALOGS se tiene de la misma manera, la columna de ID, “CC MIDI” donde se coloca el número del mensaje, “CC mode” donde se escoge si el mensaje es CC o Bend (para la función de Pitch Bend), “Note MIDI” para escoger el número de la nota que se va a enviar, Type para escoger el tipo de control o sensor que está conectado y Enable para activar o desactivar entradas analógicas que no se estén usando. Para dichos controles analógicos, la columna Type permite seleccionar el modo en que responderán estos controles dependiendo del tipo de sensor que esté conectado. La siguiente tabla muestra los modos y sus características. El mínimo y máximo valor MIDI, también denominados piso y techo respectivamente, son ajustados por el programa para mejor funcionamiento de los controles.

Tabla 1. Modos de Configuración de Respuesta para Controles Analógicos.

Modo Pot

Control o Sensor Potenciómetros

Fsr1

Sensor de presión

Fsr2

Sensor de presión

Fsr3

Sensor de presión

Fsr4

Sensor de presión

Fsr5

Sensor de presión

Fsr6

Sensor de presión

Acc1 Acc2 Acc3 Btn

Acelerómetro Acelerómetro Acelerómetro Botón digital

Característica Respuesta lineal y solo mensajes CC. Piso alto, techo bajo, CC y notas. Piso alto, techo bajo, solo notas. Piso alto, techo bajo, solo CC. Piso alto, techo bajo, centro amplio CC notas. Piso alto, techo bajo, centro amplio solo notas. Piso alto, techo bajo, centro amplio solo CC. Centro ajustado, CC y notas. Centro ajustado, solo notas. Centro ajustado, solo CC. Centro ajustado, solo notas.

Tomado de wiki.lividinstruments.com, 2013.

Para terminar, se asegura que las conexiones no utilizadas no estén activadas y se guarda la configuración en la tarjeta seleccionando la opción “Save to Brain”.

F. Asignación de Funciones En esta etapa se explica cómo se realizan las configuraciones del controlador en programas como Reason y Traktor para comprobar el funcionamiento del dispositivo. Se escogió Reason ya que es un programa de producción musical utilizado en la UDLA, y se optó por usar el software Traktor Pro versión 2.6.2, ya que resultaba interesante evaluar su utilidad con un programa especializado en mezcla de audio en vivo. Para esta tarea es importante tener a disposición un diagrama con todos los mensajes MIDI que se están enviando. En Reason, el primer paso es configurar el dispositivo para que el programa lo reconozca como controlador. Esto se realiza en la ventana de Preferencias, seleccionando la página de Teclados y Superficies de Control. Ahí, se agrega un nuevo dispositivo. En la lista de Marca se selecciona Otros, y en la de Modelo se escoge la opción MIDI Control Keyboard. Por último se selecciona como entrada MIDI: Brain2 que corresponde a la del controlador.

Figura 15. Ventana de configuración y asignación de controladores MIDI en Reason.

Terminados estos pasos, todos los botones y teclas enviando notas deben estar funcionando. Para asignar los demás controles a otros parámetros, se hace click derecho en el parámetro deseado, seleccionando la opción Edit Remote Override Mapping. En la parte superior de la ventana se muestra el parámetro que se está configurando, en este caso la frecuencia del filtro en el instrumento NN-XT como muestra la Figura 15. Como Superficie de Control se debe escoger el nombre establecido para el dispositivo y a continuación se elige el número de CC o nota que va a modificar dicho parámetro. Este mismo procedimiento se realiza para el resto de controles físicos en el dispositivo. En Traktor, de igual manera se comienza la configuración desde la ventana de Preferencias. En la pestaña de Administrador de Controladores es donde se realiza toda la configuración del controlador.

III. METODOLOGÍA DE EVALUACIÓN Una vez terminada la fase de construcción y programación, se procede a evaluar el dispositivo. Para esta etapa se tuvo la opinión de tres personas especialistas en el ámbito musical 50


que conozcan sobre controladores MIDI y tengan experiencia en su manejo, para que prueben el dispositivo y se pueda recopilar sus opiniones y comentarios al respecto. Los estudios del controlador fueron en formato de entrevista, colocando una grabadora de voz y haciendo preguntas al encuestado mientras éste realiza las pruebas. Las pruebas fueron realizadas en estudios de grabación, para considerar un ambiente real donde normalmente se usarían estos equipos. Los lugares que se ocuparon fueron las salas CR1 y CR2 de la UDLA y el estudio Delta de la empresa Magic Sound & Music. Para las pruebas en hardware se decidió utilizar el módulo MOTIF Rack ES de Yamaha disponible en la sala CR1 del estudio de producción musical de la UDLA. Se escogió a tres entrevistados entre productores musicales, ingenieros en sonido y músicos que estarían interesados en el producto ya sea para su trabajo o uso personal. Por facilidad y debido a la poca disponibilidad del equipo en hardware, dos de las pruebas se hicieron solamente en software. El primer entrevistado es Enrique Vela. DJ profesional, músico y productor musical con cuatro años de experiencia tocando y mezclando en vivo. Actualmente trabaja en el estudio Magic Sound & Music como productor creativo. La entrevista es realizada en el mismo estudio de Magic Sound & Music utilizando Reason.

Figura 16. Diagrama de conexiones para evaluación con el MOTIF ES.

Para estas pruebas, el tercer entrevistado fue el ingeniero Marco Salvador. Graduado de ingeniería en sonido y acústica, músico, productor y actualmente dueño de Mad Music, una empresa importadora de instrumentos y artículos musicales.

IV. RESULTADOS A continuación se presenta los resultados obtenidos una vez finalizada la etapa de desarrollo del proyecto.

El segundo entrevistado es Juan Fernando Cifuentes. Productor musical, y licenciado en música contemporánea. Dueño de Diablo Quiteño Estudios. Actualmente profesor en la UDLA en las áreas de producción musical y entrenamiento auditivo. En este caso la entrevista tuvo lugar en la sala CR2 de la UDLA, utilizando Reason y Traktor. Para las pruebas con el módulo de sonido MOTIF ES, se utilizó la sala CR1 de la UDLA conectando el controlador, por medio de USB, a la computadora como su fuente de poder. Después por medio de un cable MIDI, desde la salida MIDI OUT al conector MIDI IN del Yamaha MOTIF. El módulo de sonido MOTIF ya se encontraba conectado a las entradas de línea 13 y 14 de la consola del estudio, y de ésta, a los monitores, como indica la Figura 16.

Figura 17. Gráfico comparativo de funcionamiento entre los controles.

Se agrupó los controles por tipo, identificando cuáles funcionan y cuáles no, y se obtuvo un porcentaje total de funcionamiento del dispositivo del 89,25%. Las secciones que presentaron problemas fueron las siguientes: • • •

Uno de cuatro pads, tuvo daños en la etapa de construcción. Uno de ocho potenciómetros rotatorios presento desconexiones temporales en la etapa de pruebas. 25 de 37 teclas no lograron el funcionamiento esperado.

El sistema del teclado, a pesar de haber funcionado bastante bien para algunas teclas, resultó ineficiente al trabajar en conjunto debido a las conexiones inexactas a los sensores y poca resistencia a movimientos muy bruscos. Esto se debe a que no se tiene terminales de acabado profesional para cada pedazo de sensor que se adaptó a cada tecla, pues un sensor 51


completo en cada una hubiera elevado demasiado el costo del proyecto. Utilizando el programa Brain V2 Configure, se abre la ventana Tools que permite monitorear la entrada de cada control. Accionando cada control se captura los gráficos de respuesta para cada grupo de controles con respuesta analógica del dispositivo. Estos muestran los valores MIDI desde 0 a 127 en el eje Y versus tiempo en el eje X.

Figura 21. Gráfico de respuesta del sensor táctil y de presión respectivamente.

Se tiene una respuesta bastante lineal y amplia para el sensor táctil (gráfico a la izquierda), mientras que para el sensor de presión, su respuesta es mucho más rápida para alcanzar valores altos y se debe configurar en el programa para que los máximos valores sean alcanzados sin necesidad de ejercer demasiada presión en el sensor y evitar daños en el dispositivo, ya que de otra manera no se alcanza el máximo tan fácilmente, como se muestra en el gráfico a la derecha.

Figura 18. Gráfico de respuesta del joystick para pitch bend (Izq.) y modulación (Der.).

En estos gráficos se puede observar como la respuesta siempre regresa al medio debido a los resortes del joystick. En el gráfico a la izquierda, de pitch bend, estos cambios son un poco más bruscos ya que no se implementó ninguna resistencia en ese eje del control, a diferencia del eje de modulación que permite mantenerse en cada punto más tiempo.

Figura 22. Gráfico de respuesta de los pads.

En el caso de los pads, se puede observar una respuesta bastante rápida y buena dinámica que se da al reconocer presiones leves, medianas y grandes. Esto permite una representación bastante fiel al interpretar sonidos percutidos.

Figura 19. Gráfico de respuesta del sensor infrarrojo.

En este gráfico del sensor infrarrojo se puede observar como los valores máximos y mínimos no se encuentran en los extremos del recuadro, lo que implica un rango de control limitado, sin embargo su respuesta es progresiva, lo que permite un buen control.

Figura 23. Gráfico de respuesta de faders pequeños y grandes respectivamente.

En los faders pequeños se tiene una respuesta bastante lineal y de rango completo como muestra el grafico a la izquierda. Para los faders grandes, se tiene una respuesta logarítmica debido al tipo de fader que se consiguió, pensado para control de nivel en aplicaciones de audio. En la práctica esta característica resultó innecesaria y hasta un poco incómoda ya que se vuelve muy sensible estando en valores altos.

Figura 20. Gráfico de respuesta de los potenciómetros rotatorios.

Estos potenciómetros presentaron un funcionamiento perfecto. Como se observa en el gráfico, se tiene una respuesta muy lineal y un rango completo, permitiendo un buen control de parámetros. Figura 24. Gráfico de respuesta de las teclas.

52


La respuesta de la Figura 24 se obtiene probando con las teclas en funcionamiento. Se puede observar que existe una dinámica entre presiones detectadas, sin embargo no es tan amplia como la de los pads a pesar de que se utiliza los mismos sensores. Esto se debe al mecanismo de botones de silicona debajo de las teclas que detiene las presiones muy leves hasta alcanzar la presión mínima para topar el sensor. Realizando un análisis con las entrevistas se obtuvo los siguientes resultados: • Control de Joystick: Posee una buena respuesta en general. El tener ambos ejes de control puede ser una ventaja para algunos usuarios. Se podría cubrir un poco el control colocándolo más abajo del panel para que no parezca frágil al utilizarlo. • Sensor IR: Su rango limitado resulta bastante incómodo. Puede ser muy sensible e impreciso en algunos casos. Se podría adaptar un botón de prendido y apagado. • Sensor Táctil y de presión: Funcionamiento adecuado. Siendo un control poco común actualmente, para algunos usuarios puede ser muy cómodo de utilizar pero para otros puede resultar extraño y difícil de acostumbrarse. • Pads: El sensor tiene una respuesta y sensibilidad muy buena. La falla se encuentra en los extremos de los pads donde no hay acción alguna, el sensor debería ser del mismo tamaño que el pad para evitar sectores sin respuesta alguna. • Botones Iluminados: Buena acogida por los usuarios. Incorporación de LEDs es una ventaja. Perfectos como interruptores o para gatillar muestras de audio. • Faders: Se debería agregar más resistencia al movimiento en los faders grandes para crear una respuesta menos brusca. Todos deberían ser de tipo lineal. • Botones Pequeños: Necesitan distintivos según su función. Podrían ser más grandes dependiendo de gustos y usos del usuario. • Potenciómetros Rotatorios: Funcionamiento y construcción perfecta. Controles de agrado en general. • Teclas: Bajo porcentaje de funcionamiento total de estas. Como se consideró desde un principio, el tamaño podría dificultar la interpretación para algunos usuarios. • Botones Arcade: Son de fácil interpretación. Aportan estéticamente al dispositivo.

V. CONCLUSIONES Mediante el uso de distintos componentes electrónicos y herramientas en conjunto, si es posible crear un controlador MIDI con varios controles físicos y con la capacidad de controlar programas de audio. Sin embargo, resultó ambicioso aspirar a un 100% de funcionamiento total, en el tiempo establecido y con las limitaciones presupuestarias

para el proyecto. La mayoría de componentes electrónicos utilizados sí se pueden encontrar en el país, no obstante componentes más específicos se deben importar del extranjero. Un desarrollo y fabricación local de main boards como el Cerebro, reduciría costos significativamente y facilitaría la producción de estos dispositivos en el país. Se encontró mayor facilidad de programación de los mensajes MIDI al utilizar el programa Brain Editor. Sin embargo, al simplificar la programación se tienen bastantes restricciones como el no disponer de Mensajes de Modo o de Sistema. Faltaría un mayor desarrollo en el campo de programación para conseguir funciones más avanzadas. Se recomienda como una siguiente etapa, continuar con un análisis de factibilidad para ensamblar localmente equipos de esta característica, en lo que podría ser un emprendimiento exitoso a futuro.

RECONOCIMIENTO Un enorme agradecimiento a todas las personas que directa o indirectamente contribuyeron a que el proyecto pueda realizarse, en especial a Patricio y Daniela Vásquez por su apoyo y financiamiento del proyecto. A Hugo Cisneros por aportar con el increíble logo para el equipo. A Enrique Vela, Juan Fernando Cifuentes y Marco Salvador por realizar las pruebas y brindar su opinión en las entrevistas, y finalmente a la empresa Livid instruments por el excelente soporte técnico que ofrece para sus productos. REFERENCIAS

1) Force Sensing Resistor Integration Guide and Evaluation Parts Catalog. (s.f.). Recuperado el 8 de mayo de 2013 de http:// www.openmusiclabs.com/ wp/wpcontent/uploads/2011/08/fsrguide.pdf 2) Floyd, T. (2007). Principios de Circuitos Eléctricos. (8a. Ed.). México: Pearson Educación. 3) Guérin, R. (2008). MIDI Power. Second Edition. Canadá: Course Technology. 4) Livid Instruments. (2014). Recuperado el 20 de enero de 2014, de http://wiki. lividinstruments.com/wiki/Brain_V2_and_Brain_Jr._Co nfigure 5) Lehrman, P. y Tully, T. (1993). MIDI for the Professional. Estados Unidos: Music Sales America. 6) Rumsey, F. (1994). MIDI Systems and Control (Music Technology). (2a. Ed.). Gran Bretaña: Focal Press.

53



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.