55

SONAC 2014

Embed Size (px)

DESCRIPTION

Revista especializada en Sonido y Acústica, que tiene por objeto recopilar todas las investigaciones más actuales de este campo, enmarcadas en el ámbito académico UDLA.

Citation preview

Page 1: SONAC 2014
Page 2: SONAC 2014

COMITÉ ORGANIZADOR:Tomás VillónChristiam GarzónLuis Bravo M.

COMITÉ EDITOR:Christiam GarzónLuis Bravo M.Carlos Jurado Orellana

Page 3: SONAC 2014

1S O N A C 2 0 1 4

Bienvenida

Editorial

DISEÑO E IMPLEMENTACIÓN DE UN PROTOTIPO DE ESTACIÓN DE MONITOREO DE RUIDO DE BAJO COSTO.

Juan Carlos Merlo Bodenhorst

RELACIÓN ENTRE LA EXPOSICIÓN AL RUIDO AMBIENTAL Y LA MOLESTIA QUE OCASIONA EN AULAS DE

EDUCACIÓN MEDIA EN QUITO, ECUADOR.Pablo Ávila, Luis Bravo-Moncayo

EVALUACIÓN DEL IMPACTO ACÚSTICO GENERADO AL INTERIOR DE LOS BUSES DEL SISTEMA INTEGRADO DE TRANSPORTE PÚBLICO

ECOVÍA DEL DISTRITO METROPOLITANO DE QUITO. Dennys Alejandro Granizo Vallejo

DESARROLLO DE UN SOFTWARE DE PROCESAMIENTO PARA OBTENER SEÑALES DE AUDIO BINAURALES A PARTIR

DE SEÑALES DE AUDIO MONOFÓNICAS. Juan Antonio León Buitrón

EVALUACIÓN DE LOS COMPONENTES DEUNA BANDA SONORA EN MATERIAL AUDIOVISUAL APLICADO A PUBLICIDAD PARA

TELEVISIÓN, CONSIDERANDO LAS PERCEPCIONES PSICOACÚSTICAS DE SONORIDAD, TIMBRE,

ESPACIALIDAD Y DIRECCIONALIDAD.Andrea Estefanía Olmedo Guerra

DESARROLLO DE UNA SÍNTESIS FM UTILIZANDO LA PROPORCIÓN ÁUREA Y LA SUCESIÓN DE FIBONACCI

A TRAVÉS DEL LENGUAJE DE PROGRAMACIÓN MAX/MSP. Valeria Villarreal

DISEÑO Y CONSTRUCCIÓN DE UN CONTROLADOR MIDI UTILIZANDO DISTINTOS COMPONENTES DE CONTROL FÍSICOS.

Roberto Vásquez

345

10

16

23

29

35

45

Page 4: SONAC 2014

3S O N A C 2 0 1 4

Bienvenida»

Es para nuestra universidad, la Facultad de Ingeniería y Ciencias Agropecuarias, y la carrera deIngeniería en Sonido y Acústica, una satisfacción llegar al término de un año más de este gran propósito, que es el de formar nuevos profesionales, emprendedores y llenos de valores para el éxito

en sus carreras de servicio.

Nosotros como institución seguimos invirtiendo, en contrataciones de los mejores profesores del campo, infraestructura física y equipos para laboratorios. Todo esto acompañado de un sistema de calidad que representa la mejora continua y sostenibilidad entre los diferentes actores de la universidad, estudiantes, profesores y funcionarios de esta institución.

Es notable los logros de nuestros coordinadores de carrera que hacen posible la gestión de mejora continua en nuestros estudiantes, producto de la buena tutoría, organización y clara comunicación en el proceso de aprendizaje –enseñanza.

Como evidencia de estos logros de formación académica, ahora presentamos el quinto número de la revista SONAC, donde hemos publicado los trabajos de titulación más destacados, que aportan significativamente al campo de la Acústica en nuestro medio.

Además de felicitar a toda la plana de colaboradores que hace posible el crecimiento y fortalecimiento de la carrera, dejo de manifiesto el compromiso de facilitar y dirigir los recursos de la universidad enfocados en el estudiante, seguiremos cumpliendo con nuestros planes de mejoras con la mística de “Amar lo que hacemos” y de esa manera alcanzar los resultados que se deben reflejar en las expectativas de los estudiantes y el desarrollo de la comunidad profesional de la Acústica.

Tomas Villón M.DecanoFacultad de Ingeniería y Ciencias AgropecuariasUDLA

Page 5: SONAC 2014

En los últimos años en el Ecuador, se ha evidenciado un incremento de regulaciones de formación académica de nivel superior, lo cual ha desembocado en el aumento de personal docente - investigador especializado en ciertas áreas de prioridad productiva para el país, mismo que tiene la misión de

transmitir y generar conocimiento junto a talento humano ecuatoriano en las diferentes universidades que tiene el Ecuador.

Este es el caso de la única carrera de Ingeniería en Sonido y Acústica del Ecuador, la misma que una vez más presenta el resultado de su arduo trabajo recogido durante un año en cuanto a avances tecnológicos y científicos, realizados por los investigadores y estudiantes de nuestra carrera.

Esta ocasión, se presenta una edición más de la revista especializada en sonido y acústica SONAC, con una gran gama de temas de alto nivel, que van desde diseño de prototipos de medición de ruido de bajo coste, hasta el desarrollo de métodos de síntesis sonora por metodologías matemáticas, como son las series de Fibonacci; todo este producto es fruto del esfuerzo de un claustro académico comprendido por profesionales, académicos e investigadores de varias nacionalidades con amplia trayectoria en el campo de la acústica, el sonido y sus afines.

Por todo lo antedicho, esta revista constituye un trabajo valioso para aquel lector multidisciplinario que está ávido de encontrar varios puntos de relación entre temas de sonido y acústica sin la necesaria secuencia que impone un texto definido.

Un fraterno reconocimiento a nuestros autores, estudiantes, docentes e investigadores que hicieron posible la realización de este tomo, y la reiterada invitación a “ser y hacer siempre Acústica”, bienvenidos.

Christiam Garzón P.Coordinador académico Ingeniería en Sonido y AcústicaUniversidad de Las Américas

Editorial»

Page 6: SONAC 2014

5

DISEÑO E IMPLEMENTACIÓN DE UN PROTOTIPO DE ESTACIÓN DE MONITOREO

DE RUIDO DE BAJO COSTO. JUAN CARLOS MERLO BODENHORSTUniversidad de las Américas, Ecuador, Quito.

[email protected]

RESUMEN: El ruido, principalmente el urbano, es un fenómeno cambiante que afecta a millones de personas diariamente. Su monitoreo es complejo y necesario si se desea tomar medidas adecuadas de prevención, construcción y planificación urbana. Por esta razón y la creciente disponibilidad de la tecnología digital, nace la iniciativa de desarrollar estaciones de monitoreo de bajo costo. Estos puntos de monitoreo se podrían distribuir a lo largo de las zonas afectadas, y realizar un seguimiento extensivo del ruido urbano, el cual se adquiere en una estación central de recepción. Este proyecto abarca el desarrollo y pruebas de un primer prototipo de dicha estación de monitoreo, que, con un bajo costo, logra buenos resultados y entrega una idea más clara del futuro de estos sistemas.

Palabras claves: Adquisición de datos, DAQ, Micro controlador, Monitoreo, Ruido, Prototipo, Urbano.

I. INTRODUCCIÓN

Una tecnología digital cada vez más accesible y económica, es un incentivo constante para la experimentación y la innovación. En todos los campos de la ingeniería existe la posibilidad de rediseñar y optimizar los diversos sistemas. De esto surge la idea de crear un instrumento de metrología acústica o sonómetro, utilizando la tecnología de los micro controladores. El objetivo es crear un dispositivo lo suficientemente flexible y de bajo costo como para ser parte de una red de monitoreo acústico para zonas urbanas.

Los micro controladores son esencialmente computadores miniaturizados en forma de circuitos integrados. En la era moderna son el corazón de cualquier dispositivo digital, tienen diversas arquitecturas que varían dependiendo su tecnología de fabricación y aplicación específica. Desde un simple reloj de mano hasta un avanzado brazo robótico, el fundamento es el mismo, aplicado a diferente escala y capacidad. Las posibilidades son numerosas, sin embargo esta tecnología solo representa materia prima de lo que es verdaderamente un dispositivo funcional, que debe ser diseñado, testeado y ensamblado por su fabricante.

II. METODOLOGÍAA. Sistemas digitales de adquisición de datos.

Para construir el dispositivo de este proyecto era preciso conocer la teoría detrás de estos sistemas. Un sonómetro digital es un tipo de sistema bastante usual, llamado sistema de adquisición de datos digital (DAQ), estos sistemas se caracterizan por tener cuatro etapas indispensables para cumplir su función básica de realizar mediciones:

1. Un sensor o transductor para capturar un fenómeno oacción que deseamos medir, que consecuentemente lo convierte a una señal eléctrica que represente dicho fenómeno.

2. Una etapa de adecuación de la señal, que se encarga deadaptar la salida de la señal a las necesidades de la conversión analógica-digital. Comúnmente esta etapa consta de ganancia y filtrado (como el filtro anti-aliasing) pero puede también comprender etapas más complejas de procesamiento según las necesidades.

3. Un convertidor A/D, que es un circuito utilizado paramedir voltajes de entrada, que se transcriben a datos digitales, cuya resolución depende de las capacidades del convertidor y una vez que se digitaliza la información, es posible realizar cualquier tipo de procesamiento computarizado.

4. Finalmente la información debe ser procesada ydesplegada, en un aparato de metrología acústica, esto significa calibrar la medición del voltaje realizada, al nivel de presión sonora que originó el mismo, con el fin de mostrar los datos de medición al usuario del sistema a través de una pantalla o display.

Para el diseño del prototipo sería necesario resolver cada una de dichas etapas.

B. Transductor electro acústico y sistemas lineales. Un transductor electro acústico convierte la energía

acústica a una señal eléctrica, los mejores para la tarea son los micrófonos de condensador, por tener una respuesta de amplitud lineal en todo el espectro audible. Es decir que la entrada acústica a dicho sistema mantiene una relación de primer orden con el voltaje de salida.

Page 7: SONAC 2014

La linealidad en este tipo de sistemas es muy importante, porque determina la estructura del algoritmo de calibración, el mismo se aplicará una vez que la señal del transductor sea digitalizada. Tener un sistema lineal desde el transductor hasta la conversión A/D, significa que se puede calibrar el voltaje medido por el convertidor, a la presión sonora de entrada, utilizando una función matemática de primer orden. Esto minimiza errores en la medición generados por el algoritmo de calibración que se torna mucho más fácil de diseñar.

En la figura 1 se muestran los datos experimentales del sistema sensor y pre amplificador. Este muestra un comportamiento lineal con respecto a la presión sonora de entrada, el mismo comportamiento que se buscará en la zona de funcionamiento de cada una de las etapas del sistema de adquisición de datos, esto con el fin de crear un sistema lineal de medición.

Figura 1. Respuesta a la amplitud de entrada, para el

sistema: micrófono de condensador Behringer ECM8000 y pre amplificador Rolls mp-13, entre 0.06 y 1 pascales de presión sonora pico (70 y 94 dB).

Es importante mencionar que dicha recta está ligada al nivel de ganancia en el que se realizó el experimento. Este traslada la pendiente de respuesta arriba o abajo, al subir o bajar el nivel en el preamplificador, respectivamente. Esto convierte a la ganancia en pieza clave para la calibración del sistema, ya que llevará un determinado rango de nivel de presión sonora (NPS) de entrada al sistema, al rango de voltaje de salida necesario para el resto de componentes electrónicos en las etapas posteriores del prototipo de medición.

C. Circuito analizador de espectro (CI). La señal está lista para ser adecuada al nivel de voltaje necesario por el pre amplificador, cumpliendo así una primera, y muy común etapa de acondicionamiento de la señal. Un sistema común de conversión A/D tendría una última etapa, un filtro anti-aliasing para evitar distorsiones de transcripción al momento de la conversión, y digitalizaría toda la información en la señal eléctrica del transductor. Esta es la línea de funcionamiento de los sistemas de grabación digital, que producen flujos grandes de información y requiere de equipos digitales avanzados y costosos. Con la idea de mantener un bajo costo del sistema se aplicó una etapa adicional de acondicionamiento de la señal, un circuito analizador de espectro.

El circuito integrado BA3834S es un analizador de espectro analógico. Utiliza 7 filtros pasa banda dispuestos en octavas desde 62Hz hasta 15kHZ, se usa para realizar un simple análisis de espectro a bajo costo con un CI, ya que este tipo de circuito integrado se utiliza mucho en sistemas de audio para funciones de reproducción gráfica. Lo que lo hace atractivo para este proyecto es que posterior al filtrado en octavas de la señal, el CI aplica un proceso llamado Peak Hold a cada banda, es decir un tipo de rectificación de la señal alterna, donde en su salida se obtiene voltaje de corriente continua, el mismo que está correlacionado al nivel de voltaje pico en cada una de las 7 bandas de frecuencia. La figura 2 muestra la respuesta encontrada al utilizar un generador de tonos puros, en la frecuencia central de las bandas de 62Hz, 1kHz y 15kHz.

Figura 2. Respuesta a la amplitud del circuito integrado

BA3834S.

El circuito integrado proporciona una señal de corriente continua equivalente a la envolvente de la señal original de audio, y con la cual se determinará la amplitud de la misma. Esta señal acondicionada requiere cientos de veces menos información para ser digitalizada correctamente, ahorrando dinero en las capacidades del convertidor A/D, pero perdiendo la información original de audio en cada banda de frecuencia.

En la respuesta también podemos observar el

comportamiento lineal que buscamos para todas las etapas del sistema. Si observamos la entrada al CI en el rango de los 30 a 600 mV, es claro que produce una respuesta lineal en la salida en el rango de 0.25 a 4.7 voltios, aproximadamente. El rango dinámico de este rango de funcionamiento seria de:

20 log(600/30) = 26.02 dB Con la prueba anterior se espera que el rango útil de un

analizador no supere los 26 dB. El CI muestra un rango dinámico limitado, pero podría ser parte de varias etapas de medición de la amplitud, por lo que el proyecto se centró en evaluar el funcionamiento de esta etapa individual, ya que aún resta evaluar el comportamiento de los filtros pasa

!"

#!!"

$!!"

%!!"

&!!"

'!!!"

'#!!"

'$!!"

!" !(#" !($" !(%" !(&" '" '(#"

!"#$

%&

'()'(*

%#+

)%(,-

!(.+

/"0(

.1'2+"3(*"3"1%()'(43$1%)%(,.%(.+/"0(

!(!!'"

!(!'"

!('"

'"

'!"

'" '!" '!!"

!"#$

%&

'()'(*

%#+

)%(,!

0(

!"#$%&'()'('3$1%)%(,-!(.+/"0()*+,*"-"."'!!!/0"

)*+,*"%"."'1213/0"

)*+,*"!"."%&/0"

6

Page 8: SONAC 2014

7

banda, que consta principalmente de pruebas experimentales.

D. Conversión A/D. Para esta etapa crucial de la adquisición se utilizó el

micro controlador (MC) ATmega328 de Atmel. En una popular tarjeta para diseño de proyectos y prototipos electrónicos llamada Arduino UNO, este MC se suma a una interfaz USB, por la cual se puede programar el ATmega328 directamente de un computador, y acceder con código de programación a sus 14 pines de entrada o salida digital y 6 entradas de conversión A/D de 10 bits. En el prototipo se utilizó una de las entradas analógicas para obtener la medición del voltaje de salida en el CI analizador de espectro. 4 pines digitales se utilizan como salidas para generar señales de control, necesarias para seleccionar la salida del analizador de espectro desde el programa del MC, y realizar las mediciones del voltaje en cada banda de frecuencia.

De cualquier forma que se diseñe un aparato electrónico, el micro controlador ofrece facilidades para el funcionamiento, como en este caso que se utilizó el algoritmo del procesador para controlar el circuito integrado que se deseó implementar. En general se encontró un funcionamiento muy estable en la conversión del MC. La conversión A/D se realiza entre 0 a 5 voltios, y una resolución de 10 bits por lo que el voltaje mínimo a medir es:

5 × 1/1024 = 0.0048 v

o aproximadamente 5mV. que equivale a un rangodinámico de:

20×log(5000/5) = 60 dB

Es así que la entrada del micro controlador está totalmente capacitada para leer la salida del CI entre 250 y 4700 mV.

Finalmente se estableció que el prototipo realice el muestreo de la señal cada 200ms para mantener un flujo bajo de información y tener una respuesta impulsiva aceptable.

E. Transmisión, calibración y despliegue de datos. Para la transmisión de datos se utilizó una tarjeta de red

especial para la tarjeta Arduino UNO. Con este podemos usar el algoritmo del procesador para enviar paquetes de información a través de una red de computación LAN. Con tan solo un comando en el código se envían los datos de medición en las 7 bandas en un rango de 0 a 1024 hacia la dirección IP de un computador que actuará como receptor de datos.

Figura 3. El micro controlador, la tarjeta de red y la placa del circuito integrado, durante una prueba de respuesta con un generador de tonos.

Para la recepción de datos, se programó un computador utilizando LabView de National Instruments, que es una interfaz de programación enfocada a la adquisición de datos en laboratorio. El programa de recepción llamado "Data Logger", se diseñó como una interfaz de usuario completa, esta busca un paquete UDP de red cada 200ms y lo procesa para entregarlo al usuario calibrado en dB.

Como sabemos que el voltaje medido al final del sistema es linealmente proporcional a la presión sonora en el diafragma del transductor, se desarrolló una función de calibración:

NPS = 20×log(V/Vref ) + C

donde la amplitud del voltaje V en la escala de conversión A/D (0-1024) se referencia a un nivel de voltaje Vref, y C es el nivel de presión sonora obtenido en laboratorio, que produce una salida de voltaje V igual a Vref, para cada una de las bandas. Es decir que para realizar la calibración se debe ajustar la ganancia del preamplificador y encontrar los 7 valores C de calibración para las bandas del CI.

El nivel se calibra para cada banda individualmente y se suma la amplitud de las 7 bandas para determinar el NPS total del espectro, para esto se uso la función:

NPStotal = 10×log(10NPS0/10 + ⋯  + 10NPS6/10 ) + ∆

Donde ∆ es un factor de corrección constante en dB, que se implementó para compensar errores en la sumatoria de la amplitud en las bandas, puesto a que los filtros pasa banda analógicos se sobreponen entre sí, por lo que se esperaba que la cuantificación de la amplitud total sea sobrevalorada. Posteriormente el valor de ∆ se encontró alrededor de -12.5dB, mediante pruebas de laboratorio comparativas con un sonómetro Solo 01dB. Un valor alto, y que no funciona correctamente si la mayoría de bandas en el analizador de espectro están inactivas, con lo que puede bajar la corrección hasta 9.2dB.

Finalmente se adecuó el programa receptor de datos en PC, para realizar capturas y cálculo del NPS equivalente (o nivel de presión sonora promedio), con lo que el prototipo está listo para ser evaluado con otro instrumento de referencia.

Page 9: SONAC 2014

III. ANÁLISIS DE RESULTADOS

Para la evaluación del prototipo se utilizó una serie de experimentos comparativos, la idea era exponer al prototipo y a un sonómetro de referencia, a la misma entrada acústica y evaluar las diferencias.

Figura 4. Condiciones de laboratorio del último

experimento de evaluación. Se ubicaron dos transductores idénticos, uno conectado al

prototipo y otro al sonómetro de referencia (Interfaz de audio y computador) a una distancia de 30cm de una fuente de mediana potencia. Todo esto dentro de una sala absorbente, con la idea de minimizar la influencia acústica del recinto, y que la incidencia sobre los transductores sea únicamente sobre el eje directo.

Con el ensayo listo se procedió a medir con ruido rosa en

incrementos progresivos de amplitud, tomando niveles del prototipo y sonómetro de referencia se pudo modelar la respuesta a la amplitud en dB. La figura 5 muestra el nivel medido en el sonómetro con respecto al nivel obtenido por el prototipo.

Figura 5. Respuesta promedio al ruido rosa, = -12.5dB. Con este ensayo se pudo comprobar, de manera práctica,

la respuesta esperada en el sistema. Alrededor del nivel de calibración de C=88.1dB que se ubicó en la escala de amplitud Vref = 451, encontramos la parte central de la respuesta, donde la diferencia entre el sonómetro y el prototipo alcanza el error mínimo de -0.5dB. y con un error máximo de -1.5dB para 81 y 96 decibeles, esto nos deja un rango efectivo de medición de unos 15 dB.

La línea de etapa superior, representa una extrapolación

de lo que podría ser una segunda etapa de medición de amplitud, calibrada 15 dB sobre la primera etapa, este

segundo CI podría extender el rango dinámico del prototipo. Dado a que el costo de los CI es despreciable en relación al resto del sistema, esta mejora sería económicamente viable.

Finalmente se realizó más comparaciones utilizando

muestras de audio representativas de ruido urbano, con el fin de seguir probando la capacidad del prototipo de cuantificar el NPS, ahora ante diferentes señales con diferentes contenidos espectrales, lo que pondrá a prueba la calibración y el factor de corrección =-9.2dB. Con la ayuda de una función de captura y exportación de datos que existe en ambos, el sonómetro y el "Data Logger", se logró realizar una comparación temporal de las capturas (Figura 6) y no solo la comparación del nivel equivalente.

En la figura 6 se presentan dos de las capturas realizadas

y que representan buenos ejemplos de las observaciones realizadas.

La primera captura consta de una Autopista con bajo

tráfico, el contenido espectral es bajo y se puede notar que el prototipo sigue muy bien al sonómetro con la corrección de

=-9.2dB, esto es hasta que el nivel sale del rango de funcionamiento de los filtros pasa banda, que por el nivel de calibración de 88.1dB está entre 94dB y 77.5dB.

Nivel Equivalente P: 92.1dB S:95.1dB

Nivel Equivalente P: 93.3dB S:90.8dB Figura 6. Ensayos de captura de muestras de audio.

Se observó también 3 dB menos en la lectura del nivel

equivalente en el prototipo, con respecto al sonómetro de referencia. Sin embargo este error parecería estar ligado a la falta de rango dinámico, y no sería importante en un sistema de rango ampliado.

También es posible encontrar diferencias importantes en

los segundos 9 y 38, el nivel del prototipo sugiere que hubo

41"

4$(1"

4$"

4-(1"

4-"

4#(1"

4#"

4'(1"

4'"

4!(1"

!"

5!" 51" &!" &1" 6!" 61" '!!" '!1" ''!" ''1" '#!"

5+6'

1'3/

+%(.1

"$"7

8"(9

(*"3

"-'$

1"(,)

:0(

;.*('3('#(*"3"-'$1"(,):0(789:;89<*":=>?8,@>"A<*:*"B;:8=@>="C'1,)"

51"&!"&1"6!"61"

'!!"'!1"''!"

!" 1" '!" '1" #!" #1" -!" -1" $!" $1" 1!"

;.*($

"$%

#(,):

0(

<+'-8"()'(=%8$>1%(,2'?0(

@>$"8+2$%(

D=><>E:>"B>+>?8<=>"

5!"

51"

&!"

&1"

6!"

61"

'!!"

'!1"

''!"

!" 1" '!" '1" #!" #1" -!" -1" $!" $1" 1!"

;.*($

"$%

#(,):

0(

<+'-8"()'(=%8$>1%(,2'?0(

="32$1>//+A3(

D=><>E:>"B>+>?8<=>"

88.1dB 88.1dB

8

Page 10: SONAC 2014

9

algún error de cuantificación , ya que el nivel está en el rango operacional. Esto pudo ser producido por frecuencias específicas a las cuales el prototipo no responde bien, frecuencias intermedias entre los filtros analógicos, o quizás por sonido emitido en los límites de muy alta o baja frecuencia para el CI los rangos cubiertos por los filtros pasa banda.

En la muestra de audio de una construcción urbana (figura 6), se presentó un ruido con alto contenido espectral, esta señal no tiene un rango dinámico amplio, por lo que se mantiene en el rango de funcionamiento del prototipo, sin embargo la sumatoria del nivel total se mantiene alrededor de 3 dB por sobre el prototipo durante toda la captura, lo que siguiere una corrección ∆=-12.5dB y revela el problema de incertidumbre que se encontró en ensayos anteriores, y se supone es un efecto de la superposición de los filtros pasa banda.

IV. CONCLUSIONES

En conclusión el proyecto cumplió todas sus expectativas, al poder completar un sistema de adquisición de datos útil y de bajo costo. El prototipo presenta unas buenas prestaciones, se pudo modelar todas las etapas del sistema, y determinar los puntos débiles que ayudarán a futuras investigaciones.

Por un lado se encontró una buena estabilidad en los componentes, y se determinó que se puede medir señales de voltaje con una muy buena precisión en relación al costo del prototipo que no excede los 200 dólares.

Por otro lado se detectó un punto débil en los filtros pasa banda, y podría ser superado si se ubican filtros con mayor resolución, o si eliminamos el analizador de espectro para rectificar y calcular la amplitud de toda la señal, sin el filtrado por bandas. Esto perderá toda la información espectral de la señal y nos llevaría a usar filtros de ponderación analógicos, difíciles de diseñar, pero podría ser el diseño de un segundo prototipo de bajo costo, que desde el punto de vista de esta investigación, podría llegar a una precisión excepcional.

RECONOCIMIENTO

Agradecimientos a mi familia y la Universidad de las Américas, por el apoyo en esta investigación y durante el desarrollo de mis estudios de Ingeniería.

REFERENCIAS

1) Arduino.cc (s.f.). “Información de productos, ArduinoUNO” recuperado el 17 de octubre del 2013http://arduino.cc/en/Main/ArduinoBoardUno

2) Burr, M. (2013). “Embedded Systems Glossary”recuperado el 4 de octubre del 2013 dewww.barrgroup.com/embedded-systems/glossary

3) Comisión Electrotécnica Internacional. (2005). NormaInternacional IEC 61672. GINEBRA, Suiza.

4) FCEIA (s.f.). “Niveles Sonoros, Federico Miyara”recuperado el 17 de junio del aa a 2 2014 dehttp://www.fceia.unr.edu.ar/acustica/biblio/niveles.htm

5) Franden, J. (2010). Handbook of Modern Sensors:Physics, Designs, And Applications. Springer.

6) Gerges, S. y Arenas, J. (2004). Fundamentos de Controlde Vibraciones. Florianópolis, Brasil. NR Editora.

7) Miyara, F. (2004). Acústica y sistemas de sonido.Bogotá, Colombia. Fundación Decibel.

8) Young, S. (2001). Computerized Data Acquisition andAnalysis for the Life Sciences. Cambridge, UnitedKingdom. Cambridge University Press.

Page 11: SONAC 2014

10

RELACIÓN ENTRE LA EXPOSICIÓN AL RUIDO AMBIENTAL Y LA MOLESTIA QUE OCASIONA EN AULAS DE EDUCACIÓN MEDIA EN QUITO,

ECUADOR. PABLO ÁVILAa, LUIS BRAVO-MONCAYOb

Universidad de las Américas, Ecuador, Quito. a [email protected]

b [email protected]

RESUMEN: En este documento se presenta la investigación llevada a cabo en 5 escuelas urbanas y rurales del Distrito Metropolitano de Quito – Ecuador, donde se evaluó las condiciones acústicas de sus aulas, la relación entre el ruido ambiental medido en las aulas de clase, y la molestia ocasionada por el ruido de tráfico. Los parámetros acústicos evaluados en las aulas fueron: ruido de fondo, tiempo de reverberación, e inteligibilidad de la palabra. Además se generaron mapas de ruido de tráfico vehicular y mediciones de ruido de fondo en los exteriores de las aulas. La molestia acústica se evaluó por medio de una valoración subjetiva, donde se utilizó una escala numérica del 1 al 10 y una cualitativa de 5 valores. Para evaluar el efecto dosis-respuesta se recurrió al uso de métodos estadístico descriptivos e inferenciales, generando un modelo de predicción. En Ecuador no existe un estándar relacionado con la exposición al ruido en el sector educativo, por lo que las medidas encontradas fueron evaluadas según normativas internacionales. Los resultados encontrados muestran la necesidad de gestionar el ruido al que se exponen los alumnos de las escuelas evaluadas, ya que sus aulas no tienen un ambiente acústico apropiado para el aprendizaje. Es así que este resultado se ve plasmado en la valoración de molestia acústica; donde el 72% del total de la muestra evaluada presentan molestia asociada al ruido de tráfico

Palabras claves: Escuelas, molestia, contaminación acústica, Quito.

I. INTRODUCCIÓN Se ha demostrado que ciertos estímulos sonoros pueden contribuir en el aprendizaje de un estudiante [1]; sin embargo, si un sonido se produce de forma prolongada o a su vez provoca molestia en el receptor, suele interfiere negativamente el proceso de aprendizaje. La exposición al ruido ambiental genera un déficit en el rendimiento tanto de profesores y de estudiantes [2][3][4].

Es así que las condiciones de calidad acústica dentro de aulas de clase están enfocadas en reducir el tiempo de reverberación y el ruido de fondo para que los mensajes generados en su interior tengan un carácter inteligible. El mayor problema presente en las aulas ha sido identificado

como el ruido de fondo generado por el tráfico vehicular [18]; pero así mismo no solo este agente contaminante se encuentra presente en ellas; también es posible encontrar ruido generado por aeronaves, que posee un carácter diferente [2]. Luego de haber encontrado el principal agente contaminador dentro de las aulas se concluyó que su principal consecuencia es la molestia que ocasiona [5][6]. Además se pueden destacar consecuencias de tipo fisiológico y psicológico producidas en base a ruido fluctuante; indistintamente de cualquier factor demográfico presente en la población de estudio [7].

Generalmente al evaluar exposiciones al ruido se utiliza el descriptor Nivel equivalente Día-Tarde-Noche LDEN por la relación que tiene con tiempos prolongados de exposición; sin embargo, en casos donde se requiere evaluar tiempos de exposición más cortos se recomienda utilizar el descriptor Nivel Continuo Equivalente LAeq [8].

Entre los estudios previos realizados en el Distrito Metropolitano de Quito podemos encontrar el desarrollado por la Secretaría de Ambiente del Municipio, donde se identifica al ruido ambiental como el tercer problema ambiental de mayor importancia para la ciudadanía [9].

El objetivo planteado para este trabajo fue hallar la relación entre el ruido ambiental y la molestia que produce; ya sea ruido percibido dentro o fuera de las aulas de clase (patios y corredores) de 5 establecimientos educativos en distintas zonas de la ciudad de Quito, donde la población de estudio se seleccionó acorde a los siguientes criterios:

• Distribución geográfica apropiada• Capacidad instalada del establecimiento (>300

alumnos)• Antecedentes con estudios relacionados al estudio

de contaminación de suelos y aire

Determinados los parámetros mencionados, se eligieron las siguientes instituciones educativas acorde a cada sector:

Escuela Sector • Mariscal Sucre Centro Histórico • Julio Enrique Moreno Sur• Nacional Nanegalito Nanegalito • Dr. Arturo Freire Tababela • Leonardo Maldonado Puembo

Page 12: SONAC 2014

11

En la Figura 1, podemos encontrar su respectiva ubicación geográfica.

Figura 1: Ubicación geográfica en la ciudad de Quito de los centros educativos seleccionados para el estudio.

II. METODOLOGÍAPara el desarrollo de este trabajo se utilizó la instrumentación detallada en la tabla 1.

Tabla 1: Instrumentación implementada Equipo Marca Modelo No. Serie Sonómetro integrador Tipo 2

Quest Sound Pro SE/DL

BIG30019

Sonómetro integrador Tipo 1

NTI-Audio XL2 A2A-06073E0

Calibrador Quest QC-10 CAL

QII20065

Calibrador 01dB CAL 21 51030986 Generador de Señal

NTI-Audio Talkbox TNN973

Equipo Marca Modelo No. Serie Sonómetro integrador Tipo 2

Quest Sound Pro SE/DL

BIG30019

A. Tiempo de reverberación La evaluación de este parámetro se realizó por medio del método de “Ingeniería” sugerido en la normativa UNE-EN ISO 3382-2 (2008)[10], donde se plantea al menos dos posiciones de fuente y dos de micrófono con un mínimo de 6 combinaciones fuente-micrófono independientes, además se utilizó como fuente generadora globos de plástico para cada muestra (>20dB por banda de octava), para evaluar el comportamiento de la reverberación se utilizó el módulo de análisis de T60 integrado en el sonómetro NTI Audio XL2 [11]. Los 6 ciclos encontrados en cada medición fueron promediados según su banda de octava.

Con el fin de lograr resultados de mayor interés y aportar con la veracidad de este estudio se realizó la medición de tiempo de reverberación en dos temporadas: durante periodo lectivo y en vacaciones; en los dos casos sin presencia de personas dentro de las aulas de clase.

B. Ruido de fondo interior El método por medio del cual se realizaron las mediciones fue el indicado en la normativa UNE-ISO 1996-2 [12]; cabe recalcar que se tomó como tiempo de medición en cada ciclo un equivalente a 15 minutos por medición y la ubicación del sonómetro en todos los casos fue en el centro del aula de clase, a 1,5 (m) de altura. El proceso de medición se realizó mientras las aulas se encontraban desocupadas.

C. Ruido de fondo exterior Para evaluar este parámetro se realizaron mapas de ruido a través de modelamiento computacional, y mediciones en los patios y corredores de cada institución educativa con el fin de corroborar cada uno de los resultados encontrados. Las mediciones exteriores se realizaron por medio de la normativa UNE-ISO 1996-2 [12], bajo el mismo concepto planteado en el apéndice anterior. Para el método de predicción se utilizaron mapas de ruido de tráfico rodado, generados por medio del software CadnaA, según el método de RLS-90.

D. Inteligibilidad de la palabra La evaluación de la inteligibilidad de la palabra se realizó según el método de STI (Speech Transmition Index) el cual se ejecutó a su vez de dos modos, el primero por medio del método calculado predictivo de Houtgast y Steeneken [13][14] el cual se basa en valores de T60 y ruido de fondo, generando una matriz donde se evalúa la reducción de índice de modulación de la voz en ciertas frecuencias consideradas (Fm) versus las frecuencias donde la voz humana predomina (Fo).

Fm(KHz): 0.63, 0.8, 1.0, 1.25, 1.6, 2.0, 2.5, 3.15, 4.0, 5.0, 6.3, 8.0, 10.0, 12.5; Fo(Hz): 125, 250, 500, 1000, 2000, 4000 y 8000

La segunda forma para encontrar el valor de STI fue por medio de mediciones realizadas en el interior de cada aula evaluada; donde se colocó un Talkbox NTI en la posición del hablante (profesor), mientras que el sonómetro se ubicó en 12 posiciones distribuidas en la sala de clase, donde luego se realizaría un valor promedio de STI, este proceso se realizó según el módulo de STI-PA incorporado en el sonómetro XL2 [11].

E. Molestia Acústica La valoración de molestia acústica se ejecutó por medio de dos escalas, la primera una numérica que contiene una división de 10 valores, partiendo desde el 1, valor en el cual no molesta en absoluto el ruido de tráfico y 10 lo hace extremadamente; así mismo se realizó la misma evaluación por medio de una escala cualitativa la cual llevó los siguientes niveles: Nada en absoluto, Ligeramente, Medianamente, Mucho y Extremadamente. Todos estos valores se tomaron por medio de una encuesta diseñada según los lineamientos planteados por la normativa ISO/TS

Page 13: SONAC 2014

12

15666 (2003) [15], donde además se solicitó identificar determinadas fuentes de ruido de tipo comunitario, industrial o comercial y de tráfico que puedan ser percibidas por los alumnos en las aulas. La encuesta mencionada se enfocó hacia estudiantes mayores de 13 años.

F. Análisis Estadístico Descriptivo: Todos los valores encontrados se analizaron por medio de gráficas de distribución y el cálculo de los siguientes valores: Media, Intervalo de confianza (Media al 95%), Media recortada al 5%, Mediana, Varianza, Desviación típica, Mínimo, Máximo, Rango, Amplitud Intercuartil, Asimetría y Curtosis.

Inferencial: En primera instancia el estudio estadístico inferencial evalúo la igualdad de valores medios de distintos grupos por medio de un ANOVA, también llamado Análisis de Varianza. Cuando se obtuvo diferencia significativa de valores medios se realizó un agrupamiento de los factores a través del test de Tukey o Scheffe.

Luego se generó un estudio de correlación por medio de pruebas de Chi-cuadrado de Pearson con el fin de encontrar alguna dependencia o independencia entre las variables planteadas en el estudio.

Posteriormente, se generó un modelo de predicción a través de una regresión logística donde el modelo encontrado compara la probabilidad de expresar molestia según las variables independientes.

III. ANÁLISIS DE RESULTADOS

Tras recolectar y organizar todos los datos tomados en la encuesta, encontramos los resultados más relevantes citados a continuación; los cuales se realizaron encuestando a un total de 1169 individuos en las 40 aulas donde se evaluó sus condiciones acústicas; en la tabla 2 se desglosa cada uno de los valores mencionados:

Tabla 2: Tamaño de la muestra según el caso de estudio Nombre del establecimiento educativo

Sector Población

Muestra Proporción Muestra / Población

Antonio José de Sucre

Centro 1120 284 25,4%

Julio Enrique Moreno

Sur 485 225 46,6%

Nacional Nanegalito

Nanegalito 413 229 55,4%

Dr. Arturo Freire

Tababela 406 188 46,3%

Leonardo Maldonado

Puembo 950 243 25,6%

Total 3374 1169 34,6% En la figura 6 se puede destacar que el 95% de las aulas evaluadas presentan valores por encima de 0,6 segundos, que es el valor de T60 recomendado para salas destinadas a la docencia [16][17], así mismo el 88% de las mismas aulas tienen valores de STI menores a 0,6 lo cual se califica como

“regular” desde el punto de vista de inteligibilidad de la palabra, lo cual se puede corroborar en la figura 7.

Figura 2: Distribución poblacional acorde al sector.

Figura 3: Heterogeneidad según el sector de los encuestados.

Figura 4: Porcentaje de la permanencia en los encuestados.

Si se aprecia la figura 5 se puede observar que el ruido de fondo interior encontrado supera en todos los casos los 35dB(A) sugeridos por entidades internacionales para fines educativos [18]; de los cuales el menor nivel medido fue el encontrado en Nanegalito de 40,9dB(A) y el mayor en el sector del Centro Histórico con 55,6dB(A).

Los niveles de ruido medidos y modelados al exterior de las aulas superan el valor sugerido de 55dB(A) [16][17] en la mayoría de los casos, el único establecimiento que cumple con estos estándares es el Colegio Nacional Nanegalito.

Centro 24%

Guamaní 19%

Nanegalito 20%

Puembo 21%

Tababela 16%

Page 14: SONAC 2014

13

Figura 5: Ruido de fondo según el sector de cada instituto educativo.

Figura 6: T60 según al sector de cada instituto educativo.

Figura 7: STI según al sector de cada instituto educativo.

La figura 8 muestra el porcentaje de encuestados que se sienten molestos por el ruido de tráfico en sus aulas de clase, donde podemos sobresaltar que el 77,2% del total de encuestados expresan molestia.

Luego de realizar el análisis de varianza del “ruido de fondo” según el “Sector” se descartó la hipótesis de igualdad de medias.

Figura 8: Valoración subjetiva de la molestia producida por el ruido de tráfico

Para las variables “Género” y “Permanencia” se aceptó la hipótesis. Además se realizó un agrupamiento para la variable “Sector”, según el test de Scheffe. Se puede destacar que los sectores: Tababela, Puembo y Sur presentan niveles medios de ruido de fondo similares.

Tabla 3: Test de Scheffe del ruido de fondo según el sector al cual pertenece cada escuela Sector Aulas Subset for alfa = 0.05

1 2 3

Nanegalito 7 40,9

Tababela 7 48,1

Puembo 8 49,3

Sur 9 50,4

Centro Histórico 9 55,6

Sig. 1,000 0,181 1,000

Asimismo se generó una prueba de Chi-cuadrado de Pearson, donde se acepta la hipótesis de independencia entre las variables de tipo geográfico y demográfico; versus todas aquellas asociadas con la molestia, donde la variable “Sector”, variable de tipo geográfico, rechaza la hipótesis de independencia hacia todas las variables asociadas con la molestia. Finalemente se obtuvo un modelo de regresión logística el cual se despliega en la tabla 4, además en la tabla 5 se detalla las variables descartadas en el modelo planteado.

Tabla 4: Resultados de la regresión logística por medio del método de Wald.

Variables en la ecuación Sector B E.T. Wald gl Sig. Exp

(B) I.C. 95% para

EXP(B) Inf. Sup.

Fdg

Tababela 43,75 4 0,000 Centro Histórico 0,736 0,235 9,81 1 0,002 2,088 1,317 3,308

Sur 0,042 0,225 0,03 1 0,851 1,043 0,672 1,620 Nanegalito -0,452 0,215 4,40 1 0,036 0,636 0,417 0,970 Puembo 0,762 0,246 9,57 1 0,002 2,143 1,322 3,472 Constante 1,015 0,165 37,82 1 0,000 2,760

Page 15: SONAC 2014

14

Tabla 5. Variables descartadas según el modelo planteado. Variables que no están en la ecuación

Puntuación gl Sig.

Paso 1 Variables TRmid 1,133 1 ,287 R. Fondo ,662 1 ,416 STI ,137 1 ,711

Estadísticos globales 2,247 3 ,523

En la figura 9 se muestra un Odds-Ratio, donde podemos encontrar la probabilidad de que la población de estudio perteneciente a cada sector, exprese molestia asociada al ruido.

Figura 9: Probabilidad de expresar molestia según el sector.

IV. CONCLUSIONES

En todas las salas evaluadas el ruido de fondo supera el nivel de 35dB(A) sugerido por estándares internacionales, aun así el caso que presentó menor nivel de ruido de fondo dentro de las aulas fue el Colegio Nacional Nanegalito con un valor promedio de 40,9dB(A), mientras que la institución educativa con mayor nivel sonoro es la Unidad Educativa Mariscal Sucre, localizada en el Centro Histórico de la ciudad con 55,6dB(A).

Todas las aulas analizadas superan el valor óptimo de 0,6 segundos de T60 propuesto por la OMS [18] para lugares predestinados a la docencia; además de ello esta misma entidad sugiere un valor máximo de 1s, que es superado por el 95% del total de los resultados examinados.

Al tener valores de T60 y Ruido de fondo muy alejados de los sugeridos, las consecuencias se ven reflejadas en los valores de STI presentes en las aulas, donde el 88% tienen una calificación de inteligibilidad de la palabra “regular”, es decir el proceso de comunicación verbal no es apto para el aprendizaje. El 77,2% de los encuestados se sienten molestos por presencia de ruido de trafico dentro de sus aulas de clase, de los cuales el 36,65% siente una molestia ligera; el 27,47% mediana; el 11,76% mucha y el 1,20% extrema.

En la tabla 3 se encuentra el test de Scheffe desarrollado en la variable “ruido de fondo” respecto al “sector”, donde se destaca un seccionamiento evidente entre los 5 casos de estudio, de los cuales la primera sección la conforma el colegio ubicado en el sector Nanegalito con una exposición de ruido menor; luego el siguiente grupo está conformado por los colegios ubicados en los siguientes sectores: Tababela, Puembo y Sur; y para finalizar el ubicado en el sector del Centro Histórico, el cual presenta mayor exposición al ruido.

En el odds-ratio de la figura 9 podemos ubicar la relación entre las probabilidades de que la población de estudio perteneciente a cada sector se sienta molesta por efectos de ruido, donde cabe mencionar que las secciones del Centro Histórico y Puembo poseen el mismo valor, en el caso del Sur se tiene una probabilidad de 0.49 respecto a la de Puembo y Centro Histórico; y así mismo en los sectores de Nanegalito con 0,3 y Tababela con 0,47.

RECONOCIMIENTO

Los autores desean expresar su agradecimiento a la Secretaría de Ambiente que financió el estudio, a Miguel Chávez, Christiam Garzón, y a todas las autoridades y alumnos de las escuelas en las que se realizó el trabajo.

REFERENCIAS

[1] Balarezo D. (2012) Procesos psicoacústicos aplicados a la estimulación del proceso cognitivo de la atención en niños de 5 años. SONAC Magazine [Internet]. [cited 2014 Sep 23], vol. 3, pp 63-70. Available from: http://issuu.com/lubrabrito/docs/revista_sonac_2012 . [2] Matheson, M., Clark, C., Martin, R., van Kempen, E., Haines, M., Barrio, I.L., Hygge, S. & Stansfeld, S. (2010) The effects of road traffic and aircraft noise exposure on children's episodic memory: The RANCH Project. Noise Health, vol. 12, 244-254. [3] Shield, B.M. & Dockrell, J.E. (2003) The effects of noise on children at school: A review. J Building Acoustics, 10(2), pp 97-106. [4] Crandell, C. & Samaldino J. (2000) Classroom Acoustics for Children With Normal Hearing and Whit Hearing Impairment, Vol 31, pp 362-370. [5] Haines, M.M., Stansfeld, S.A., Job, R.S.F. & Berglund, B. (2001) A follow-up study of effects of chronic aircraft noise exposure on child stress responses and cognition. Int. J. Epidemiol,30(4), pp 839-845. [6] Haines, M.M., Stansfeld, S.A., Job, R.S.F. & Berglund, B. (2001) Chronic aircraft noise exposure, stress responses, mental health and cognitive performance in school children. Psychol Med, vol.31, pp. 265–277. [7] Ouis, D. (2001) Annoyance from road traffic noise: A Review. Journal of Environmental Psychology, Lund, Vol. 21, pp 101-120. [8] Miedema M.E. & Oudshoorn G.M. (2001) Annoyance from transportation noise: Relationships with exposure

Page 16: SONAC 2014

15

metrics DNL and DENL and their confidence intervals. Environ Health Perspect, 109(4), pp 409-416. [9] Chávez M. (2012) Gestión sobre ruido ambiental en el Distrito Metropolitano de Quito, Ecuador. SONAC Magazine [Internet]. [cited 2014 Sep 23], vol. 3, pp 107-115. Available from: http://issuu.com/lubrabrito/docs/revista_sonac_2012 . [10] UNE-EN ISO 3382-2. (2008) Acústica – Medición de parámetros acústicos en recintos – Parte 2: Tiempo de reverberación en recintos ordinarios. [11] NTI Audio. (2013) XL2 Operating Manual. Switzerland. NTI Audio. [12] ISO 1996-2. (2007) Acoustics - Description, measurement and assessment of environmental noise - Part 2: Determination of environmental noise levels. [13] Higini, A., (1999) ABC de la Acústica Arquitectónica, 1ra Ed., Ceac Editora, Madrid. [14] IEC 60268-16. (2011) Sound system equipment – Part 16: Objective rating of speech intelligibility by speech transmission index.. [15] ISO/TS 15666:2003-02. (2003) Acoustics - Assessment of noise annoyance by means of social and socio-acoustic surveys. [16] BB93. (2003) Regulatory framework for the acoustic design of the schools in support of the Building Regulations. [17] ANSI/ASA S12.60. (2010) Performance criteria, Desing Requierments, and Guidelines for Schools – Part 1: Permanent Schools. [18]OMS. (1980) Criterios de Salud Ambiental – Ruido, Ginebra

Page 17: SONAC 2014

16

EVALUACIÓN DEL IMPACTO ACÚSTICO GENERADO AL INTERIOR DE LOS BUSES DEL

SISTEMA INTEGRADO DE TRANSPORTE PÚBLICO ECOVÍA DEL DISTRITO

METROPOLITANO DE QUITO

DENNYS ALEJANDRO GRANIZO VALLEJOUniversidad de las Américas, Ecuador, Quito.

[email protected]

RESUMEN: El presente estudio está enfocado a la evaluación de los niveles de ruido generados al interior de los buses articulados del sistema de transporte Ecovía, del Distrito Metropolitano de Quito. La metodología desarrollada propone mediciones bajo condiciones controladas que permitan evaluar objetivamente el ruido dentro de los autobuses y conseguir una representación real de los niveles a los que se exponen chofer y pasajeros. Se evaluaron un total de 11 buses, 1 bajo condiciones controladas y 10 en la ruta de operación normal. Para el análisis de los resultados obtenidos se utilizaron las siguientes normativas: Decreto 2393 (Ecuador), Real Decreto 286/2009 (España), Decreto 129 (Chile), NHO-1-1999 (Brasil), NR-15 y NR-17 (Brasil). Con la metodología propuesta, se lograron obtener valores muy representativos a los generados en ruta normal, con niveles que superan ciertos criterios de las normativas consideradas como el nivel de exposición diaria, confort acústico laboral, ruido interior en vehículos articulados entre otros.

Palabras claves: Ruido, buses, exposición al ruido, buses articulados, Quito.

I. INTRODUCCIÓN Es evidente que una gran cantidad de habitantes del Distrito Metropolitano de Quito (DMQ) utiliza a diario los sistemas de transporte público como alternativa de movilización. Ya sea porque no poseen vehículo propio, por ahorrar dinero, por la dificultad de encontrar estacionamientos, por restricción vehicular, entre otros.

La Organización Mundial de la Salud (OMS) estima que alrededor de 278 millones de personas en el mundo tienen problemas auditivos permanentes y aproximadamente 500 millones de personas son afectadas por altos niveles de ruido. Por lo tanto se ha estimado que el 80% de la incomodidad sonora es proveniente de vehículos motorizados y tráfico rodado [10] (OMS, 1999). Estudios más recientes confirman estas cifras además de comprobar la pérdida de 1 millón de vidas “saludables” por causa del ruido de tráfico. (OMS, 2011).

Como se ve, la razón del enfoque en el tema es debida a la operación de buses en áreas urbanas se ha tornado en una actividad estresante y poco saludable. En consecuencia, las personas expuestas a dichos niveles pueden sufrir trastornos como desplazamientos del umbral auditivo, incremento de pulso/presión arterial, fatiga mental, nerviosismo, frustración, desconcentración, bajo desempeño laboral y conflictos sociales. [2](Ewans y Johansoon, 1988, pp. 99 -108).

Figura 1. Evaluación de niveles de ruido en buses Ecovía.

Dada la carencia de normativas y ordenanzas en nuestro país, no es posible fundamentar un estudio con contextos de nuestra realidad. Por lo tanto, la interrogante es identificar qué sucede con los niveles de ruido en la presente investigación y cuál es el impacto que el ruido genera.

El presente estudio esta enfocado a determinar los niveles de ruido a los que se encuentran expuestos pasajeros y choferes al interior de las unidades de transporte. Dicha exposición se ve agravada por factores como: estado de los vehículos, calzada irregular, pasajeros, tiempo de exposición, etc. Sin embargo, el estudio considera una evaluación bajo condiciones controladas e ideales como veremos detallado mas adelante en el desarrollo de la metodología.

Page 18: SONAC 2014

17

Investigaciones similares realizadas por el Doctor Paulo Zannin (2003) [14] (Laboratorio de acústica ambiental, Universidad Federal de Paraná) señalan que las causas determinantes en la producción de ruido son: el año de fabricación del vehículo y ubicación del motor. Además se logran identificar niveles de exposición diaria (en choferes) que varían entre 73,8 - 79 dBA. En otros estudios de Zannin (2006) [13] proyecta niveles de exposición diaria de 77 -79,6 dBA.

Al aplicar la metodología desarrollada en el presente estudio, se logra reproducir el comportamiento de los resultados obtenidos en estudios previos y las mediciones en la ruta de operación normal. Es decir los valores de exposición diaria fueron similares a los presentados anteriormente.

Adicionalmente se realizaron evaluaciones complementarias que involucran el uso del sistema de megafonía, dosis diaria, análisis espectral, interferencia de la palabra y una estimación de la reacción de la comunidad.

II. METODOLOGÍA

El desarrollo de la metodología propuesta está basada en las siguientes normativas:

• ISO 362 - Medida del ruido emitido por aceleraciónde vehículos.

• ISO 5130 – Medida del nivel de presión sonoraemitido por vehículos en estado estacionario.

• ISO 5128 - Medida del ruido dentro de vehículos amotor.

• Decreto 129 (Chile) – Norma de emisión de ruidospara buses de locomoción colectiva urbana y rural.

Para poder proceder con las mediciones bajo condiciones controladas se deben cumplir con una serie de requerimientos planteados a partir de las normativas mencionadas. Entre éstos se pueden mencionar: características y cantidades de medida del instrumento de medición, posiciones del micrófono, condiciones climáticas, condiciones del vehículo y lugar de ensayo.

Asimismo, se plantean dos tipos de ensayos: Ensayo Dinámico (vehículo en movimiento) y Ensayo Estacionario (vehículo detenido).

A. Procedimiento El lugar de ensayo seleccionado debe cumplir con los requerimientos de la metodología y de las normativas que lo sustentan. Es decir, el sonido emitido por el vehículo hacia el exterior debe contribuir con el ruido interno, solamente por reflexiones de la superficie de la pista y no por reflexiones de edificios, paredes o cualquier obstáculo similar. Para ellos se recomienda mantener un radio de aproximadamente 20 metros de distancia con superficies grandes y/o reflectantes, que la superficie sea llana y

pavimentada, libre de polvo, piedras o cualquier elemento que absorba o genere sonido.

Por lo tanto el lugar de ensayo seleccionado fue la pista del ex-aeropuerto Mariscal Sucre, actual parque Bicentenario, por cumplir con todos los requerimientos de la metodología propuesta, lugar en el que se desarrollaron los dos tipos de ensayos, estacionario y dinámico, los que se puntualizan mas adelante

Los puntos de medición así como alturas y distancias fueron seleccionados de modo que la distribución del sonido al interior se vea representada adecuadamente en función al chofer y pasajeros. Como se muestra en la figura 2, el primer punto corresponde a la ubicación del chofer, situado a 70 cm sobre el asiento del conductor. El segundo punto situado en la mitad del bus articulado a 1.50 m de altura, mientras que el punto 3, se ubica en la parte trasera de todo el vehículo, también a 1.50 m de altura.

Figura 2. Puntos de medición

El sonómetro utilizado fue un Quest SoundPro SE/DL el que fue configurado con filtro de ponderación de frecuencias “A” y respuesta temporal “Fast”, además de ser calibrado según la metodología o como lo indica el Standard Internacional para Sonómetros (IEC 61672(. Las cantidades de medida consideradas son: Lmax (NPS máximo), Lmin (NPS mínimo) y Leq (NPS equivalente)

La metodología también sugiere tener condiciones climáticas ideales, por lo tanto no deben existir condiciones meteorológicas desfavorables como precipitaciones o cualquier disturbio climático que influyan en la medición.

Las condiciones del vehículo también son importantes por lo que se debe tomar en cuenta lo siguiente:

El vehículo debe estar en condiciones de operación tales que el motor mantenga una temperatura de uso normal.

Toda apertura como escapes de aire, ventanas o puertas deben estar cerradas a menos que los ruidos generados por éstos sean motivo de estudio.

Para vehículos de uso público con más de ocho asientos, no deben haber más de tres personas durante el ensayo. Solamente equipos del vehículo, instrumentos de medición y personal necesario.

Page 19: SONAC 2014

18

1) Ensayo Estacionario: Se evalúan cuatro eventos

• Ruido de Fondo• Ruido de motor en Ralentí• Ruido de puertas con vehículo en Ralentí• Ruido de puertas con vehículo Apagado

El ruido de fondo y ralentí se mide en las mismas posiciones en las que se medirán los niveles de presión sonora (dBA) emitidos por el autobús, y se obtiene con una medición de un minuto de duración en donde el valor registrado es LAmax. Se realizaron 3 registros para cada caso.

Para evaluar el ruido de puertas se procede a medir aperturas y cierres de puertas para los dos casos, vehículo apagado y en ralentí, de la siguiente manera:

Se realizan tres registros, en los cuales se ejecutan dos ciclos de apertura y cierre, de acuerdo al siguiente proceso:

a) Apertura de puertasb) Pausa de 6 segundosc) Cierre de puertasd) Pausa de 10 segundose) Apertura de puertasf) Pausa de 6 segundosg) Cierre de puertas

Se registran dos aperturas y dos cierres en cada medición, en total se obtienen seis (6) aperturas y seis (6) cierres.

Es importante conocer que los puntos de medición 2 y 3 se encuentran ubicados cerca de las puertas. En especial el punto 3 que prácticamente se sitúa a lado de la ultima puerta mientras el punto 2 mantiene una distancia aproximada de 2 metros.

Hay mencionar, que las mediciones del ensayo estacionario fueron realizadas en orden estipulado para cada uno de los tres puntos de medición (ruido de fondo, motor en ralentí, puertas von vehículo apagado y puertas con vehículo ralentí). Es decir se realizó todo el ensayo estacionario en el punto 1, después en el punto 2 y finalmente en el punto 3.

2) Ensayo Dinámico: Se realizó un simulacro de 5paradas (estaciones), para ello se dividió la pista en cinco partes con una distancia de 200 metros entre cada cono, distancia que permite alcanzar los 50 km/h, que es la velocidad a la cual se encuentran regulados los buses articulados Ecovía.

Figura 3. Paradas del ensayo dinámico

El conductor opera el vehículo simulando cada una de las cinco paradas en donde se registran los siguientes eventos:

• Frenado• Apertura de puertas• Cierre de puertas• Aceleración• Desplazamiento

Durante el ensayo dinámico se registraron los tiempos en los que ocurren los diferentes eventos, para poder identificarlos posteriormente en el análisis temporal de los niveles.

Cada una de los eventos mencionados en el ensayo dinámico también es realizado de manera independiente para cada uno de los tres puntos de medición seleccionados.

La metodología desarrollada establece el uso de un solo instrumento de medición, de ahí el planteamiento de mediciones independientes por cada punto. Sin embargo, si es que se puede disponer de 3 sonómetros, las mediciones se pueden realizar simultáneamente sin problema alguno.

Como ya se dijo, las cantidades de medida consideradas son LAmax, LAmin, LeqA, las cuales son registradas en el sonómetro para posteriormente ser analizadas y promediadas en conjunto con todas la muestras independientemente para cada evento y puntos de medición.

B. Mediciones Comparativas Con la finalidad de comprobar la certidumbre de la metodología desarrollada, se proceden a realizar una serie de mediciones extras solamente con fines comparativos.

1) Megafonía: Se decidió realizar medicionesadicionales para determinar el nivel que aportael sistema de megafonía para anuncios delautobús. Se evaluaron los tres anuncios derutina que se realizan en operación normal:Saludos inicial, anuncio siguiente parada yanuncio cierre de puertas.

2) Mediciones en Ruta con gente: Se realizaron 10mediciones, las que se cumplieron en una rutade circulación normal de la Ecovía. Los busesfueron seleccionados aleatoriamente, losmismos que recorrieron exactamente la mismadistancia. La ruta seleccionada consta desde queel bus parte de la primera estación (Rio Coca),hasta alcanzar las tres paradas siguientes dedonde se obtuvo un registro continuo deaproximadamente 7 minutos. Cada recorrido serealizó bajo condiciones de flujo de pasajeroscontrolada, es decir, se limitó la cantidad depasajeros presentes en cada vehículo aaproximadamente 42 (sentados). Lasmediciones fueron realizadas únicamente en elprimer punto de medición (chofer).

Page 20: SONAC 2014

19

3) Percepción de molestia en los Pasajeros: Laúnica manera de conocer el nivel de molestiapercibido por los pasajeros es medianteentrevistas personales o encuestas. Debido a lagran cantidad de personas que utilizan laEcovía, el universo de estudio se centra en los10 vehículos utilizados para el ensayo congente. Donde se consideraron solo las personasque van sentadas, en total 420 pasajeros. Apartir del cual se calcula una muestra de 120para un nivel de confianza del 99% y un errorde estimación del 10%. Por lo tanto, lasencuestas realizadas fueron enfocadas a 120personas que utilizaron los vehículosmencionados.

III. RESULTADOS

Posterior a la recolección de datos, se procedió a la tabulación de los valores, para después ser analizados. En primera instancia la revisión de registros se lo realizó mediante el software QuestSuite Pro, para luego exportarlos a Microsoft Excel, en donde serían procesados y analizados.

El análisis estadístico se realizó para cada una de las muestras de todos los eventos, las cuales se consideraron en su totalidad siendo unificadas mediante un promedio aritmético. El margen de error viene determinado por la desviación estándar del conjunto de muestras, a partir de las cuales se determina la variabilidad de cada nivel y vienen representadas por las líneas verticales como se muestra en la figura 4.

En total se registraron 43 mediciones bajo condiciones controladas (ensayo dinámico y estacionario). Gracias a que las condiciones fueron ideales y los tiempos de medida fueron estrictamente controlados, cada muestra registrada en un evento especifico, por ejemplo Apertura de puertas, posee el mismo tiempo de ocurrencia (6 muestras), por lo que fue fácil tabular los resultados en función del tiempo y nivel, para posteriormente realizar el promedio aritmético y desviación estándar de todas las muestras.

Para el ensayo estacionario, se observa en la tabla 1, los niveles de presión sonora máximos generados por cada

evento en cada punto de medición. Es notorio que los niveles con mayor amplitud se obtienen en el punto 3, con excepción del ruido de fondo y ralentí en donde se producen los niveles más bajos.

Tabla 1. Comparación de los niveles máximos generados en el Ensayo Estacionario. (Ralentí R*)

Evento (dBA) (dBA) (dBA) Punto1 Punto2 Punto3

Ruido de fondo 29,0 34,8 29,2 Ralentí 66,0 65,5 61,7

Apertura de puertas 81,4 88,0 91,8 Cierre de puertas 76,9 86,6 92,2

Apertura de puertas (R*) 82,7 89,4 92,9 Cierre de puertas (R*) 87,5 88,3 95,1

En base a los resultados, se pueden identificar claramente las fuentes generadoras de ruido para cada circunstancia, por ejemplo, para el punto 1 y 2 se puede identificar el ruido de motor (ubicado en la mitad del vehículo), ventilador de motor en la parte frontal del panel de control y las puertas. Mientras que para el punto 3, el ruido de motor no influye significativamente y la fuente mas cercana es la puerta trasera.

De la misma manera, en la tabla 2 se muestran los niveles de presión sonora máximos generados por cada evento durante el ensayo dinámico para los tres puntos de medición. Se pueden observar que los niveles con mayor amplitud son los producidos por la apertura y cierre de puertas, en el caso de los puntos 2 y 3. El punto 1 mantiene niveles relativamente similares entre todos los eventos, puesto que el ruido del motor es registrado desde más cerca.

Tabla 2. Comparación de los niveles máximos generados en el Ensayo Dinámico

Evento Punto1 (dBA)

Punto2 (dBA)

Punto3 (dBA)

Desplazamiento 82,9 78,8 77,5 Frenado 75,0 72,2 67,1

Apertura de puertas 82,0 89,6 93,0

Figura 4. Desviación estandar o margen de error del prmedio aritmetico de muestras para Apretura de puertas en el Punto 3

Figura 5. Comparación de NPS en ralentí para los tres puntos de medición

Page 21: SONAC 2014

20

Cierre de puertas 87,8 94,2 90,7 Aceleración 84,0 79,4 76,8

Las gráficas generadas a partir de los registros para cada evento son muy claros y permiten diferenciar claramente su comportamiento. A continuación se muestra la figura correspondiente al promedio de las cinco muestras para cada evento respectivamente.

Figura 6. Promedio de los niveles registrados durante el ensayo Dinámico, Punto 1. (Cinco muestras promediadas por evento)

La metodología permite registrar cada uno de los eventos de manera clara y sin diferencias significativas, por ejemplo, previo al promedio realizado en el análisis, es posible observar las gráficas e identificar cada una de las muestras registras.

Los niveles de exposición diaria fueron analizados en función de los niveles equivalentes, correspondientes a cada evento. El presente análisis solo puede ser desarrollado utilizando los registros del ensayo dinámico; el que solo tiene sentido realizarlo en el lugar del chofer que es el que se expone al ruido del bus durante toda la jornada de trabajo, los niveles calculados para los puntos 2 y 3 son solo de referencia.

La figura 8 muestra los niveles de exposición diaria calculados para cada punto. Además en el punto 1 se añaden los resultados de las exposiciones calculadas correspondientes a las mediciones extras con fines comparativos: con sistema de megafonía en funcionamiento y medición en ruta con gente. Como se puede observar los niveles en el punto 1 son similares entre si.

Es importante conocer que el cálculo de la exposición diaria normalizada a 8 horas, se la realizó en función de la siguiente ecuación:

𝐿𝐴𝑒𝑞,𝑑 = 𝐿𝐴𝑒𝑞,𝑇 + 10𝑙𝑜𝑔𝑇8

Donde: LAeq,T = Nivel de exposición acumulado (ensayo) T = Tiempo de trabajo efectivo de una jornada laboral

A partir de esto se estimó un T de 6 horas de trabajo efectivo, es decir sin considerar horas de almuerzo, descanso, cambio de turno y cambio de ruta en el día laborable del conductor obteniendo un LAeq de 79,2 dBA. Figura 7. Una estimación un tanto generosa, sin embargo, al considerar un T de 7 horas, el nivel de exposición diaria remonta hasta los 80 dBA.

Figura 8. Niveles de exposición diaria (dBA), Extra (megafonía) ,Ensayo con gente.

El nivel de exposición sonora calculado no supera el criterio de los 85 dBA adoptado por las normativas reguladoras brasileñas NR-15 y NOH-01, y el Decreto 2393 del Ecuador. Dichos criterios califican como aceptable una exposición continua a los niveles obtenidos. De la misma manera la dosis de ruido calculada es baja y no se consideran acciones requeridas.

Por otro lado, el Real Decreto 286 dispone los 80 dBA como valor mínimo de exposición, para dar lugar a una acción. De manera que, el nivel de exposición obtenido en el cálculo anterior se puede tomar en cuenta para empezar a tomar acciones.

De la misma manera, los conductores se encuentran sometidos a niveles de exposición sonora sobre los 65 y 70 dBA durante largos períodos de tiempo, lo cual, según la legislación NR-17 (Brasil) y el Decreto 2393 (Ecuador), se consideran inaceptables para una actividad que demanda concentración, y por lo tanto se lo califica como un ambiente laboral no confortable.

Si se comparan los límites estipulados por el Decreto 129 de Chile, los niveles máximos instantáneos generados al

Figura 7. Comparación de muestras de apertura de puertas, sin promediar

Page 22: SONAC 2014

21

interior de los buses, durante un ensayo estacionario, no pueden superar los 85 dBA. Criterio que se lo supera la mayor parte del tiempo si se consideran los niveles emitidos por el ruido de las puertas, los que van desde los 86 dBA hasta 93 dBA.

Así mismo, durante el ensayo dinámico se fija como límite máximo los 81 dBA, donde se producen niveles que oscilan entre los 83 y 84 dBA correspondientes al ruido del motor (aceleración y desplazamiento), es decir, se incumple el criterio.

Conjuntamente al análisis, se calcularon las distancias efectivas de conversación en función al SIL (nivel de interferencia de la palabra) y los Leq calculados. Los cálculos pertenecen a los puntos de medición 2 y 3, correspondientes a la ubicación de los pasajeros. Los resultados indican que en la mayoría de los casos, es necesario hablar fuerte y muy fuerte para mantener distancias cómodas al momento de una conversación. Los desempeños vocales vienen dados por una constante K que permite estimar los diferente radios. A continuación se muestra un ejemplo de los resultados obtenidos para el punto 2.

Tabla 3. Comparación de distancias calculadas para los desempeños vocales K, Hombres, Punto 2, Dinámico.

VOZ (K) NORMAL ELEVADA FUERTE MUY FUERTE

Motor 17,8 cm 35,5 cm 70,8 cm 126 cm Apertura de Puertas 7 cm 14 cm 28 cm 50 cm

Cierre de puertas 5 cm 10 cm 20 cm 35,5 cm

Finalmente, la molestia generada en los pasajeros se obtiene mediante una encuesta focalizada a la molestia que percibe el usuario ante diferentes ruidos identificados: motor, puertas, gente y ruido exterior. Los resultados muestran una orientación de “extremadamente molesto” hacia el ruido generado por la misma gente (43,5 % de los encuestados), puesto que esto viene acompañado de un sin número de factores influyentes y tan variables como: vendedores ambulantes, horas pico, celulares, música, peleas, entre otros. En segunda instancia, se encuentra el ruido generado por las puertas, que, según la encuesta, se lo califica como “medianamente molesto a muy molesto” (34,8% de los encuestados). Aquí se evidencia que a pesar de que el ruido de puertas produce niveles instantáneos considerables, la repetitividad de los eventos los hace menos influyente, y en cierto modo, la gente termina acostumbrándose a este ruido.

El ruido generado por el exterior y el motor, no presenta mayor influencia sobre los pasajeros, puesto que los resultados proyectan que no se consideran molestias o en algunos casos poca molesta.

III. CONCLUSIONES Y RECOMENDACIONES

Los resultados obtenidos son lo suficientemente claros y concisos como para describir un comportamiento y una correspondencia entre la producción de ruido y el impacto acústico dentro de la Ecovía.

Resulta interesante ver cómo el análisis independiente de cada evento puede recopilarse, para generar una representación general del comportamiento acústico del vehículo, aproximándose bastante a la información obtenida en un recorrido real. Exposición diaria controlada de 79,2 dBA y exposición diaria con gente de 78 dBA

Los niveles de exposición diaria obtenidos se encuentran por debajo de los 85 dBA, sin embargo, un nivel de exposición diaria de 80 dBA, ya considera acciones e información necesaria para el control de niveles excesivos sobre los conductores.

Los conductores se encuentran sometidos a niveles de exposición sonora sobre los 65 y 70 dBA durante largos períodos de tiempo, lo cual, según la legislación NR-17 (Brasil) y el Decreto 2393 (Ecuador), se consideran inaceptables para una actividad que demanda concentración, y por lo tanto se lo califica como un ambiente laboral no confortable.

Estudios anteriores han demostrado que se pueden obtener valores similares si se realiza la medición durante: las 8 horas de trabajo, todo un recorrido, cinco minutos de recorrido y finalmente, en el presente trabajo, utilizó un ensayo dinámico de aproximadamente tres minutos.

Es importante recalcar que los niveles de exposición diaria obtenidos son muy similares a los presentados en estudios anteriores, como los realizados en [14]Curitiba, Brasil, donde el Dr. Paulo Zannin obtuvo niveles entre 73,8 y 79 dBA, para buses bi-articulados, mientras que posteriores estudios publican valores entre 77 y 79,6 dBA para buses articulados.

Figura 9. Molestia percibida por el ruido que genera la gente

Page 23: SONAC 2014

22

Los resultados confirman que la fuente generadora de los niveles más altos de ruido, para el chofer, es el motor; considerando una exposición normalizada a 8 horas de trabajo. Sin embargo, las puertas y sus rampas son capaces de generar niveles instantáneos superiores a los ruidos del motor que pueden producir daños en determinado plazo.

El chofer podría exponerse a menores niveles de ruido si tan solo se realizara el control de ruido sobre el ventilador ubicado en el panel de control, sin embargo es necesario un estudio puntual sobre dicha fuente de ruido que ayude a precisar el problema y el tipo solución.

Se recomienda tomar medidas para que las puertas puedan mantener un desempeño correcto, es decir, que las válvulas de éstas, funcionen de manera óptima, con la regulación de aire correcta y con sus silenciadores instalados.

Finalmente, se puede corroborar que la metodología planteada es válida y permite conocer el comportamiento del ruido con sus respectivas fuentes. Sin embargo no se garantiza que la metodología proporcione semejante fidelidad en todos los casos, puesto que se analizó un solo vehículo de un solo tipo (articulado).

RECONOCIMIENTO

A la Empresa de Transporte Publico de Quito y su Gerente el Ing. Carlos Poveda por permitir el desarrollo de la investigación .

A Miguel Ángel Chávez por su interés y aporte al proyecto.

REFERENCIAS

1) Carrión, A. (1998). Diseño Acústico de espaciosArquitectónicos. Barcelona, España: UniversidadPolitécnica de Catalunya.

2) Ewans, GW. y Johansoon, G. (1998).Urban busdriving: an international area for the study ofoccupational health psychology. J Occup HealthPsych.

3) Fernández, JM. (2013). Neumática Básica.Recuperado el 3 de Marzo de 2013 dehttp://www.euskalnet.net/j.m.f.b./neunatica.htm

4) Harris, C. (1995). Manual de Medidas Acústicas yControl de Ruido. España: Mc Graw Hill.

5) Miyara, F. (1999). Control de Ruido. Rosario,Argentina: Universidad Nacional de Rosario.

6) Miyara, F. (2006). Acústica y Sistemas de Sonido.Rosario, Argentina: Universidad Nacional deRosario

7) Nadri, F., Monazzam, MR., Khanjani, N., Ghotbi,MR., Rajabizade, A. y Nadri H. (2011). AnInvetigation on Occupational Noise Exposure inKerman Metropolitan Bus Drivers. Int j Oc Hyg.Kerman. Iran.

8) OMS Organización Mundial Para la Salud, (2000).Transporte, ambiente y salud. Copenhague.

9) OMS Organización Mundial Para la Salud, (2011).Burden of disease from environmental noise.

10) OMS Organización Mundial Para la Salud, (1999),“Guidelines for community noise”, Ginebra.

11) Portela, BS. y Zannin PHT. (2010). Analysis offactors that influence noise levels inside urbanbuses. J Sci Ind Res; 2010 69:684-7

12) Randall, F. Barron, Ruston, Louisiana, U.S.A(2001) - Lazarus (1987)

13) Zannin, PHT. (2006). Ocupational noise in urbanbuses. Intl J Ind Ergon, 36 2006 901 – 905.Curitiba. Brazil.

14) Zannin, PHT., Diniz, FB., Giovanini, C., Ferreira,JAC. (2003). Interior noise profiles of buses inCuritiba. Transportation Research Part D 2003 8:243-7.

Page 24: SONAC 2014

23

DESARROLLO DE UN SOFTWARE DE PROCESAMIENTO PARA OBTENER SEÑALES

DE AUDIO BINAURALES A PARTIR DE SEÑALES DE AUDIO MONOFÓNICAS.

JUAN ANTONIO LEÓN BUITRÓN Universidad de las Américas, Ecuador, Quito.

[email protected]

RESUMEN: Se desarrolló un prototipo de software de procesamiento digital de señales en lenguaje de programación MAX/MSP que permite al usuario controlar la posición, alrededor de sí mismo, de una fuente sonora monofónica de entrada. Mediante su convolución con un conjunto de Funciones de Transferencia Relativas a la Cabeza (HRFT) es posible obtener una señal estéreo y binaural en su salida, considerando de ésta manera los fenómenos psicoacústicos presentes en la audición humana y necesarios para la localización espacial de fuentes. Finalmente se realiza una evaluación del procesamiento del software mediante análisis espectral.

Palabras claves: binaural, software, psicoacústica, localización de fuentes.

I. INTRODUCCIÓN

La psicoacústica es el campo de la acústica encargado del estudio de la audición y la percepción sonora, así como la estructura y funcionamiento de los mecanismos involucrados en dicho fenómeno. Debido a la ubicación de los oídos en ambos lados de la cabeza (su separación y posición en la misma) y el obstáculo que representa para la onda sonora el cuerpo y la cabeza en la transmisión de ésta (entre la fuente y el tímpano) es posible la localización de fuentes sonoras en el espacio. Esto gracias a claves temporales y espectrales que son introducidas durante la transmisión de las ondas sonoras.

Dichas claves permiten la localización de sonidos en las tres dimensiones (o planos). Diferencias de Tiempo y Nivel Interaural (ITD y ILD respectivamente) representan las claves principales para localización en el plano horizontal (también referido como acimut), así como cambios espectrales debido a cancelaciones, sombras acústicas, reflexiones y difracción causados por el pabellón auditivo, la cabeza y el torso permiten localización en el plano vertical (o elevación). Información generada por la interacción de las ondas sonoras y el entorno donde han sido producidas entregan las claves necesarias para la localización en el plano de la distancia (rango). Los planos con respecto al oyente se muestran en la figura 1, donde acimut, elevación y

rango son descritos como azimuth, elevation y distance.

Figura 1. Esquema de percepción psicoacústica de fuentes sonoras o escucha binaural. Tomado de Begault, 2000, p. 3.

Estas claves han sido planteadas dentro de varios estudios a lo largo de décadas, llegando a ser aceptadas como las principales para la localización de fuentes sonoras, a pesar de no haber llegado a ser totalmente comprendidas. La imposibilidad de cuantificar su eficacia en la localización demuestra la complejidad de la audición al involucrar fenómenos perceptivos y cognitivos.

La onda que llega al oyente y contiene la información espectral y temporal necesaria para su localización puede ser caracterizada completamente como una Función de Transferencia Relativa a la Cabeza (HRTF), es decir, funciones únicas que “entregan una descripción completa de la transmisión sonora” (Moller, 1992) y representan la relación entre el sonido producido por la fuente y el sonido que llega al oyente. Por lo tanto, dependerán de la ubicación de la fuente con respecto al oyente, siendo únicos para cada posición y para cada oído de cada individuo para el cual hayan sido obtenidos, idealmente mediante un proceso de grabación controlado y realizado en cámara anecoica. Debido a que la transmisión no solo depende de la posición

Page 25: SONAC 2014

24

relativa de la fuente al oyente, pero también de los aspectos anatómicos del mismo para el cual han sido obtenidas dichas funciones, tanto la audición como las HRTF que pueden caracterizarla, son altamente personales.

Figura 2. HRTF de un individuo para cuatro posiciones distintas de la fuente. Tomado de Everest, 2007, p. 102.

El ejemplo de la figura 2 muestra las funciones de transferencia obtenidas para un mismo individuo en cuatro posiciones distintas. Tomadas para una misma posición de elevación, se evidencia la diferencia en la respuesta de frecuencia entre las HRTF obtenidas para el centro (0º), izquierda (90º), detrás (180º) derecha (270º) con respecto al oyente.

Es posible emplear las Respuestas al Impulso Relativas a la Cabeza (conocidas como HRIR y equivalentes temporales de las HRTF) superpuestas mediante convolución en el dominio del tiempo con una señal monofónica para obtener señales estereofónicas y binaurales. Este proceso se denomina síntesis binaural o síntesis de sonido 3D, donde los sonidos de entrada deberán ser procesados con una función o impulso tanto para el canal izquierdo y como para el derecho de forma independiente, ya que las claves contenidas en las mismas varían entre ambos oídos para una misma posición. No existe un procedimiento estandarizado para la medición de HRTF. La forma más empleada involucra ubicar los micrófonos de medición en la entrada del canal auditivo bloqueado del individuo. Esto debido a que a partir de dicho punto, la transmisión es unidimensional, es decir, que las claves de localización son específicas para cada individuo y no dependientes de la posición de la fuente. Para éste propósito, la reproducción resulta ideal mediante audífonos. Las salida binaural será apreciada únicamente cuando es entregada por separado para ambos oídos.

Por lo tanto, como objetivos del proyecto se plantea:

• Determinar el tipo de análisis de los parámetrosde una señal de audio monofónica con el fin deestablecer las propiedades y de qué manera estosserán manipulados.

• Desarrollar un prototipo de software deprocesamiento de señales que considerefenómenos psicoacústicos propios de la audición

que influyen en el timbre del sonido percibido. • Realizar una comparación de espectro de señales

procesadas con el software prototipo para laevaluación del procesamiento realizado.

II. METODOLOGÍAA. Desarrollo de Software.

El software desarrollado es un prototipo de procesador capaz de transformar señales de entrada monofónicas en señales de salida binaurales, desarrollado en el software MAX/MSP 5, un entorno de programación enfocado al audio y video de carácter modular, donde objetos y mensajes se interconectan entre sí para crear cadenas de procesamiento de señales digitales. El prototipo presenta una interfaz gráfica clara y ordenada, sin la necesidad de exponer las interconexiones y mostrando únicamente los objetos necesarios con el fin de que resulte más amigable para el usuario operador. La interfaz gráfica de usuario se muestra en la figura 3.

Figura 3. Interfaz gráfica del software desarrollado para obtener señales binaurales a partir de señales monofónicas.

El usuario es capaz de ubicar a una señal monofónica, mediante síntesis 3D, en una semiesfera alrededor de su cabeza por medio de la convolución con un conjunto seleccionable de HRIR de cinco individuos distintos. Para la reproducción de la señal resultante, deberá emplearse un par de audífonos, con el fin de mantener separados los canales, necesario para la percepción binaural.

Tanto las muestras de HRIR, como objetos externos de MAX/MSP empleados en el procesador y las muestras de que se incluyen como ejemplos de señales de entrada, han sido tomadas de librerías de proyectos que permiten su libre empleo en proyectos no comerciales.

El software se divide en 5 partes para una mejor comprensión del procesamiento realizado.

1) Sección de Entrada:Permite seleccionar la señal de entrada monofónica que se asume se encuentra al centro, directamente frente al oyente

Page 26: SONAC 2014

25

y que será procesada para poder ser ubicada en una semiesfera a su alrededor. Idealmente, se deberá emplear una muestra de audio obtenida en cámara anecoica, por lo que se han incluido siete muestras que cumplen con dicha condición, tomadas de la librería OpenAIR (Audiolab, University Of York, 2009). Sin embargo, es posible el uso de cualquier archivo de audio almacenado en el computador como señal de entrada monofónica. En el caso de cargar una archivo de audio estereofónico, el software considera únicamente al canal izquierdo del mismo como fuente de entrada.

2) Sección de Posición:Se selecciona la posición en el espacio en la que se desea ubicar a la fuente de entrada asignando un valor tanto para elevación (plano vertical) como en acimut (plano horizontal), expresados en grados con respecto al oyente.

Existen 187 posiciones (por cada individuo) con respecto al oyente (ubicado al centro). Las posiciones disponibles dependen de la densidad espacial de los HRIR empleados, siendo éstos los de cinco individuos distintos obtenidos de la base de datos del Proyecto LISTEN, llevado a cabo por IRCAM (Instituto de Investigación y Coordinación Acústica / Música) y la empresa AKG Acoustics (Warusfel, s.f.).

El software presenta un sistema de coordenadas donde 0º representa la posición de la fuente al centro y frente a la cabeza del usuario. La densidad espacial de las muestras o puntos de HRIR es de 24 en el plano horizontal por cada plano de elevación (entre -45º y 45º). Para los últimos tres planos de elevación, 60º, 75º y 90º, existen únicamente 12, 6 y 1 punto por cada plano, respectivamente. De ésta manera, es posible una configuración de semiesfera alrededor del usuario. El movimiento de la fuente en el plano horizontal, se realiza entre 0º y 360º, siendo 90º en la posición del oído derecho y 270º en la del oído izquierdo. Para el movimiento en el plano vertical, 90º corresponde a la fuente y desciende hasta -45º por debajo la cabeza.

3) Sección de Selección de Individuo:Se emplean los cinco primeros individuos (de 51 disponibles en la base de datos) de los cuales se pueden obtener los impulsos para la convolución con la señal de entrada. El objetivo es el de que mediante una prueba puramente auditiva, usuario pueda seleccionar un conjunto de HRIR que resulte más adecuado para la percepción binaural, dando lugar a una localización de fuentes más realista. Al seleccionar una posición, se envía un mensaje a una estructura lógica de comparación diseñada para cada individuo y carga el archivo de audio correspondiente al HRIR de dicha posición en memoria temporal para su posterior procesamiento y reproducción.

4) Sección de Convolución:En ésta sección, la señal de entrada y el impulso HRIR de la posición e individuo seleccionado llegan a dos objetos externos del paquete A Harker Externals (Harker, 2012), para ser convolucionados. Estos se realizan de manera independiente para cada canal, por lo que se requiere dividir

la señal del impulso almacenada en el buffer estéreo en dos buffers monofónicos. La convolución se realiza en el dominio del tiempo (convolución discreta) para las primeras 128 muestras (de un total de 512 de cada impulso) y en el dominio de la frecuencia, mediante Transformada Rápida de Fourier (FFT) para las 384 muestras restantes. Dicho esquema de procesamiento sigue los lineamientos establecidos y recomendados por Harker para lograr un proceso de convolución prácticamente en tiempo real, sin latencia apreciable.

5) Sección de Salida:La sección de salida recibe las señales procesadas y las envía a un control de nivel de salida que cuenta además con varias opciones de monitoreo visual de las mismas; numérica (en escala de decibeles), espectrogramas, vu-metros y medidores de pico para el canal izquierdo y derecho.

III. ANÁLISIS DE RESULTADOS

Se realizan pruebas de evaluación mediante la comparación de los espectros sonoros de las señales binaurales de salida. El fin es el de evaluar el procesamiento que lleva a cabo el software y poder encontrar tendencias o cambios generales que permitan verificar la existencia de las claves psicoacústicas conocidas en los espectros sonoros resultantes.

Se emplea un segundo de ruido blanco como señal de entrada que, al poseer un espectro constante, permite la visualización clara del filtrado producido por las HRTF, fácil de evidenciar mediante la comparación de los mismos por canal (izquierdo y derecho) y por posición para un mismo individuo.

Dos individuos han sido seleccionados al azar (Individuo 2 e Individuo 5) de la base de datos disponible y se comparan sus espectros sonoros, en primer lugar, para cinco posiciones de elevación (-30º, 0º, 30º, 60º, 90º) con acimut constante y en segundo lugar, para ocho posiciones de acimut (0º, 45º, 90º, º135º, 180º, 225º, 270º, 315º) con elevación constate.

Las señales obtenidas en las pruebas fueron importadas al software Pro Tools LE 8.0.4 y su análisis espectral se realizó mediante el plug-in Ozone 5 de iZotope. El análisis de espectro se configura con un frame (FFT size) de 512 muestras, con un solapamiento (overlapp) de 50% (cada 256 muestras) y empleando una Ventana de Hanning (windowing) con el fin de evitar filtraje o fuga en la lectura del espectro, siendo esta una ventana recomendada para señales aleatorias y presentando “una buena resolución en frecuencia y filtrado espectral reducido” (National Instruments Corporation, 2013).

Los espectros resultantes se presentan como gráficos de espectro sonoro que muestra la amplitud y frecuencia en el

Page 27: SONAC 2014

26

tiempo de un segundo y analizados para los dos canales izquierdo y derecho) de cada posición. La amplitud se encuentra representada en el eje de las abscisas en una escala de decibeles (entre -120 y 0 [dB]). En la gráfica es representada por una escala de colores entre azul y amarillo, para valores menores y mayores respectivamente. La frecuencia se encuentra en el eje de las ordenadas en un rango entre 20 y 20000 [Hz]. Para todas las figuras, la primera muestra representa el ruido blanco de entrada, seguido de la respuestas izquierda (arriba) y derecha (abajo) para todas las posiciones evaluadas en el eje correspondiente. Los resultados se muestran en las figuras 3 y 4 para análisis en elevación y figuras 4 y 5 para análisis en acimut.

Figura 3. Comparación de espectros sonoros de posiciones de elevación evaluadas para el individuo 2.

Figura 4. Comparación de espectros sonoros de posiciones de elevación evaluadas para el individuo 5.

Entre las diferencias apreciables para las distintas posiciones de elevación evaluadas, en términos prácticos, se puede considerar que las señales son bastante similares en sus espectros sonoros, en un rango de frecuencias bajas y medias.

A partir de 3000 [Hz] aproximadamente, las diferencias entre ambos canales son más notables, lo que coincide con la propuesta de varios autores que plantean la necesidad de contenido en altas frecuencias del sonido emitido por la fuente para la aparición de claves espectrales fundamentales en la localización en el plano vertical. Se observan claves que se manifiestan como picos y valles en el espectro y son producto de cancelación, sombras, reflexión y difracción acústica causada por el propio oyente al interponerse en la transmisión de la onda.

Al aumentar la posición de elevación, los espectros comienzan a volverse más constantes, sin llegar a ser planos totalmente, pero perdiendo las deficiencias notorias que se evidencian en ciertas posiciones de elevación en forma de picos y valles pronunciados, lo que dificulta la capacidad del oyente en distinguir su procedencia.

La influencia de bajas frecuencias en la percepción en la localización vertical no es evidente en el análisis, a pesar de que pueden representar claves de ubicación importantes al tratarse de una longitudes de onda comparables en tamaño, con el obstáculo que representa el cuerpo frente a la

Page 28: SONAC 2014

27

propagación de la onda. Es común un decaimiento de nivel bajo los 160 [Hz] aproximadamente para todas las posiciones evaluadas, que probablemente se debe a la convolución de señales, defecto común en dicho proceso o a la falta de bajas frecuencias de las HRIR empleadas, que no ha sido evaluado. Si bien el filtrado varia con la posición, la variación es leve y es prácticamente idéntica para los dos canales de la salida binaural evaluada (incluso en la evaluación de cambio de acimut).

La principal diferencia que se puede observar para las muestras de distintas posiciones de acimut es evidenciada como diferencia de nivel entre cada par de espectros, izquierdo y derecho, producto de las diferencias interaulares (ILD) producidas por la cabeza (más evidente en posiciones extremas, donde un oído es claramente opacado por la cabeza), consideradas como las claves principales para la localización de fuentes en éste plano junto con las diferencias temporales (ITD) que son empleadas al utilizar HRIR pero no son apreciables en un análisis espectral. Los cambios de posición para una misma elevación presentan espectros complejos y rizados que difícilmente muestran similitudes entre canales para una misma posición. Un análisis cualitativo del procesamiento del software mediante pruebas a individuos puede entregar resultados que evalúen la capacidad del software y su efectividad en la localización de fuentes y percepción espacial de las mismas.

Figura 5. Comparación de espectros sonoros de posiciones de acimut evaluadas para el individuo 2.

Figura 6. Comparación de espectros sonoros de posiciones de acimut evaluadas para el individuo 5.

Sin embargo, las condiciones en las que se realizan deberán ser controladas, limitando las variables presentes y los resultados que se pueden obtener, además de la necesidad de considerar un número de individuos suficientemente grande que represente una muestra válida de la población. Las capacidades de evaluación consideradas para el proyecto son demasiado amplias y pueden ser el motivo de nuevas investigaciones, por lo que se ve necesaria la limitación de variables y resultados a un cierto número de criterios.

Al limitar las pruebas a un único individuo resulta suficiente para la evaluación buscada. Las pruebas realizadas para un segundo individuo (Individuo 5) cumple con el objetivo de presentar un nuevo conjunto de datos que apoye a los resultados obtenidos con las pruebas del Individuo 2 y verifique el procesamiento realizado. Se puede observar las tendencias apreciadas para el Individuo 2 en los espectros sonoros del Individuo 5. No se pretende comparar a los resultados de los individuos entre sí. Como se espera, el segundo individuo presenta resultados similares a los presentados por el primer individuo, con cambios espectrales esperados de acuerdo al cambio de posición de acimut y elevación que evidencian las claves psicoacústicas presentes, así como diferencias mínimas debidas a empleo de funciones específicas a la antropometría (desconocidas) de cada individuo. Estas diferencias serán comunes para

Page 29: SONAC 2014

28

cualquier conjunto de HRTF de dos individuos que se empleen.

IV. CONCLUSIONES

Es posible la creación de un modelo de síntesis binaural mediante convolución de señales de entrada con HRIR dando paso a la posibilidad a un sistema de producción audiovisual simple y envolvente que aprovecha la configuración tradicional de dos canales, mediante audífonos, y que va de la mano con un mercado que apuesta cada vez más por en sistemas simples, económicos y portátiles.

Las claves espectrales y temporales necesarias para la localización sonora, y cuya influencia no han llegado a ser comprendidas en su totalidad son implementadas al emplear HRTF en la etapa de procesamiento, una ventaja frente a modelos estructurales propuestos por distintos autores y considerados en una primera instancia para la etapa de procesamiento. El alto grado de control y condiciones necesarios que exigen las pruebas para el estudio de la percepción en la audición limitan de alguna manera a una fácil obtención de resultados.

Un esquema de convolución tanto en el dominio del tiempo y dominio de la frecuencia permite el procesamiento en tiempo real de las señales y el cambio dinámico de la posición de la fuente durante la reproducción de una señal de entrada. Sin embargo, discontinuidad en la amplitud de la señal de salida al ser procesada resulta en un ruido audible al cambiar de HRIR en medio de la reproducción.

Estudios acústicos pueden beneficiarse del uso de HRTF/HRIR y sus claves de localización en etapas de análisis y evaluación, brindando un enfoque que más realista para procesos tradicionales que no necesariamente reflejan la realidad de la situación acústica que se evalúa o simula, o se consideran insuficientes.

La psicoacústica es un campo amplio por explorar y que difícilmente será definido en su totalidad al lidiar con procesos subjetivos y funciones complementarias. Sin embargo el software presenta la posibilidad de su empleo como herramienta de investigación aprovechando su capacidad de procesamiento y enfocándolo a la realización de pruebas para la evaluación de la percepción y localización de fuentes sonoras, con la necesidad de un replanteamiento de variables e interfase gráfica ya que pueden llegar a influir y parcializar los resultados. Una evaluación psicoacústica puede ser una herramienta de investigación potente donde el análisis de resultados puede derivar en descubrimientos significativos dentro del campo.

El único control de la posición de la fuente en la dimensión de la distancia existe en forma del control de nivel de salida de audio a pesar de que se consideró emplear

un algoritmo de generación de reflexiones o reverberación artificial. El no incluir generación de reverberación artificial representa una ventaja al no perjudicar la calidad espectral y temporal que aportan las HRTF, por lo que funciona de manera óptima para señales de entrada que han sido registradas bajo condiciones anecoicas.

Existe una cantidad de mejoras que pueden ser implementadas en el prototipo como la implementación de un sistema de crossfade (cambio de nivel gradual en la selección dinámica de HRIR), una ampliación de la base de datos de HRIR (mediante interpolación de la base de datos proporcionada) incorporación de los 46 de individuos restantes en la base de datos de HRIR del proyecto LISTEN para una mayor opción de selección de individuo. Implementación de un módulo de reverberación realista para expandir la capacidad de localización a tres dimensiones e incluso la implementar un sistema hardware para análisis de movimiento de la cabeza del usuario (head-tracking) para simulación más realista o automatización vía MIDI.

RECONOCIMIENTO

Se agradece de forma especial a los ingenieros Marcelo Lazzati y Christoph Scheuermann por su guía y aporte al proyecto, así como a Rui Penha y a los ingenieros Danny Leiva, Hugo Jácome, Juan Pazmiño, Christiam Garzón y Luis Bravo por su ayuda y colaboración.

REFERENCIAS

1) Audiolab, University of York. (2009). Acoustics AndPsychoacoustics Book. Recuperado de http://www.openairlib.net/anechoicdb/content/acoustics-and-psychoacoustics-book

2) Begault, D. (2000). 3-D Sound For Virtual Reality AndMultimedia. Moffett Field, Estados Unidos: NASA/TM.

3) Everest, A. (2007). Critical Listening Skills For AudioProfessionals. Boston, Estados Unidos: ThomsonCourse Technology PTR.

4) Harker, A. (2012). Software. Recuperado dehttp://alexanderjharker. co.uk/Software.html

5) Moller, H. (marzo, 1992). Fundamentals of BinauralTechnology. Applied Acoustics, 36 (3-4), 171-218.

6) Warusfel, O (s.f.). Listen HRTF Database. Recuperadode http://recherche.ircam.fr/ equipes/salles/listen/index.Html.

7) National Instruments Corporation. (2013). Windowing:Optimizing FFTs Using Window Functions. Recuperadoel 28 de septiembre de 2013 de http://www.ni.com/white-paper/4844/en/

Page 30: SONAC 2014

29

EVALUACIÓN DE LOS COMPONENTES DE UNA BANDA SONORA EN MATERIAL

AUDIOVISUAL APLICADO A PUBLICIDAD PARA TELEVISIÓN, CONSIDERANDO LAS

PERCEPCIONES PSICOACÚSTICAS DE SONORIDAD, TIMBRE, ESPACIALIDAD Y

DIRECCIONALIDAD.

ANDREA ESTEFANÍA OLMEDO GUERRAUniversidad de las Américas, Ecuador, Quito.

[email protected]

RESUMEN: La televisión utiliza todas las herramientas que puede para vender distintas clases de ideas. La intención de este proyecto es realizar un estudio obtener mayor provecho de un medio de comunicación masivo de esta magnitud. Existen elementos sonoros que modifican la percepción de la teleaudiencia basándose en principios psicoacústicos, logrando así tener un mayor número de interesados en el mensaje que se está transmitiendo. A las percepciones psicoacústicas que serán modificadas, es decir sonoridad, timbre, espacialidad y direccionalidad, se les asignará variables las cuales permitirán ingresar los resultados obtenidos dentro de gráficos estadísticos para ser analizados.

Palabras claves: psicoacústica, banda sonora, sonoridad, timbre, espacialidad, direccionalidad.

I. INTRODUCCIÓN

Este proyecto tiene como principal objetivo evaluar los elementos de una banda sonora en material audiovisual aplicado a publicidad para televisión, considerando las percepciones psicoacústicas de sonoridad, timbre, espacialidad y direccionalidad.

El desarrollo consta de tres partes, recopilación de información, selección del material audiovisual, identificación de elementos sonoros, creación de guiones técnicos y modificación de las percepciones psicoacústicas, y por último, realización de encuestas con el material trabajado y análisis de los datos obtenidos.

Los resultados y conclusiones obtenidos entregan distintas teorías sobre cómo la muestra seleccionada percibió el material audiovisual creando así particularidades en cada caso de evaluación.

II. METODOLOGÍAA. Variables psicoacústicas en función de los elementos de la banda sonora Dentro de las variables psicoacústicas existentes, se han escogido cuatro de ellas para ser evaluadas, estas son: sonoridad, timbre, espacialidad y direccionalidad. Dejando fuera de las variables a evaluar solamente a la altura, que es un parámetro que depende de la intensidad o sonoridad y del timbre, que son dos variables que se evaluarán como independientes.

Así mismo, los parámetros de la banda sonora (B.S.) en la cual se harán las evaluaciones son: diálogos, efectos ambientales, efectos sonoros o efectos particulares y música. Sin tomar en cuenta al silencio que, a pesar de aportar mucha expresividad, no se le puede realizar modificación alguna.

Por lo tanto se plantea la siguiente tabla, en la que se pueden observar las posibles combinaciones de variables psicoacústicas vs elementos de la banda sonora.

Tabla 1. Posibles combinaciones de variables psicoacústicas vs. elementos de la banda sonora.

En la tabla 1 se puede observar que existen dieciséis posibles permutaciones, las cuales entregarían idealmente datos concisos sobre percepciones en cada caso.

Sin embargo, se realizó un análisis de las combinaciones y se seleccionó aquellas que no solamente son factibles sino que también son útiles, llegando así a la siguiente tabla que tiene marcada con una X aquellas celdas que corresponden a

Page 31: SONAC 2014

30

las combinaciones que se van a analizar. Tabla 2. Combinaciones de variables psicoacústicas vs

elementos de la banda sonora que serán analizadas.

B. Justificación de las combinaciones seleccionadas o no seleccionadas 1) Timbre vs. Diálogos: Este caso fue seleccionado, ya queuna de las principales características que permite distinguir una voz de otra, es su timbre, provocado por las diferencias físicas entre todos los elementos que intervienen cuando se trata de “hablar” (aparato fonador). 2) Timbre vs. Efectos Ambientales: Este caso no fueseleccionado, ya que los efectos ambientales son la reunión de elementos particulares en un recinto determinado. Por lo tanto el modificar el timbre a la suma de estos elementos, no tendría efecto alguno. 3) Timbre vs. Efectos Sonoros: Este caso no fueseleccionado, ya que los efectos sonoros dentro de un film, de por sí ya son exagerados y alterados para que tengan un efecto sonoro que impacte en la audiencia. 4) Timbre vs. Música: Este caso fue seleccionado, ya que eltimbre es una cualidad propia de cada instrumento, por lo tanto si una guitarra toca un Am y un piano también lo hace, uno puede reconocer la diferencia por los materiales de cada instrumento y por los armónicos que estos generan; eso quiere decir que si se realizan modificaciones tímbricas a la totalidad del tema musical, ¿afecta al espectador? 5) Sonoridad vs. Diálogos: Este caso no fue seleccionado,ya que para que una idea expresada con palabras sea comprendida, necesita estar a un nivel de presión sonora que permita al oyente escuchar con claridad, sin hacer esfuerzo y sin sentir molestias (Fernández y Martínez, 1999, p 204). Por lo tanto este punto queda descartado de análisis, sin embargo para todo material que contenga diálogos, se utilizará un nivel adecuado. 6) Sonoridad vs. Efectos Ambientales: Este caso fueseleccionado, por la importancia de los planos sonoros dentro de la mezcla y de la ubicación espacial que se le quiere dar al oyente, situándole en un entorno auditivo adecuado a la imagen presentada, o ¿podría ser lo contrario? 7) Sonoridad vs. Efectos Sonoros: Este caso fueseleccionado, cuando se tiene material audiovisual, el sonido y la imagen tienen igual nivel de importancia, por tanto ¿es necesario reforzar una imagen con un efecto sonoro? ¿causan la misma impresión como elementos independientes que como elementos complementarios? 8) Sonoridad vs. Música: Este caso fue seleccionado, por laimportancia de los planos sonoros dentro de la mezcla, cuando un elemento sonoro no es el principal y está como parte de relleno, ¿Cuál es el que causa mayor impacto? Ya que la música mueve emociones, ¿es primordial que esté en un primer plano sonoro? 9) Espacialidad vs. Diálogos: Este caso fue seleccionado,por la importancia que tiene la reverberación que un recinto aporta a la voz. Los seres humanos están acostumbrados a escuchar reflexiones tempranas y tardías a distintos niveles

sonoros y basándose en dicho concepto, sitúan tanto dimensiones espaciales como ubicación de la fuente. Si es que en un comercial, se rompe con dicha “costumbre” ¿el oyente es afectado? 10) Espacialidad vs. Efectos Ambientales: Este caso no fueseleccionado porque al momento de realizar la grabación de un ambiente determinado, ya se está grabando no solo el aporte que el recinto realiza a los distintos sonidos particulares si no también el ruido de fondo existente, por lo cual aumentar o disminuir el tiempo entre las distintas clases de reflexiones no resulta funcional. 11) Espacialidad vs. Efectos Sonoros: Este caso fueseleccionado, los distintos impulsos sonoros se comportan diferente de acuerdo al lugar en el que están ubicados, y si a un sonido generado en un recinto con un comportamiento determinado dentro de tal espacio, se le alteran los factores que influyen dentro de la ubicación espacial, ¿tiene incidencia en el espectador? 12) Espacialidad vs. Música: Este caso no fueseleccionado, lo único que se lograría aumentando la espacialidad a la música es crear un sensación difusa en un elemento que no aporta en función de su mensaje si no de sensaciones. Al no ser un film como tal el material que se está utilizando, la música debe envolver al oyente más que ser un elemento ubicado en pantalla. 13) Direccionalidad vs. Diálogos: Este caso fueseleccionado, utilizando la teoría de Chion de que el cerebro ubica espacialmente los sonidos de acuerdo a la posición en la que se ubican en pantalla sin importar si en la mezcla sonora están ubicados a 0˚, se selecciona esta combinación para validar si al oyente le pasó inadvertido la direccionalidad de las voces o si es que le es relevante que la fuente este ubicada en el mismo lugar tanto visual como auditivamente. 14) Direccionalidad vs. Efectos Ambientales: Este caso nofue seleccionado, un ambiente no proviene de un lugar, es algo que rodea al oyente por ende no tiene dirección determinada. 15) Direccionalidad vs. Efectos Sonoros: Este caso fueseleccionado, utilizando la teoría de Chion de que el cerebro ubica espacialmente los sonidos de acuerdo a la posición en la que se ubican en pantalla sin importar si en la mezcla sonora están ubicados a 0˚, se selecciona esta combinación para validar si al oyente le pasó inadvertido la direccionalidad de los efectos sonoros o si es que le es relevante. 16) Direccionalidad vs. Música: Este caso no fueseleccionado, como antes se mencionó, la música dentro de los comerciales seleccionados, tiene una función ambiental más que como elemento sonoro, por tanto ubicarla espacialmente rompe con los requerimientos de la imagen.

C. Material audiovisual El criterio de selección de los comerciales que se utilizarán como material de análisis, se basa en los siguientes parámetros:

Existencia de los elementos de la banda sonora, para este punto se presentan tablas que indican que elementos posee el comercial y de estos, cuales fueron seleccionados para ser modificados. De esta forma los no seleccionados se

Page 32: SONAC 2014

31

mantendrán sin alteraciones durante el análisis.

Mercado objetivo de las marcas seleccionadas, el target de los comerciales sería hombres y mujeres entre 18 y 30 años con un nivel socio económico variable; este último factor se debe a la diversidad de productos publicitados entre los comerciales seleccionados.

Premios o menciones a los comerciales, este punto considera el galardón más alto que haya tenido cada comercial siendo un bonus al material audiovisual seleccionado.

Reduciendo así la selección, a cinco videos:

1) Mercedes Benz - Dreams

Figura 1. Mercedes-Benz. Dreams Tomado de www.coloribus.com, 2013

Tabla 3. Elemento de la B.S. existentes y elementos a analizarse en el comercial 1.

2) Guinness – Made of More

Figura 2. Guinness, Made of More Tomado de www.coloribus.com, 2013

Tabla 4. Elemento de la B.S. existentes y elementos a analizarse en el comercial 2.

3) Canal+ – Never underestimate the power of a greatstory

Figura 3. Canal+, Never underestimate the power of a great story

Tomado de www.coloribus.com, 2013

Tabla 5. Elemento de la B.S. existentes y elementos a analizarse en el comercial 3.

4) H2O - Braids

Figura 4. H20, Braids Tomado de www.coloribus.com, 2013

Tabla 4. Elemento de la B.S. existentes y elementos a analizarse en el comercial 4.

5) Ford – Park assist

Figura 5. Ford Park Assist Tomado de www.coloribus.com, 2013

Page 33: SONAC 2014

32

Tabla 7. Elemento de la B.S. existentes y elementos a analizarse en el comercial 5.

D. Post-Producción, modificaciones psicoacústicas al material El primer paso en la post-producción fue realizar una mezcla base en función de niveles y paneos para cada comercial. Tomando en cuenta la compatibilidad mono-estéreo que a pesar de no estar considerada dentro de los objetivos del proyecto, resulta un buen análisis al tratarse de televisión. Las modificaciones psicoacústicas se realizaron en función a la tabla 2 que tiene las permutaciones entre elementos de la banda sonora y parámetros psicoacústicos, distribuyéndolo entre los comerciales de la siguiente forma:

Tabla 8. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 1.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de sonoridad/música se aumentaron 9dB a la mezcla base, y se disminuyeron 9dB a la mezcla base. Que sonoramente representa 3 veces más que el original. En la variación direccionalidad/efectos sonoros se crearon dos comerciales el uno tiene todos los efectos particulares con el paneo al centro y el otro tiene los paneos automatizados para que se comporten según las imágenes que se están visualizando.

Tabla 9. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 2.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de timbre/música se ecualizó a la canción seleccionada de tal forma que se aumentaron 6dB a las fundamentales de los elementos que más se perciben y también se disminuyeron 6dB, de tal forma que la segunda curva de ecualización quedo invertida en función de la primera. En la variación sonoridad/efectos sonoros se aumentaron 6dB en la mezcla base a los efectos sonoros y se disminuyeron 6dB. Obteniendo dos opciones para realizar comparaciones.

Tabla 10. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 3.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de sonoridad/efectos ambientales se aumentaron 9dB a la mezcla base, y se disminuyeron 9dB a la mezcla base en los efectos ambientales. En la variación espacialidad/efectos sonoros se aumentó a estos elementos una reverberación que crea una sensación de que el espacio en el que suenan es muy grande y con un toque metálico que de alguna forma es irreal a lo que se está viendo en pantalla.

Tabla 11. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 4.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En la parte de espacialidad/diálogos se aumentó a estos elementos 2 diferentes reverberaciones la una crea una sensación de que el espacio en el que suenan es muy grande que de alguna forma es irreal a lo que se está viendo, la segunda es una reverberación mucho más pequeña y lejos de causar abstracción del sonido con la imagen, permite ubicar mejor las voces en el espacio. En la variación direccionalidad/diálogos se realizaron dos opciones la una presenta los paneos sincronizados con lo que uno ve en la imagen, eso quiere decir que si uno ve un hombre hablando a la derecha entonces el sonido vendrá de la derecha. La otra opción hace lo contrario, ubica al sonido en el lugar contrario al que se ubica la fuente visualmente.

Tabla 12. Variables psicoacústicas a evaluarse en los elementos de la banda sonora del comercial 5.

En esta mezcla se realizaron los siguientes cambios psicoacústicos: En este comercial se realiza una sola variación que es timbre/diálogos donde las voces de los dos protagonistas fueron alteradas de tal forma se cambió su pitch y se ecualizaron al punto de obtener dos opciones extremas, voces muy agudas y voces muy graves que, de acuerdo a que observe pueden ser totalmente irreales o podrían ser coherentes con la imagen.

Al terminar con la mezcla de todos los comerciales y realizar los modificaciones antes señaladas, se aumentó el

Page 34: SONAC 2014

33

nivel del master de tal forma que se mantiene la dinámica generada en la mezcla y se utiliza todo el rango dinámico, tomando al pico más alto como el nivel que llegara a 0 nominal.

Es importante mencionar que no se utilizó ninguna herramienta para normalizar con el criterio de mantener todos los detalles psicoacústicos.

E. Evaluación

La metodología utilizada para la realización de encuestas se basa en:

• Etapa de preguntas cerradas, eso quiere decir quetodas las preguntas tendrán las opciones derespuestas ya establecidas. Así mismo se dividiránen dos que son las que solo presentan dos posiblesrespuestas y las que entregan un rango mayor deopciones.

• Etapa de preguntas abiertas, eso quiere decir queexiste el caso de 4 preguntas que pide justificar lasrespuestas.

• Las preguntas pueden ser de dos clases: de caráctercomparativo entre dos o más opciones del materialaudiovisual presentado, o con indicaciones previasa la pregunta donde se anticipa al encuestado a quedebe prestarle atención.

• Se realizarán un máximo de dos preguntas porvariación psicoacústica.

• La encuesta posee una etapa en la que hay unapregunta para todas las variables de comercialesque se tiene que responder a la par del resto deencuestas.

III. ANÁLISIS DE RESULTADOS

A partir de la muestra escogida se obtienen los siguientes datos ante la evaluación realizada:

• Existe una marcada preferencia por los comercialesdonde los diálogos del narrador son más claros. Porende más allá del entorno audiovisual, lainteligibilidad de la palabra resulta un factor clavepara la transmisión acertada del mensaje.

• Cuando en material audiovisual existen música ydiálogos al mismo tiempo, causa una mejorimpresión el hecho de que la música no seencuentre en primer plano, eso quiere decir que susonoridad sea menor. Existe una marcada tendenciaa asumir que entre los dos elementos, los diálogostienen muy poco nivel en vez de considerar que lamúsica debería ser enviada a un plano posterior.Esto sucede por una respuesta natural a considerarque el mensaje transmitido se encuentra siempre enlos diálogos.

• La espacialidad es un factor clave cuando se tratade comprensión de diálogos, existe una preferenciapor los comerciales donde la reverberaciónutilizada es coherente con la ubicación visual de lafuente.

• En la evaluación de direccionalidad vs. efectosparticulares, la teoría indica que el movimiento dela imagen debe ser igual al movimiento sonoro paraobtener entornos acertados. Sin embargo los datosobtenidos indican que existen mayor coherenciaentre la imagen y el sonido cuando a pesar delmovimiento visual, la fuente sonora viene delcentro es decir se encuentra estática. Se percibe unentorno audiovisual más realista cuando no existepaneo alguno.

• Si bien la música es un elemento que respalda elconcepto del material audiovisual, los cambios quese le puedan realizar en función del timbre, sonnotorios, más no relevantes dentro de su funcióndescrita.

• El aumento de sonoridad en efectos particulares, senota como tal. A pesar de esto, cuando la sonoridaddisminuye, la percepción es que el resto deelementos sonoros como música y efectosambientales, aumenta.

• Al realizar una comparación entre la percepción dedistintos niveles (sonoridad) en efectosambientales, los datos arrojados indican que: seconsidera exagerado a este elemento sonoro cuandotienen una menor sonoridad, y considera normalcuando tienen una mayor sonoridad. Lo quepermite indicar que cuando se trata de ambientes esmejor tener una sonoridad mayor para causar unamayor percepción de realismo.

• Las cifras recopiladas señalan que la espacialidades un elemento relevante en el contextoaudiovisual; y se corrobora que los diferentes tiposde reverberaciones utilizados son diferenciados, yaquellos que resultan incongruentes con la imagenson menos aceptados.

• La percepción de los diálogos se ve afectadacuando la ubicación de la fuente sonora no es lamisma que la ubicación de la fuente visual, causadificultad en la percepción del mensaje. Sinembargo, cuando la fuente sonora y la fuente visualestán ubicadas en el mismo punto estaparticularidad para desapercibida.

En cuanto a la fase final de la encuesta donde se busca tener una impresión general sobre cuál es el comercial que más gustó a la muestra:

• Evaluando la sonoridad, el comercial que másgustó fue el número 3, donde había un incrementode nivel en efectos ambientales. Por lo tanto seconcluye que los efectos ambientales crean unentorno audiovisual más realista que permite a laaudiencia enfocar su atención al mensaje, sinnecesidad de autocompletar dicho entorno. Enefectos ambientales no hay sonoridadesexageradas, es preferible que sobre antes que faltenivel.

• Evaluando el timbre, el comercial que más gustófue el número 2, donde la música fue ecualizada detal forma que las fundamentales y armónicos de losinstrumentos principales le daban mayor presenciadentro de la mezcla. Se concluye que cualquieralteración que le dé a la música un mayor

Page 35: SONAC 2014

34

protagonismo dentro de la banda sonora, es bien aceptado por la audiencia, ya que este es un elemento que crea sensaciones y emociones al espectador.

• Evaluando la direccionalidad, el comercial que másgustó fue el número 4, donde la ubicación de la fuente sonora y visual era la misma. Se concluye que el crear imagen vs. fuente sonora coherente, resulta natural para el espectador.

• Evaluando la espacialidad, el comercial que másgustó fue el número 4, donde el tipo de reverberación seleccionado consideraba las características físicas del recinto que se presentaba en la imagen. Se concluye que una reverberación adecuada permite a la audiencia ubicarse auditivamente en el espacio visual presentado.

• El comercial que más gustó entre todos lospresentados, fue el número 4 y más que contener cualquier clase de elemento sonoro significativo, lo que causa esta resolución es el concepto publicitario que se maneja.

• El grupo encuestado resuelve que la mayor razónpara sentir o no empatía con uno u otro comercial, es la sensación de realismo entre lo que se ve y lo que se escucha. Por ende el comercial que menos gusto fue el número 5 donde las voces, no corresponden a los personajes.

IV. CONCLUSIONES

• Se concluye que no se puede generalizar oestandarizar la forma en la que la teleaudienciapercibe la modificación de elementos sonorosbasándose en principios psicoacústicos y elimpacto que estos causan. Ya que preexistendistintas características dentro de cada persona quehacen que su atención se focalice en unos u otroselementos del material audiovisual como elconcepto, las imágenes o la parte auditiva.

• La publicidad en televisión trabaja por modificar ycambiar la ideología o modo de pensar de la gentehacia un producto específico para que tenga mayoraceptación y sea adquirido; utilizando la mayorcantidad de herramientas que puede para llegar a supúblico objetivo, esto quiere decir: la persuasión, elconvencimiento para adoptar una determinadapostura, la creación de una necesidad en el público,etc. El uso de temas y conceptos agradablestrabajados de tal forma que los sentidos lleven alcerebro el mensaje que se quiere, es el punto departida para investigaciones de esta clase: quedisminuyen horas de trabajo al usar elementos yacomprobados y aumentan la calidad de publicidad.

RECONOCIMIENTO

A Marcelo Lazzati y Jhonatan López por su valioso aporte.

REFERENCIAS

1) Basso, G. (2009). Percepción auditiva. Buenos Aires,Argentina: Universidad Nacional de Quilmes Editorial.

2) Bievenido, L. (2008). Dirección de documentales paratelevisión. Guión, producción y realización. Navarra,España: Eunsa.

3) Bueno, E., Cruz, I., & Duran, J. (1998). Economía de laempresa. Análisis de las decisiones empresariales.Madrid, España: Ediciones Piramide.

4) Chion, M. (1998). La audiovisión. Barcelona, España:Paidós.

5) Fernandez, F., & Martinez, J. (1992). Manual básico delenguaje y narrativa audiovisual. Barcelona, España:Paidós.

6) Foley, H., & Maltin, M. (1996). Sensación ypercepción. México: Prentice Hall Hispanoamericana.

7) García, J. L. (1992). Lenguaje audiovisual. México D.F,México: Alhambra Mexicana.

8) Gerges, S. (1998). Ruido: fundamentos y control.Florianópolis, Brasil: Universidad Federal de SantaCatarina.

9) Kemp, P. (2012). Cine: Toda la historia. Barcelona,España: Blume.

10) Kindem, G., & Musburger, R. (2007). Manual deproducción audiovisual digital. Barcelona, España:Omega.

11) Miyara, F. (2004). Acústica y sistemas de sonido.Bogota, Colombia: Fundación Decibel.

12) Rodríguez, A. (1998). La dimensión sonora dellenguaje audiovisual. Barcelona, España: Paidós.

13) Rose, J. (2008). Audio postproduction for film andvideo. Unites States of America: Elsevier-Focal Press.

14) Rosillo, J. (2008). Formulación y evaluación deproyectos de inversión para empresas manufactureras yde servicio. Bogota, Colombia: Cengage Learning.

15) Rumsey, F., & Mc Cormick, T. (2009). Introducción alsonido y la grabación. Madrid, España: IORTV.

16) Viers, R. (2008). The sound effects bible. United Statesof America: Michael Wiese Productions.

17) Wyatt, H., & Amyes, T. (2005). Post Producción deaudio para TV y Cine. Kidlington, England: Elsevier.

18) Zettl, H. (2009). Television production handbook.United States of America: Wadsworth CengageLearning.

Page 36: SONAC 2014

35

DESARROLLO DE UNA SÍNTESIS FM UTILIZANDO LA PROPORCIÓN ÁUREA Y LA

SUCESIÓN DE FIBONACCI A TRAVÉS DEL LENGUAJE DE PROGRAMACIÓN MAX/MSP.

VALERIA VILLARREALUniversidad de las Américas, Ecuador, Quito.

[email protected]

RESUMEN: Se presenta un método de síntesis FM, donde los elementos necesarios para su implementación poseen un diseño relacionados con la proporción áurea y la serie de Fibonacci, luego, la síntesis se ha programado en el entorno Max/MSP para tener como resultado final una interfaz de usuario que puede ser manejada a través de un controlador MIDI.

Los resultados obtenidos han sido analizados en dos aspectos: musical y técnico. Para el primer caso se toma como punto de comparación las características del sistema musical temperado y en el segundo un análisis espectral para determinar el comportamiento acústico de los resultados sonoros obtenidos con el sintetizador.

Finalmente, se presenta un instrumento que permite entender de mejor forma la síntesis por modulación de frecuencia, sus ventajas y desventajas sumándole características musicales en un sistema no tradicional, todo ello para utilizarlo como una herramienta diferente para la experimentación, interpretación y composición musical.

Palabras claves: Fibonacci, Phi, Max/MSP, Síntesis FM

I. INTRODUCCIÓN La estructura de la música occidental tal y como se la conoce en este momento fue definida hace muchos años, y en la actualidad se encuentra inmensamente difundida por el mundo, además se sabe que estos elementos musicales, principalmente los intervalos, poseen una relación matemática definida; de igual forma la síntesis de sonido aparecida hace más de cincuenta años, ha logrado definir durante todo este tiempo, elementos o componentes básicos para su implementación y gracias al trabajo de Dave Smith en los años 80, hoy todo esto está gobernado por el protocolo MIDI (Manning, 2004) en donde el rango 0 a 127 es un estándar, sin embargo, ¿qué ocurre si a estos dos sistemas se les aplica una relación diferente? ¿Qué sucede si se definen varios de estos elementos con dicha relación para formar una estructura distinta? ¿Qué sucede si esa relación es un número importante como lo es Phi?

El trabajo aquí presentado busca responder estas interrogantes al basar el diseño de un método de síntesis sonora, en el número Phi y la serie de Fibonacci. El desarrollo de los ordenadores en los últimos años, ha hecho de éstos herramientas importantes en las tareas de la vida diaria, y la música sin duda alguna, es una de ellas. Es gracias a los computadores y los instrumentos electrónicos que hoy en día la experimentación musical está al alcance de mucha gente, más de lo que hace veinte años pudo haberse pensado. Tomando provecho de esta realidad se puede proponer utilizar como medio para su consecución el entorno de programación Max/MSP.

II. METODOLOGÍA

A. Interfaz de usuario En la figura 1 se muestra el resultado de este trabajo mediante la interfaz de usuario lograda, se debe mencionar que se hace necesario el uso de un controlador MIDI para interactuar con la misma, ya que este controlador envía la información MIDI necesaria para su correcto funcionamiento.

En la parte derecha superior se encuentra el control general donde se enciende o apaga el instrumento virtual, además de su control de ganancia, al lado izquierdo se seleccionan todos los parámetros de la síntesis FM; en la parte inferior se visualizan los valores de frecuencia moduladora y portadora además de las envolventes para cada una de las cinco voces de este sintetizador, finalmente en el centro se observan los gráficos de espectro y forma de onda.

Figura 1. Interfaz de usuario

Page 37: SONAC 2014

36

A continuación en la figura 2 se presenta el patch principal, donde se observan los bloques de programación que se repiten para cada voz y dentro de estos un subpatch denominado MINI que contiene la síntesis.

Figura 2. Patch principal

B. Elementos de síntesis FM con las características del número áureo y la serie de Fibonacci en su diseño.

Para los osciladores se han definido cinco formas de onda: sinusoidal, triangular, rectangular, diente de sierra y Fibonacci, ya que exceptuando la primera, se trata de formas de ondas con frecuencia fundamental y armónicos los cuales al interactuar mediante FM crearán espectros más complejos y por lo tanto se podrán crear timbres también más complejos. La forma de onda Fibonacci (figura 3) es un conjunto de formas de onda sinusoidales que representan una frecuencia fundamental y sus armónicos donde la relación sigue la serie de Fibonacci y la amplitud de éstos está calculado por la fórmula 1/Φ + n como se muestra en la tabla 1.

Figura 3. Forma de onda Fibonacci

Tabla 1. Forma de onda Fibonacci

Sobretono (n) 1 2 3 5 8 13 21 34

Amplitud 0.5 0.27 0.21 0.15 0.10 0.06 0.04 0.02

La programación consiste en un umenu que permite seleccionar la forma deseada y dentro del subpatch “Formas de onda” se produce la señal correcta como se nota en la figura 4.

Figura 4. Programación de las formas de onda

Para el caso de la forma de onda Fibonacci la programación se observa en la figura 5.

Figura 5. Programación de la forma de onda Fibonacci

Para la afinación se utilizó el sistema de Chowning (2008) donde se presenta un sistema basado en Phi para crear una pseudo octava de 10 semitonos, a continuación usando el mismo método, se crearon cinco sistemas de 12 a 8 semitonos que por su propia naturaleza son diferentes entre sí y que al ser integrados con el protocolo MIDI poseen frecuencias máximas asignables distintas como se observa en la tabla 2.

Tabla 2. Frecuencias máximas asignables para los cinco tipos de afinación

Cantidad semitonos (n) Frec. máxima (Hz)

12 3330.191

11 5271.780

10 9148.358

9 17944.3

8 41653.76

La programación usa nuevamente un umenu para la selección de la afinación deseada y el subpatch “Afinación” cargará la base de datos correcta al objeto coll, tal como se muestra en la figura 6.

Page 38: SONAC 2014

37

Figura 6. Programación de la afinación

Con respecto a la envolvente, esta es definida gracias al objeto function donde los valores de velocidad son utilizados para calcular el rango y dominio de dicho objeto o lo que es lo mismo la amplitud y el tiempo respectivamente.

Para el primer caso se utiliza la fórmula: Velocidad MIDI * 0.618… y luego estos valores se escalan entre 0 y 1 ya queestos son los datos que acepta Max/MSP como válidos para el rango. El dominio se calcula usando: Velocidad MIDI^1.618… de tal forma que el valor máximo que se alcanza es 2,5 segundos para las tres primeras etapas de la envolvente (ADS) y 2.5 segundos más para el relajamiento (R).

Para entender el comportamiento de la envolvente, cuyo diagrama de flujo se representa en la figura 7 y su programación en la figura 8, se debe comprender que, cuando una tecla del controlador MIDI que se encuentre conectado al patch es presionada, se envía un mensaje con un valor de velocidad distinto de 0 y al soltar la tecla se remite un valor de 0; la envolvente definida mediante un objeto function debe gatillar el ADS cuando la nota es presionada y el relajamiento debe gatillarse al enviarse el valor de 0, es decir, cuando la tecla deja de ser tocada, entonces se hace uso del objeto select para direccionar el valor de velocidad cuando es distinto de cero o no. En el primer caso, la velocidad atraviesa el objeto trigger que envía simultáneamente un bang (b) y dos mensajes de números enteros (i) y que son el mismo valor de velocidad pero destinados a dos salidas distintas, una de ellas contiene las expresiones matemáticas para calcular los datos del rango o eje “y” de function mediante dos objetos consecutivos expr; la segunda salida realiza el mismo proceso anterior pero para obtener los valores del eje “x” o dominio, es por ello que ambas salidas se dirigen a los mensajes range y domain respectivos, que al dirigirse a la entrada de function definen las dimensiones de este objeto. Entonces, la señal bang junto con los mensajes range y domain fijan las dimensiones del objeto function. Al definir

una forma de envolvente en dicho objeto se crean una lista de puntos que es enviada por la segunda salida del objeto hacia line~ el cual crea la envolvente ADS. Una observación a tomar en cuenta es que si el punto final de la envolvente es distinto del valor máximo en x, además de ser 0 en el eje y (0, máximo x), es posible mantener presionada la tecla y el valor de sostenimiento seguirá tanto como sea el tiempo que se mantenga la tecla presionada, consecuentemente la envolvente en sus primeras 3 etapas puede superar el valor de 2,5 segundos definida en un inicio.

Para el caso del release solo se necesita definir un valor de duración que en este caso es el mismo que se genera para el mensaje domain, por lo tanto, se envía el mismo valor al mensaje size del dial o potenciómetro; el valor que se le asigne a este potenciómetro se dirige al mensaje 0. $1 el cual es gatillado solamente cuando la velocidad es igual a 0, finalmente la salida de este mensaje es enviado al mismo objeto line~ usado en la envolvente ADS, esto para ahorrar recursos ya que nunca sucederá que tanto el mensaje de ADS y release lleguen al mismo tiempo.

Figura 7. Diagrama de flujo de la envolvente

Figura 8. Programación de la envolvente

El índice de modulación (MI), que define la amplitud de los componentes laterales producto de la síntesis FM, utiliza un knob para enviar valores de 0 a 127 y calcular su valor siguiendo la ecuación: Valor MIDI x Phi. Para la programación simplemente se hace uso de un dial que produce los valores de 0 a 127 y que ingresan al objeto expr que posee la ecuación para el cálculo de los valores

Page 39: SONAC 2014

38

adecuados como se aprecia en la figura 9.

Figura 9. Programación del índice de modulación (MI)

La razón de armonicidad (HR), que define la relación armónica (número entero) o no armónica (número no entero) de los componentes laterales, está precisada como la frecuencia moduladora sobre la frecuencia portadora o lo que es lo mismo: fm/fc, sin embargo, en la síntesis los valores asignables son HR y fc y que se multiplican para obtener la fm; por ello el caso de la razón de armonicidad es especial ya que se debe tomar los valores correctos de HR que no invaliden el diseño de afinación previamente definido. Como solución a esto se han usado los valores de frecuencia ya definidos y se han calculado todos los valores posibles de HR; como resultado se obtuvieron 1265 datos que se pudieron reducir a 177 al expresarlos con tres cifras significativas. De ellos se tomaron 144 que es un valor de la serie de Fibonacci que más se acerca al 128 del protocolo MIDI, finalmente se los distribuyó en dos tablas de datos de 89 y 55 valores nuevamente valores de la serie de Fibonacci.

Cada valor de HR posee una codificación ya que algunos valores estaban presentes en todas las afinaciones y otros solamente en dos, tres, o cuatro. Se contaron estas combinaciones para luego distribuirlas en cada tabla mediante el valor Phi, como se observa en la tabla 3.

Tabla 3. Distribución de los HR para dos tablas a y b

Codificación # Combinaciones Valor áureo Tabla a Tabla b

12, 11, 10, 9, 8 31 19,158 19 12

12, 11, 10, 9 7 4,326 4 3

12, 11, 10, 8 1 0,618 1 0

12, 10, 9, 8 3 1,854 2 1

12, 11, 10 6 3,708 4 2

12, 10, 9 2 1,236 1 1

12, 10, 8 13 8,034 8 5

12, 10 46 28,428 28 18

11, 9, 8 3 1,854 2 1

12, 9 10 6,18 6 4

12, 8 10 6,18 6 4

11, 9 4 2,472 3 1

11, 8 5 3,09 3 2

9, 8 3 1,854 2 1

TOTAL 144 - 89 55

La programación de este elemento es igual a la usada para la afinación.

C. Programación de la síntesis FM.

A continuación se explica el funcionamiento del patch de programación. Como ya ha sido mencionado, en primer lugar, existen como parámetros seleccionables: afinación, forma de onda portadora, forma de onda moduladora, razón de armonicidad. Así también existen valores regulables que son: índice de modulación, razón de armonicidad, release, envolvente y ganancia.

En la figura 10 se visualiza cómo la nota MIDI que proviene del objeto notein (1) ingresa al objeto coll (2) del segmento de la señal portadora para ser buscado en la base de datos de la afinación previamente elegida y enviar el valor de frecuencia correcto hacia la entrada izquierda de un objeto *~1. el cual también recibe en su entrada derecha el valor de Harmonicity Ratio (3) y por lo tanto, se produce una multiplicación de la frecuencia portadora y del HR que al estar definido como fm/fc generará en su salida la señal correspondiente a la moduladora.

Figura 10. Programación para la obtención de la frecuencia moduladora y su forma de onda

El valor de fm (4) ingresa al subpatch que define la forma de onda de la señal moduladora y es así que en su salida existe la señal, sen (fm), (5) (para efectos del caso se ha supuesto que se ha elegido una señal sinusoidal).

El MI definido como am/fm (1) se multiplica con la envolvente (2), tal como se observa en la figura 11 a través de un objeto *~1., esto para obtener un espectro dinámico, es decir, que el índice de modulación varíe de acuerdo a la forma de la envolvente. No obstante, la salida del objeto *~1. sigue siendo el índice de modulación, en otras palabras, continúa estando definido como: am/fm. Luego, esta señal esmezclada con un nuevo *~ a la señal de fm (3) para obtener como resultado la amplitud de la señal moduladora am (4)

4

3 = HR

5 = sen2 =

fc * =

1

Not

Page 40: SONAC 2014

39

Figura 11. Obtención de la amplitud de la señal moduladora

am

Se multiplican nuevamente las señales de la amplitud am (1) y la forma de onda sen (fm) (2) para obtener la señal moduladora completa, am * sen (fm) (3), esto se visualiza en la figura 12.

Figura 12. Programación para la obtención de la señal moduladora final

En la figura 13 se puede ver cómo se suman la frecuencia portadora (1) y la señal moduladora (2) mediante un objeto +~ cuya salida ingresa al subpatch “Formas de Onda” correspondiente a la señal portadora para elegir la forma de onda deseada (3). Inmediatamente, se multiplica la señal final junto con la envolvente, que en este caso sí define la amplitud de toda la señal (5) y se consigue la señal modulada en frecuencia. Finalmente, toda la señal es controlada por un objeto gain (6) que envía la información al objeto ezdac~ que reproduce el sonido.

Figura 13. Programación para la obtención de la señal modulada

III. ANÁLISIS DE RESULTADOS1) Resultados y análisis de la afinación: Se puede observaren Anexo 1 que solamente para el caso de la afinación 12 el inicio de la octava temperada coincide con la del sistema basado en Phi (recuadros blancos), en los demás casos existe un desplazamiento de los valores, siendo así que por ejemplo para el inicio de la primera pseudo octava (34.442 Hz) de la afinación 8, en el sistema temperado apenas se encuentra en Sol#.

Esto significa que para cada afinación las frecuencias bases serán notas distintas y en un solo caso, en la afinación 12, será siempre Do, para la afinación 11 las frecuencias bases, desde la más baja hasta la más alta, se encontrarán en: Si, La#, La, Sol#, Sol, Fa#, Fa, Mi, Re#, Re y Do#. Siguiendo el mismo orden, para la afinación 10, las frecuencias bases estarán en: La#, Sol#, Fa#, Mi, Re, Do para volver a repetir la secuencia una vez más. Para la afinación 9 serán: La, Fa#, Re#, Do y repitiéndose esto dos veces más. En último lugar para la afinación 8 se tendrá: Sol#, Mi, Do para repetirse cuatro veces.

Con respecto a la frecuencia también existe un desplazamiento y es por ello que, entre una afinación y la subsiguiente se percibe un aumento en la frecuencia, por ejemplo si se toca la nota La4 (440 Hz en la escala temperada) con la afinación 12 se produce una nota de 209.3 Hz y la misma nota en la afinación 9 será 448.42 Hz, es decir, una diferencia mayor a dos, claramente notable.

Sin embargo, esto no se considera un impedimento en la interpretación musical ya que en la mayoría de los casos, al igual que un intérprete que tocara un piano que posee una única afinación, la persona manejando el instrumento querrá mantener una sola afinación. Independientemente de las coincidencias o no de las frecuencias bases para cada

Page 41: SONAC 2014

40

afinación, el programa trabaja con un teclado MIDI y por lo tanto se ve siempre ligado a poseer doce notas para cada escala.

Para hacer un análisis de los intervalos producidos por el programa se han transformado los valores de los semitonos para cada afinación en cents y se obtiene la tabla 5.

Tabla 5. Intervalos en cents para cada afinación Afinación

# Nota en la 8va 12 11 10 9 8

1 69,424 75,735 83,309 92,566 104,136

2 138,848 151,471 166,618 185,131 208,273

3 208,273 227,206 249,927 277,697 312,409

4 277,697 302,942 333,236 370,262 416,545

5 347,121 378,677 416,545 462,828 520,681

6 416,545 454,413 499,854 555,394 624,818

7 485,969 530,148 583,163 647,959 728,954

8 555,394 605,884 666,472 740,525 833,090

9 624,818 681,619 749,781 833,090 937,227

10 694,242 757,355 833,090 925,656 1041,363

11 763,666 833,090 916,399 1018,221 1145,499

12 833,090 908,826 999,708 1110,787 1249,635

Existen algunos datos aproximados a los de la escala temperada pero que jamás son exactamente los mismos. Ya que la afinación 12 tiene una distancia entre una frecuencia y la siguiente de 69.424 cents, es decir, menor a un semitono, en este caso a pesar de la coincidencia de frecuencias bases mencionada anteriormente, auditivamente no pueden percibirse los intervalos clásicos ni la consecución de la octava, ya que entre la primera y la doceava nota de esta octava apenas existen 833.09 cents que es un valor intermedio entre una sexta menor y una mayor. Por otro lado, para la afinación original del trabajo de John Chowning (1973) la distancia entre la primera y la doceava nota (y que sea dicho nuevamente, no coinciden con las frecuencias bases) es de 1110.787 cents valor cercano a 1200 para la escala temperada, razón por la cual, auditivamente la relación de intervalos resulta muy similar para una persona con audición entrenada promedio.

2) Resultados y análisis de los índices de armonicidad ymodulación: Se ha realizado un análisis matemático para uno de los casos más simples, donde tanto la forma de onda portadora y moduladora son señales sinusoidales.

En esta oportunidad, se han realizado cálculos para los cinco primeros sobretonos y no se han utilizado cada una de las frecuencias existentes en el programa ya que es posible generalizar algunos comportamientos, así:

- Para todos los valores de HR, el espectro producido es inarmónico, a excepción del valor 1, que claramente produce la misma frecuencia portadora y moduladora y por ello, los sobretonos guardan relación de número entero.

- Mientras aumenta el HR, también aumenta la frecuencia moduladora y por lo tanto, sucede lo mismo con las frecuencias de los sobretonos.

- Si el HR es menor a 1, los sobretonos con n negativo son siempre positivos, si el HR es 1, n= -1 es 0 Hz y cuando el HR es mayor a 1, los sobretonos con n negativo son frecuencias negativas.

- Al calcular las distancias entre un sobretono y el siguiente, se observa que la relación que guardan está dada por la fórmula:

En algunos casos los resultados de frecuencia resultan negativos lo que significa solamente que el componente tiene la fase invertida. En el caso donde los componentes tienen el mismo valor de frecuencia pero con signos distintos, el valor negativo debe ser tomado como una frecuencia normal y se deben sumar las amplitudes de ambos.

Recordando que el MI determina la amplitud de los componentes laterales de la señal modulada, se han calculado dichas amplitudes de acuerdo a lo presentado en el trabajo de John Chowning, utilizando funciones de Bessel de primera especie y orden n, cuyo argumento es el índice de modulación o MI.

De esta forma, se han calculado las amplitudes (en un rango de 0 a 1) de los cinco primeros armónicos para cada uno de los valores diseñados para el índice de modulación. Cuando este índice es cero, el único componente con amplitud será la frecuencia portadora y por lo tanto es indiscutible que no existe modulación alguna y cabe mencionar que mientras este índice aumenta, será mayor la cantidad de componentes espectrales con amplitud significativa, tal como lo muestran las figuras 14 y 15.

Figura 14. MI con valor 0

0

2

-5 -4 -3 -2 -1 0 1 2 3 4 5

MI = 0

MI = 0

Page 42: SONAC 2014

41

Figura 15. MI con valor máximo

Se percibe que existen valores negativos de amplitud, al igual que las frecuencias esto representa que existe una inversión en la fase.

Luego, se presentan los espectros de muestras de audio creadas por el sintetizador. Todos los archivos de audio poseen el formato aiff, una frecuencia de muestreo de 44100 Hz y 16 bits de profundidad.

En la figura 16 se muestra el espectro del archivo de audio HR1000a.aif cuya configuración fue: una frecuencia portadora de 1000 Hz, un HR de 0.001 y MI de 0. De acuerdo a lo indicado, no existe modulación y por lo tanto el único valor presente es el del componente cero o lo que es lo mismo la frecuencia portadora.

Figura 16. Espectro de la muestra de audio HR1000a.aif

Luego, se muestra el espectro del archivo de audio HR21b.aif cuya configuración fue: 21.86 Hz para la frecuencia portadora, 1 para el HR y 1.618 para el MI. Se espera que el espectro sea armónico debido al valor de HR igual a 1, sin embargo, se observa un fenómeno particular en esta forma de onda (véase figura 17) y es que debido a que la frecuencia moduladora es también 21.286 Hz y es un valor bajo de frecuencia, más allá de producirse sobretonos, se crea una distorsión en los ciclos individuales de la señal portadora.

Figura 15. Espectro de la muestra de audio HR21b.aif

En la figura 18 se visualiza el espectrograma del archivo de audio HR21d.aif cuyas características son que la frecuencia portadora es 21.86 Hz, el HR es el máximo asignable 9.833 y el MI 1.618. Nótese que, solamente el valor de HR ha cambiado con respecto a la muestra HR21b.aif, sin embargo, se puede distinguir que el efecto de distorsión mencionado ya no está presente, pero si los componentes laterales y esto es debido a que con el valor de HR asignado, se generará una frecuencia moduladora que alcanza 209.305 Hz y por lo tanto los componentes laterales están más espaciados, además debido a que el valor de índice de modulación es aún pequeño, los componentes superiores al sobretono cinco no están presentes. Cabe señalar que este espectro es inarmónico.

Figura 18. Espectro de la muestra de audio HR21d.aif La figura 19 muestra el gráfico para el archivo HR1618b.aif con una frecuencia portadora de 1618 Hz, HR de 1 y MI de 1.618, en este caso, el espectro si es armónico, el valor de 0 Hz (aunque se extiende más allá de este) también se encuentra presente y en estos casos se lo denomina DC offset. Nótese que debido a que el MI es distinto de cero, los componentes laterales ya están presentes, es decir, existe modulación, no obstante, por el hecho de que este índice posee un valor pequeño, el armónico de 8090.1 Hz tiene escasa amplitud y los sobretonos de orden mayor ni siquiera están presentes.

-0,1000

0,0000

0,1000

-5-4-3-2-1 0 1 2 3 4 5

MI = 205.49

MI = 205.49

Page 43: SONAC 2014

42

Figura 19. Espectro de la muestra de audio HR1618b.aif

El siguiente espectro a ser analizado fue el de la muestra HR1618d.aif, donde muchas de las frecuencias laterales están fuera del límite de 22050 Hz y por lo tanto se produce un efecto aliasing y por ello las frecuencias mostradas en la figura 20 no coinciden con dicha tabla, sin embargo, han sido calculadas las frecuencias de aliasing y se obtiene la siguiente tabla de valores:

Tabla 6. Frecuencia originales y de aliasing del archivo HR1618d.aif

Original Aliasing

Sobretonos (Hz)

-5 77930,97 33830,97 -4 62021,18 17921,18 -3 46111,38 2011,38 -2 30201,59 13898,41 -1 14291,79 14291,79 0 1618,00 1618,00 1 17527,79 17527,79 2 33437,59 10662,41 3 49347,38 5247,38 4 65257,18 21157,18 5 81166,97 37066,97

Se puede ver que estas frecuencias si concuerdan con el espectro mostrado en las figuras 20 y 21.

Figura 20. Espectro de la muestra de audio HR1618d.aif

Figura 21. Espectro de la muestra de audio HR1618d.aif

Para la demostración del funcionamiento del índice de modulación, se ha utilizado una configuración muy similar a la del archivo de audio HR1618b.aif pero con un incremento en el MI a 27.506, un harmonicity ratio de 1 y una frecuencia portadora de 1618 Hz. Este audio que recibió el nombre de Simple2.aif se muestra en la figura 22, adviértase que aún está presente el DC offset pero es evidente que existen mayor cantidad de componentes laterales lo que corrobora que mientras mayor es el grado de MI es posible otorgar de amplitud significativa a mayor cantidad de frecuencias laterales. Por último se ha utilizado un índice de modulación máximo, es decir de 205.49, para una señal que por lo demás, es exactamente igual (Simplemax.aif) y en la figura 23 se visualiza que es aún mayor la cantidad de componentes espectrales.

Figura 22. Espectro de la muestra de audio Simple2.aif

Figura 23. Espectro de la muestra de audio Simplemax.aif

Page 44: SONAC 2014

43

Seguidamente, se presentarán los resultados obtenidos con dos configuraciones diferentes que utilizan las otras formas de ondas elegibles en el programa.

El primer archivo de audio se denomina Preset4.aif y utiliza una señal portadora Fibonacci de 1000 Hz, una moduladora triangular, un HR de 0.007 y un índice de modulación de 205.49. La figura 24 muestra el espectrograma de la señal cuya forma es muy particular, auditivamente esta muestra se percibe claramente como un vibrato que se produce porque la señal moduladora tendrá un valor de 7 Hz y por lo tanto se origina esta variación en la frecuencia que define a un vibrato; el valor MI controla la cantidad de desviación desde la frecuencia central, por lo que si el valor es grande, como en este caso, la desviación es mayor y el vibrato es evidente ya que el desplazamiento es aproximadamente desde 500 Hz hasta 1300 Hz.

Figura 24. Espectro de la muestra de audio Preset4.aif

La siguiente y última muestra de audio denominada Preset7.aif tiene una señal portadora Fibonacci y una moduladora diente de sierra, un índice de armonicidad de 0.825 y un índice de modulación 46.68, además no se define el valor de nota de la señal portadora ya que fueron presionadas cinco notas al azar y al mismo tiempo. En esta oportunidad ya que ambas formas de ondas poseen varios armónicos, los cuales interactúan entre sí, sumado a que por la modulación en frecuencia se generan nuevos armónicos y son cinco las notas presionadas, un valor de MI medio que probablemente otorgará de amplitud significativa a los sobretonos mayores a cinco, el resultado final auditivamente es un señal de ruido, por ello se puede observar en la figura 25 la gran carga armónica del espectro con un comportamiento aleatorio en la aparición de los componentes lo que es característico del ruido.

Figura 25. Espectro de la muestra de audio Preset7.aif

IV. CONCLUSIONES

A través de la elección de un tipo de síntesis y los elementos necesarios y/o básicos es posible implementar un método de síntesis donde el diseño esté basado en la proporción áurea y la serie de Fibonacci; además, el entorno de programación Max/MSP permitió la implementación de los elementos con su diseño particular y de la síntesis en general, mientras al mismo tiempo dotó de una interfaz gráfica para que el usuario pueda manipular el instrumento junto con una superficie de control MIDI.

La síntesis FM permite obtener resultados espectrales complejos con una programación relativamente factible; se han utilizado solamente dos osciladores y los resultados obtenidos fueron amplios, con formas de ondas desde sinusoidales o puras hasta espectros armónicos complejos como ruido.

Las formas de ondas utilizadas dotan al sintetizador de diferentes opciones a elegir, entregándole al mismo tiempo mayores capacidades sonoras así como de experimentación que derivan en la posibilidad de obtener mayor cantidad de timbres y efectos sonoros.

El índice de armonicidad modela en cierto grado el espectro de la señal, al definir la frecuencia de la señal moduladora a ser producida y en consecuencia las relaciones armónicas o inarmónicas con los parciales derivados de la modulación por frecuencia, así también, el índice de modulación modela la señal al definir la amplitud significativa de dichos sobretonos, sin embargo, el comportamiento de estos elementos no pueden asemejar el proceder de un filtro.

El programa posee un único espectro armónico que sucede cuando el índice de armonicidad es uno.

Al definir el ADS mediante el objeto function como parte de su programación, éste puede ser configurado con envolventes más complejas que permiten al sintetizador tener mayores posibilidades de creación de timbres.

El sintetizador sin duda alguna podría mejorar su capacidad o desempeño como instrumento musical al aumentar lacantidad de voces.

Se ha logrado presentar un sistema que mantiene similitudes con el sistema tradicional ya sea por razones técnicas como el uso de un controlador MIDI o musicales tal como la notación musical pero que simultáneamente en cierto punto se aleja de lo convencional; al presentar un diseño diferente se podría tomar por un lado, como un aspecto negativo al argumentar que no es necesario entregar un sistema nuevo ya que eso involucra que el instrumento probablemente no podrá ser incluido en la música o la producción musical de manera tan simple, pero los argumentos a favor señalan que en definitiva, al músico, productor, ingeniero, aficionado, o usuario en general, se le está presentando un nuevo sistema para la experimentación musical, un trabajo que se separa un poco de los cánones vastamente conocidos por la gente, para llevarlos a definir de una forma distinta la expresión de su arte.

Page 45: SONAC 2014

44

REFERENCIAS

1) Chowning, J. (1973). The Synthesis of Complex AudioSpectra by Means of Frequency Modulation, J. AudioEng. Soc. 7 (21.), 526-534. Obtenido dehttps://ccrma.stanford.edu/sites/default/files/user/jc/fmsynthesispaperfinal_1.pdf

2) Chowning, J. (2008). Fifty Years of Computer Music:Ideas of the Past Speak to the Future. Obtenido de

https://ccrma.stanford.edu/sites/default/files/user/jc/SpringerPub3_0.pdf

3) Manning, P. (2004). Electronic and computer music[Versión Digital PDF] (Edición revisada y ampliada). Nueva York, Estados Unidos: Oxford University Press.

Anexo 1. Notación musical del sistema temperado y las frecuencias calculadas bajo el sistema Phi.

Do Do# Re Re# Mi Fa Fa# Sol Sol# La La# Si

12 21,286 22,157 23,064 24,007 24,990 26,012 27,077 28,184 29,338 30,538 31,787 33,088

11 21,286 22,238 23,233 24,271 25,357 26,491 27,675 28,913 30,206 31,556 32,968 34,442

10 21,286 22,336 23,437 24,592 25,804 27,077 28,411 29,812 31,282 32,824 34,442 36,140

9 21,286 22,455 23,689 24,990 26,362 27,810 29,338 30,949 32,649 34,442 36,334 38,329

8 21,286 22,606 24,007 25,496 27,077 28,755 30,538 32,431 34,442 36,577 38,845 41,253

12 34,442 35,851 37,318 38,845 40,434 42,089 43,811 45,603 47,469 49,411 51,433 53,538

11 35,982 37,591 39,272 41,028 42,863 44,780 46,782 48,874 51,059 53,343 55,728 58,220

10 37,921 39,791 41,752 43,811 45,970 48,237 50,615 53,110 55,728 58,475 61,358 64,383

9 40,434 42,655 44,998 47,469 50,076 52,827 55,728 58,789 62,018 65,424 69,017 72,808

8 43,811 46,527 49,411 52,475 55,728 59,183 62,852 66,749 70,887 75,282 79,949 84,906

12 55,728 58,008 60,382 62,852 65,424 68,101 70,887 73,788 76,807 79,949 83,221 86,626

11 60,824 63,543 66,85 69,354 72,455 75,695 79,080 82,616 86,310 90,170 94,202 98,415

10 67,557 70,887 74,382 78,049 81,896 85,934 90,170 94,615 99,279 104,174 109,309 114,698

9 76,807 81,025 85,75 90,170 95,122 100,347 105,858 111,672 117,806 124,276 131,102 138,302

8 90,170 95,760 101,697 108,002 114,698 121,809 129,361 137,381 145,898 154,943 164,549 174,751

12 90,170 93,859 97,00 101,697 105,858 110,189 114,698 119,391 124,276 129,361 134,654 140,163

11 102,815 107,413 112,216 117,234 122,477 127,954 133,675 139,653 145,898 152,422 159,238 166,359

10 120,352 126,285 132,511 139,043 145,898 153,090 160,638 168,557 176,866 185,585 194,734 204,334

9 145,898 153,911 162,365 171,282 180,689 190,614 201,083 212,127 223,777 236,068 249,034 262,711

8 185,585 197,091 209,310 222,287 236,068 250,704 266,247 282,753 300,283 318,900 338,671 359,668

Page 46: SONAC 2014

45

DISEÑO Y CONSTRUCCIÓN DE UN CONTROLADOR MIDI UTILIZANDO

DISTINTOS COMPONENTES DE CONTROL FÍSICOS

R O B E R T O V Á S Q U E ZUniversidad de las Américas, Ecuador, Quito.

[email protected]

Youtube: Bobynator / MIDI Controller Demo

RESUMEN: Utilizados en la producción musical como instrumentos musicales e interfaces de control, en interpretaciones en vivo tanto para audio y video como para el manejo de luces en un escenario, los controladores MIDI han tenido un amplio crecimiento en la industria musical desde el lanzamiento de la norma MIDI. Este trabajo busca brindar los conocimientos necesarios para diseñar y construir un controlador con varios sensores y componentes de control. Identificando los componentes electrónicos necesarios para su construcción, proponiendo una manera de realizar la conexión entre estos y finalmente, detallando la programación utilizada junto con programas y equipos de audio para obtener el funcionamiento exitoso del equipo.

Palabras claves: Controladores MIDI, norma MIDI, producción musical, electrónica, instrumentos musicales.

I. INTRODUCCIÓN La Interface Digital para Instrumentos Musicales o MIDI fue desarrollada como un protocolo de comunicación serial entre computadores, sintetizadores y otros dispositivos electrónicos para comunicarse entre sí y generar sonidos.

Los controladores MIDI son dispositivos que generan información en lenguaje MIDI de cada acción de interpretación musical que se realice y la envían hacia un módulo o software para que transforme estos mensajes en señales de audio. Hoy en día se construyen controladores en forma de todo tipo de instrumentos musicales

Los distintos controles utilizados en estos dispositivos, ya sea para interpretación como teclas, pads de percusión, o para modificación de parámetros como potenciómetros, han creado un sinfín de posibilidades al momento de interpretar música.

Esto se debe a que logran producir diferentes resultados al momento de generar sonidos y existe gran control para modificar sus parámetros. Estos controladores se siguen desarrollando actualmente, incorporando tecnología como sensores de todo tipo, para tener cada vez un mayor control interpretativo.

Objetivo General Diseñar y construir un controlador MIDI utilizando diferentes componentes controladores físicos, partiendo de un circuito denominado Cerebro.

Objetivos Específicos Identificar los componentes electrónicos necesarios para

la construcción del controlador de acuerdo a lascaracterísticas que se requieren obtener.

Determinar la programación de mensajes MIDIutilizando el software Brain Editor.

Desarrollar un diseño innovador juntando todos loscomponentes adquiridos en una sola superficie decontrol, de manera que permita una adecuada ejecucióny fácil interpretación musical del controlador.

Evaluar las capacidades de control sobre dispositivos enhardware y software del estudio de producción musicalde la Universidad de las Américas.

II. DISEÑO Y CONSTRUCCIÓN

A. Tarjeta Brain o Cerebro

Es el circuito principal del dispositivo. Esta tarjeta fabricada por la empresa Livid Instruments es la que recibe todas las conexiones y permite la comunicación con un computador para enviar y recibir mensajes MIDI.

Se alimenta por medio de una conexión USB y es clase-compatible, lo que significa que no necesitará instalación de ningún driver para su funcionamiento en cualquier sistema operativo. Posee 64 entradas analógicas, hasta 179 entradas digitales y hasta 48 para LEDs. Las conexiones se realizan por medio de cables de cinta de 10 pines.

B. Componentes Electrónicos

1) Sección de teclas: En esta etapa se decide tener 37 teclasde piano sensibles a la presión para lograr una buena

Page 47: SONAC 2014

46

expresión interpretativa. Debido al presupuesto del proyecto, se optó por teclas de menor tamaño.

Existen varias maneras de agregar la característica también conocida como velocity, agregando más botones en cada tecla, con sensores infrarrojos, táctiles, etc. Pero se decide por sensores de presión ya que resultó ser la manera más práctica y económica de implementarlo.

2) Rueda de Tono o Pitch Wheel: Para esta característica sedecide instalar un joystick. Este componente tiene un mecanismo parecido al de un Pitch Wheel, donde dos potenciómetros controlan el movimiento hacia arriba y hacia abajo y se añade un resorte para mantener el control en el centro. Este control tiene un movimiento más corto y sus potenciómetros son en dos ejes, vertical y horizontal.

3) Sección de Control de Mezcla: En esta sección se incluyecontroles básicos pensados para mezcla de canales y efectos. Dos faders grandes para control de nivel, uno como “Master Fader” y dos pequeños para crossfader y para envío de efectos. Se agrega ocho potenciómetros rotatorios y varios botones pulsadores para distintos usos.

4) Sección de Botones y Pads: Se incluyen 16 botonesiluminados los cuales se configuran 8 como controles y 8 como notas. Cuatro pads con sensores de presión para gatillar sonidos de percusión.

5) Sensores Táctil e Infrarrojo: El sensor infrarrojo calculala distancia entre la mano y el sensor utilizando luz infrarroja. De esta manera se puede controlar parámetros con movimientos leves sobre el sensor. El sensor táctil o touchstrip, funciona como potenciómetro que varía su resistencia dependiendo de dónde se sea presionado. Se escogió estos dos componentes porque no es muy común que se implementen en los controladores actualmente y de esta manera aportan algo de innovación al proyecto.

C. Diseño del Panel Se utiliza el programa AutoCAD 2010 para realizar el diseño ya que brinda bastante precisión para graficar y acotar las dimensiones de los dibujos en unidades adecuadas. Posteriormente se lleva el archivo para ser cortado a laser en un panel de madera.

Figura 1. Diseño final del panel frontal utilizando AutoCAD.

Figura 2. Dibujo de cortes frontal (Izq.), trasero y laterales (der.) realizado en AutoCAD.

La tarjeta Cerebro se atornilla a la pared posterior donde se perforaron los agujeros necesarios para las conexiones USB y MIDI. A continuación se muestra el compartimiento y el panel frontal luego del corte. Los componentes fueron colocados en el panel antes de terminar el acabado para tener una idea clara de las dimensiones y distancias exactas para realizar las conexiones.

Figura 3. Compartimiento y panel frontal fabricados en madera.

Finalmente se recubre la base de la caja con material imitación de cuero y se laca de color gris metálico el panel frontal para obtener el acabado final.

Figura 4. Aspecto final del dispositivo con los componentes instalados.

D. Conexiones y Esquemas Las conexiones en la tarjeta Cerebro se dividen en tres columnas principales: controles analógicos, botones y LEDs. Cada grupo es nombrado según su función, por ejemplo A1-A8 para analógicos, L1-L8 para LEDs y B1-B8 para botones.

Page 48: SONAC 2014

47

Figura 5. Conexiones de 10 pines para controles análogicos, LEDs y botones. Tomado de wiki.lividinstruments.com, 2013.

Todas las conexiones utilizan cables de cinta de diez pines y cada conector en la tarjeta tiene marcado el pin 1 con una flecha, que debe ser empatada con el pin 1 de los cables de cinta.

Para representar los circuitos electrónicos se utilizó dos programas, el uno Fritzing, de la empresa Interaction Design Labs para una representación más comprensiva y el otro, Proteus, de Labcenter Electronics utilizado más para el diseño de las placas de circuito impreso.

1) Controles Analógicos: Son todos los componentes queenvían una señal continua hacia la placa. Generalmente tienen tres pines: tierra, señal y voltaje. En esta sección del Cerebro, cada conector tiene sus dos primeros pines asignados para tierra (Pin1) y voltaje (Pin2), y sus ocho siguientes para las señales individuales. Cada grupo comparte su conexión de tierra y voltaje.

A estos controles analógicos se les añade un capacitor de 0.01uF entre la señal y tierra, que actúa como filtro pasa bajos para mejorar la respuesta de estos componentes.

Figura 6. Esquema electrónico para los potenciómetros elaborados en Fritzing.

El sensor infrarrojo y el táctil disponen de sus conectores de la misma manera, Pin 1 para el positivo, Pin 2 para señal y Pin 3 hacia tierra.

Figura 7. Disposición de pines para el potenciómetro Softpot. Tomado de www.sparkfun.com, 2013.

Figura 8. Disposición de pines en sensor infrarrojo Sharp. Tomado de www.sharpsma.com, 2014.

Para los sensores de presión, cada uno tiene dos conexiones, una va hacia el positivo o Pin2, la otra va hacia una entrada de señal (Pin3-8) y esta a su vez, pasando por una resistencia de 10kOhms, es conectada a tierra (Pin1).

En el caso del joystick, al tener dos ejes, se tiene una señal analógica tanto para el movimiento horizontal como el vertical.

Una vez claros los circuitos y componentes necesarios, se procedió a trabajar con las placas impresas. En algunos casos se utilizó placas pre fabricadas adquiridas junto con los componentes, como en el ejemplo del control de joystick. En otros casos se elaboró el diseño de estas para posteriormente hacerlas imprimir.

Para los primeros 16 controles analógicos, es decir los ocho potenciómetros rotatorios, cinco faders, dos de ambos ejes del joystick y el sensor infrarrojo, se utilizó una placa “Omni Board” de Livid Instruments. En esta se marca con verde las conexiones de tierra, señal y voltaje, y o café los hoyos para capacitores, como se puede apreciar en la figura 9.

Page 49: SONAC 2014

48

Figura 9. Placa Omni Board de la empresa Livid Instruments. Tomado de wiki.lividinstruments.com, 2013.

Una vez conectada dicha placa, se procede con el diseño de dos placas más para el resto de controles analógicos, que incluyen los drum pads, control de touchstrip, y los 37 sensores de presión para las teclas de piano. El requisito que solicitan las empresas donde fabrican placas de circuitos es que el diseño se construya en el programa Proteus. Así que se utilizó la versión 8 de Proteus y su complementario Ares para diseñar las placas requeridas.

Figura 10. Esquema de placas para conexiones analógicas realizado en Ares.

Los pines marcados GND y V+ son para las conexiones de cables de cinta, cable 1 y 2 respectivamente. Los pines marcados del 1 al 16, son para los ocho cables restantes de cada cable de cinta.

Siendo teclas y drum pads los controles analógicos que faltan por conectar, es decir, resistencias sensibles a la presión, todos van conectados de la siguiente manera. Todos tienen dos terminales, una que se suelda al pin conectado a V+ y la otra al pin adyacente marcado desde J1 a J16. Estos a su vez están conectados a R1-R16 donde se fija una resistencia de 10kOhms para completar el circuito.

Este procedimiento se efectúa para las siguientes placas hasta completar las 37 teclas, de la misma manera para los cuatro drum pads a excepción del control de touchstrip, al que se lo conecta de la misma manera pero no se agrega la resistencia. En su lugar se suelda un capacitor de 0.01uF y la terminal de tierra del componente se conecta a un pin disponible de los conectados a GND en la placa. Terminado dicho proceso, se conectan los cables de cinta a la tarjeta Cerebro, en los conectores analógicos restantes.

La implementación del control de velocity en el teclado fue la etapa más complicada del proyecto. En este caso se buscó implementar la función sin aumentar demasiado el costo general del proyecto. Ya que al utilizar un sensor completo en cada una de las 37 teclas hubiera significado un gasto considerable, se utilizó cortes pequeños de un solo sensor de presión largo y se adaptó cables a cada uno para colocarlo bajo el mecanismo de teclas adquirido.

Se colocó un cable a cada extremo de la lámina de electrodos impresos. Estos no podían ser soldados el uno con el otro ya que se corría el riesgo de quemar la lámina y dañar el sensor, de manera que todos los cables fueron adheridos a la placa para limitar su movimiento. La tira de botones de goma es colocada encima de los sensores y todo el sistema es atornillado debajo del teclado para ser accionado por las teclas.

2) Matriz de Botones: La tarjeta soporta 16 botones por cadaconector. Todo debe ir conectado en forma de matriz. En la Figura 11 se aprecia la disposición de los pines. Los dos primeros son columnas BC1 y BC2, los demás son filas, creando una matriz de 2x8 (2 columnas, 8 filas).

Figura 11. Disposición de pines en sección de botones del cerebro.

La tarjeta incluye una resistencia en cada grupo conectada a tierra para descargar rápidamente el voltaje. Además, se debe añadir diodos de señal para controlar la dirección de la corriente en el circuito, lo cual es muy importante para mantener una sola dirección en la matriz. En este caso se utilizó diodos 1N4148.

La matriz se conecta según la Figura 12. Un extremo del botón va conectado a una columna y el otro hacia el extremo positivo del diodo. Después se conecta el extremo negativo del diodo marcado con una franja, a una fila de la matriz y así sucesivamente la fila del botón 1 se conecta al botón 2 y

Page 50: SONAC 2014

49

la columna del diodo 1 hacia la columna del diodo 9 en la siguiente fila.

A continuación se muestra un ejemplo de una matriz de 2 columnas por 4 filas. Se utiliza la letra B para botón, D para diodo y R para resistencia.

Figura 12. Esquema de conexiones de una matriz de botones.

Con esta guía se diseñó una placa para los 14 botones del controlador que no incluyen luces LEDs.

La siguiente placa que se utilizó fue la “Push Board” de Livid Instruments, fabricada especialmente para los botones transparentes que permiten incluir LEDs en su interior. Se adquirió 16 de estas placas agrupadas en cuatro grupos de cuatro. En la misma placa se conecta la matriz de botones y LEDs debajo del botón transparente. BR denota fila botón y BC columna botón.

Figura 13. Gráfico de conexiones en placas para matriz de botones.

3) Matriz de LEDs: De la misma manera, las conexionespara LEDs deben ser en matrices. En este caso, la matriz de LEDs tiene 4 columnas por 6 filas, dando un total de 24 LEDs en cada grupo. Se conecta de la misma manera que la matriz de botones, con la diferencia de que en este caso, la polaridad de los LEDs si es importante.

En la tarjeta Cerebro, los primeros cuatro pines son columnas y los siguientes seis son filas. El extremo positivo del LED, identificado por el terminal más largo, se conecta a una columna y el terminal negativo va a una fila.

Los demás LEDs son acoplados a la misma columna por su terminal positivo y hacia el resto de filas por su terminal negativo. En el diseño, se tiene los 16 LEDs para cada botón transparente, y dos más al lado izquierdo para los controles de canal A y B. Los LEDs se conectan en las mismas placas

de los botones transparentes.

E. Programación En este apartado, se configura todos los controles y luces

LED, utilizando el programa Brain V2 Configure, para que envíen y reciban los mensajes MIDI adecuados. Este programa permite programar los mensajes MIDI de Cambio de Controlador (CC) y notas, de acuerdo al sensor y control que ha sido conectado. Esto hace que la programación sea mucho más rápida y simplificada.

Figura 14. Ventana de programación de mensajes MIDI. Tomado del software Brain V2 Configure.

Lo primero que se aprecia en el programa son sus tres secciones: Botones, LEDs y Analógicos, que representan las secciones de mismo nombre en la tarjeta Cerebro. Se empezó con la programación de los botones, donde se tienen las columnas “ID” para identificar donde están conectados los botones en la tarjeta. La columna “MIDI”, donde se ingresa el número del mensaje MIDI que se quiere enviar al presionar dicho botón. “Type” es para escoger el tipo de mensaje, si va a ser de controlador continuo (CC) o de nota. “Btn as toggle” permite escoger si el botón va a actuar como interruptor o no.

Page 51: SONAC 2014

50

En la sección LEDS se tiene la columna de identificación ID, MIDI para indicar que mensaje va a encender/apagar el LED y la columna Type para seleccionar si dicho mensaje es CC o nota. Cada LED debe tener un solo mensaje asignado a este, si existen varios mensajes asignados a un LED, el programa muestra un error.

Finalmente en la sección de ANALOGS se tiene de la misma manera, la columna de ID, “CC MIDI” donde se coloca el número del mensaje, “CC mode” donde se escoge si el mensaje es CC o Bend (para la función de Pitch Bend), “Note MIDI” para escoger el número de la nota que se va a enviar, Type para escoger el tipo de control o sensor que está conectado y Enable para activar o desactivar entradas analógicas que no se estén usando.

Para dichos controles analógicos, la columna Type permite seleccionar el modo en que responderán estos controles dependiendo del tipo de sensor que esté conectado. La siguiente tabla muestra los modos y sus características. El mínimo y máximo valor MIDI, también denominados piso y techo respectivamente, son ajustados por el programa para mejor funcionamiento de los controles.

Tabla 1. Modos de Configuración de Respuesta para Controles Analógicos. Modo Control o Sensor Característica

Pot Potenciómetros Respuesta lineal y solo mensajes CC.

Fsr1 Sensor de presión Piso alto, techo bajo, CC y notas.

Fsr2 Sensor de presión Piso alto, techo bajo, solo notas.

Fsr3 Sensor de presión Piso alto, techo bajo, solo CC.

Fsr4 Sensor de presión Piso alto, techo bajo, centro amplio CC notas.

Fsr5 Sensor de presión Piso alto, techo bajo, centro amplio solo notas.

Fsr6 Sensor de presión Piso alto, techo bajo, centro amplio solo CC.

Acc1 Acelerómetro Centro ajustado, CC y notas. Acc2 Acelerómetro Centro ajustado, solo notas. Acc3 Acelerómetro Centro ajustado, solo CC. Btn Botón digital Centro ajustado, solo notas.

Tomado de wiki.lividinstruments.com, 2013.

Para terminar, se asegura que las conexiones no utilizadas no estén activadas y se guarda la configuración en la tarjeta seleccionando la opción “Save to Brain”.

F. Asignación de Funciones En esta etapa se explica cómo se realizan las configuraciones del controlador en programas como Reason y Traktor para comprobar el funcionamiento del dispositivo.

Se escogió Reason ya que es un programa de producción musical utilizado en la UDLA, y se optó por usar el software Traktor Pro versión 2.6.2, ya que resultaba interesante evaluar su utilidad con un programa especializado en mezcla de audio en vivo. Para esta tarea es importante tener a disposición un diagrama con todos los mensajes MIDI que se están enviando.

En Reason, el primer paso es configurar el dispositivo para que el programa lo reconozca como controlador. Esto se realiza en la ventana de Preferencias, seleccionando la página de Teclados y Superficies de Control. Ahí, se agrega un nuevo dispositivo. En la lista de Marca se selecciona Otros, y en la de Modelo se escoge la opción MIDI Control Keyboard. Por último se selecciona como entrada MIDI: Brain2 que corresponde a la del controlador.

Figura 15. Ventana de configuración y asignación de controladores MIDI en Reason.

Terminados estos pasos, todos los botones y teclas enviando notas deben estar funcionando. Para asignar los demás controles a otros parámetros, se hace click derecho en el parámetro deseado, seleccionando la opción Edit Remote Override Mapping.

En la parte superior de la ventana se muestra el parámetro que se está configurando, en este caso la frecuencia del filtro en el instrumento NN-XT como muestra la Figura 15. Como Superficie de Control se debe escoger el nombre establecido para el dispositivo y a continuación se elige el número de CC o nota que va a modificar dicho parámetro. Este mismo procedimiento se realiza para el resto de controles físicos en el dispositivo.

En Traktor, de igual manera se comienza la configuración desde la ventana de Preferencias. En la pestaña de Administrador de Controladores es donde se realiza toda la configuración del controlador.

III. METODOLOGÍA DE EVALUACIÓN

Una vez terminada la fase de construcción y programación, se procede a evaluar el dispositivo. Para esta etapa se tuvo la opinión de tres personas especialistas en el ámbito musical

Page 52: SONAC 2014

51

que conozcan sobre controladores MIDI y tengan experiencia en su manejo, para que prueben el dispositivo y se pueda recopilar sus opiniones y comentarios al respecto.

Los estudios del controlador fueron en formato de entrevista, colocando una grabadora de voz y haciendo preguntas al encuestado mientras éste realiza las pruebas.

Las pruebas fueron realizadas en estudios de grabación, para considerar un ambiente real donde normalmente se usarían estos equipos. Los lugares que se ocuparon fueron las salas CR1 y CR2 de la UDLA y el estudio Delta de la empresa Magic Sound & Music.

Para las pruebas en hardware se decidió utilizar el módulo MOTIF Rack ES de Yamaha disponible en la sala CR1 del estudio de producción musical de la UDLA.

Se escogió a tres entrevistados entre productores musicales, ingenieros en sonido y músicos que estarían interesados en el producto ya sea para su trabajo o uso personal. Por facilidad y debido a la poca disponibilidad del equipo en hardware, dos de las pruebas se hicieron solamente en software.

El primer entrevistado es Enrique Vela. DJ profesional, músico y productor musical con cuatro años de experiencia tocando y mezclando en vivo. Actualmente trabaja en el estudio Magic Sound & Music como productor creativo. La entrevista es realizada en el mismo estudio de Magic Sound & Music utilizando Reason.

El segundo entrevistado es Juan Fernando Cifuentes. Productor musical, y licenciado en música contemporánea. Dueño de Diablo Quiteño Estudios. Actualmente profesor en la UDLA en las áreas de producción musical y entrenamiento auditivo. En este caso la entrevista tuvo lugar en la sala CR2 de la UDLA, utilizando Reason y Traktor.

Para las pruebas con el módulo de sonido MOTIF ES, se utilizó la sala CR1 de la UDLA conectando el controlador, por medio de USB, a la computadora como su fuente de poder. Después por medio de un cable MIDI, desde la salida MIDI OUT al conector MIDI IN del Yamaha MOTIF. El módulo de sonido MOTIF ya se encontraba conectado a las entradas de línea 13 y 14 de la consola del estudio, y de ésta, a los monitores, como indica la Figura 16.

Figura 16. Diagrama de conexiones para evaluación con el MOTIF ES.

Para estas pruebas, el tercer entrevistado fue el ingeniero Marco Salvador. Graduado de ingeniería en sonido y acústica, músico, productor y actualmente dueño de Mad Music, una empresa importadora de instrumentos y artículos musicales.

IV. RESULTADOS

A continuación se presenta los resultados obtenidos una vez finalizada la etapa de desarrollo del proyecto.

Figura 17. Gráfico comparativo de funcionamiento entre los controles.

Se agrupó los controles por tipo, identificando cuáles funcionan y cuáles no, y se obtuvo un porcentaje total de funcionamiento del dispositivo del 89,25%. Las secciones que presentaron problemas fueron las siguientes:

• Uno de cuatro pads, tuvo daños en la etapa deconstrucción.

• Uno de ocho potenciómetros rotatorios presentodesconexiones temporales en la etapa de pruebas.

• 25 de 37 teclas no lograron el funcionamientoesperado.

El sistema del teclado, a pesar de haber funcionado bastante bien para algunas teclas, resultó ineficiente al trabajar en conjunto debido a las conexiones inexactas a los sensores y poca resistencia a movimientos muy bruscos. Esto se debe a que no se tiene terminales de acabado profesional para cada pedazo de sensor que se adaptó a cada tecla, pues un sensor

Page 53: SONAC 2014

52

completo en cada una hubiera elevado demasiado el costo del proyecto.

Utilizando el programa Brain V2 Configure, se abre la ventana Tools que permite monitorear la entrada de cada control. Accionando cada control se captura los gráficos de respuesta para cada grupo de controles con respuesta analógica del dispositivo. Estos muestran los valores MIDI desde 0 a 127 en el eje Y versus tiempo en el eje X.

Figura 18. Gráfico de respuesta del joystick para pitch bend (Izq.) y modulación (Der.).

En estos gráficos se puede observar como la respuesta siempre regresa al medio debido a los resortes del joystick. En el gráfico a la izquierda, de pitch bend, estos cambios son un poco más bruscos ya que no se implementó ninguna resistencia en ese eje del control, a diferencia del eje de modulación que permite mantenerse en cada punto más tiempo.

Figura 19. Gráfico de respuesta del sensor infrarrojo.

En este gráfico del sensor infrarrojo se puede observar como los valores máximos y mínimos no se encuentran en los extremos del recuadro, lo que implica un rango de control limitado, sin embargo su respuesta es progresiva, lo que permite un buen control.

Figura 20. Gráfico de respuesta de los potenciómetros rotatorios.

Estos potenciómetros presentaron un funcionamiento perfecto. Como se observa en el gráfico, se tiene una respuesta muy lineal y un rango completo, permitiendo un buen control de parámetros.

Figura 21. Gráfico de respuesta del sensor táctil y de presión respectivamente.

Se tiene una respuesta bastante lineal y amplia para el sensor táctil (gráfico a la izquierda), mientras que para el sensor de presión, su respuesta es mucho más rápida para alcanzar valores altos y se debe configurar en el programa para que los máximos valores sean alcanzados sin necesidad de ejercer demasiada presión en el sensor y evitar daños en el dispositivo, ya que de otra manera no se alcanza el máximo tan fácilmente, como se muestra en el gráfico a la derecha.

Figura 22. Gráfico de respuesta de los pads.

En el caso de los pads, se puede observar una respuesta bastante rápida y buena dinámica que se da al reconocer presiones leves, medianas y grandes. Esto permite una representación bastante fiel al interpretar sonidos percutidos.

Figura 23. Gráfico de respuesta de faders pequeños y grandes respectivamente.

En los faders pequeños se tiene una respuesta bastante lineal y de rango completo como muestra el grafico a la izquierda.

Para los faders grandes, se tiene una respuesta logarítmica debido al tipo de fader que se consiguió, pensado para control de nivel en aplicaciones de audio. En la práctica esta característica resultó innecesaria y hasta un poco incómoda ya que se vuelve muy sensible estando en valores altos.

Figura 24. Gráfico de respuesta de las teclas.

Page 54: SONAC 2014

53

La respuesta de la Figura 24 se obtiene probando con las teclas en funcionamiento. Se puede observar que existe una dinámica entre presiones detectadas, sin embargo no es tan amplia como la de los pads a pesar de que se utiliza los mismos sensores. Esto se debe al mecanismo de botones de silicona debajo de las teclas que detiene las presiones muy leves hasta alcanzar la presión mínima para topar el sensor.

Realizando un análisis con las entrevistas se obtuvo los siguientes resultados:

• Control de Joystick: Posee una buena respuesta engeneral. El tener ambos ejes de control puede ser unaventaja para algunos usuarios. Se podría cubrir unpoco el control colocándolo más abajo del panel paraque no parezca frágil al utilizarlo.

• Sensor IR: Su rango limitado resulta bastanteincómodo. Puede ser muy sensible e impreciso enalgunos casos. Se podría adaptar un botón deprendido y apagado.

• Sensor Táctil y de presión: Funcionamientoadecuado. Siendo un control poco comúnactualmente, para algunos usuarios puede ser muycómodo de utilizar pero para otros puede resultarextraño y difícil de acostumbrarse.

• Pads: El sensor tiene una respuesta y sensibilidadmuy buena. La falla se encuentra en los extremos delos pads donde no hay acción alguna, el sensordebería ser del mismo tamaño que el pad para evitarsectores sin respuesta alguna.

• Botones Iluminados: Buena acogida por los usuarios.Incorporación de LEDs es una ventaja. Perfectoscomo interruptores o para gatillar muestras de audio.

• Faders: Se debería agregar más resistencia almovimiento en los faders grandes para crear unarespuesta menos brusca. Todos deberían ser de tipolineal.

• Botones Pequeños: Necesitan distintivos según sufunción. Podrían ser más grandes dependiendo degustos y usos del usuario.

• Potenciómetros Rotatorios: Funcionamiento yconstrucción perfecta. Controles de agrado engeneral.

• Teclas: Bajo porcentaje de funcionamiento total deestas. Como se consideró desde un principio, eltamaño podría dificultar la interpretación paraalgunos usuarios.

• Botones Arcade: Son de fácil interpretación. Aportanestéticamente al dispositivo.

V. CONCLUSIONES Mediante el uso de distintos componentes electrónicos y herramientas en conjunto, si es posible crear un controlador MIDI con varios controles físicos y con la capacidad de controlar programas de audio. Sin embargo, resultó ambicioso aspirar a un 100% de funcionamiento total, en el tiempo establecido y con las limitaciones presupuestarias

para el proyecto.

La mayoría de componentes electrónicos utilizados sí se pueden encontrar en el país, no obstante componentes más específicos se deben importar del extranjero. Un desarrollo y fabricación local de main boards como el Cerebro, reduciría costos significativamente y facilitaría la producción de estos dispositivos en el país.

Se encontró mayor facilidad de programación de los mensajes MIDI al utilizar el programa Brain Editor. Sin embargo, al simplificar la programación se tienen bastantes restricciones como el no disponer de Mensajes de Modo o de Sistema. Faltaría un mayor desarrollo en el campo de programación para conseguir funciones más avanzadas.

Se recomienda como una siguiente etapa, continuar con un análisis de factibilidad para ensamblar localmente equipos de esta característica, en lo que podría ser un emprendimiento exitoso a futuro.

RECONOCIMIENTO

Un enorme agradecimiento a todas las personas que directa o indirectamente contribuyeron a que el proyecto pueda realizarse, en especial a Patricio y Daniela Vásquez por su apoyo y financiamiento del proyecto. A Hugo Cisneros por aportar con el increíble logo para el equipo. A Enrique Vela, Juan Fernando Cifuentes y Marco Salvador por realizar las pruebas y brindar su opinión en las entrevistas, y finalmente a la empresa Livid instruments por el excelente soporte técnico que ofrece para sus productos.

REFERENCIAS

1) Force Sensing Resistor Integration Guide andEvaluation Parts Catalog. (s.f.). Recuperado el 8 demayo de 2013 de http:// www.openmusiclabs.com/wp/wpcontent/uploads/2011/08/fsrguide.pdf

2) Floyd, T. (2007). Principios de Circuitos Eléctricos.(8a. Ed.). México: Pearson Educación.

3) Guérin, R. (2008). MIDI Power. Second Edition.Canadá: Course Technology.

4) Livid Instruments. (2014). Recuperado el 20 de enerode 2014, de http://wiki.lividinstruments.com/wiki/Brain_V2_and_Brain_Jr._Configure

5) Lehrman, P. y Tully, T. (1993). MIDI for theProfessional. Estados Unidos: Music Sales America.

6) Rumsey, F. (1994). MIDI Systems and Control (MusicTechnology). (2a. Ed.). Gran Bretaña: Focal Press.

Page 55: SONAC 2014