22
Ricardo Dal Farra Una Visita al "Center for Computer Research in Music and Acoustics" "Los parlantes controlados por computadora forman el medio más general de producción sonora que existe, pero hay sin embargo enormes dificultades que deben ser superadas para que este medio sea musicalmente provechoso. La música no surge facilmente de las máquinas. Esto es verdad tanto si la máquina es un instrumento musical de tipo tradicional, o una computadora programada para producir sonido musical. En el caso de los instrumentos musicales tradicionales, años de entrenamiento son requeridos del ejecutante y el constructor de instrumentos; y en el caso de la computadora, un conocimiento sustancial acerca de procesamiento de señales, acústica y psicoacústica, es requerido del compositor/músico. Es con este nuevo instrumento, la computadora, que defrontamos nuevos problemas cuyas soluciones nos han llevado a trascender el medio, aumentando nuestro conocimiento, y enriqueciendo nuestra experiencia en el más amplio sentido." John Chowning (de "Music from Machines", STAN-M-64, 1990) Durante una reciente estadía en el "Center for Computer Research in Music and Acoustics" - CCRMA - de la Universidad de Stanford (al sur de la ciudad de San Francisco, en California, U.S.A.), tuve la oportunidad de conocer más de cerca los estudios y desarollos que allí se están llevando adelante. A partir del trabajo interdisciplinario de compositores y cien- tíficos que emplean a las computadoras como un nuevo medio artístico-musical y como una herramienta para sus investigaciones,

UnaVisitaalCenterforComputer Research inMusic andAcoustics · 2020. 3. 9. · mentos musicales ycontroladores alternativos como el Celletto, el ... (Motorola 56001 DSP) con alta calidad,

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

  • Ricardo Dal Farra

    Una Visita al "Center for ComputerResearch in Music and Acoustics"

    "Los parlantes controlados por computadora forman el mediomás general de producción sonora que existe, pero hay sin embargoenormes dificultades que deben ser superadas para que este mediosea musicalmente provechoso. La música no surge facilmente delas máquinas. Esto es verdad tanto si la máquina es un instrumentomusical de tipo tradicional, o una computadora programada paraproducir sonido musical. En el caso de los instrumentos musicalestradicionales, años de entrenamiento son requeridos del ejecutantey el constructor de instrumentos; y en el caso de la computadora,un conocimiento sustancial acerca de procesamiento de señales,acústica y psicoacústica, es requerido del compositor/músico. Escon este nuevo instrumento, la computadora, que defrontamosnuevos problemas cuyas soluciones nos han llevado a trascenderel medio, aumentando nuestro conocimiento, y enriqueciendonuestra experiencia en el más amplio sentido."

    John Chowning (de "Music from Machines", STAN-M-64,1990)

    Durante una reciente estadía en el "Center for ComputerResearch in Music and Acoustics" - CCRMA - de la Universidadde Stanford (al sur de la ciudad de San Francisco, en California,U.S.A.), tuve la oportunidad de conocer más de cerca los estudiosy desarollos que allí se están llevando adelante.

    A partir del trabajo interdisciplinario de compositores y cien-tíficos que emplean a las computadoras como un nuevo medioartístico-musical y como una herramienta para sus investigaciones,

  • 94 Revista Música, Sáo Paulo, v.4, n.1: 93-114 maio 1993

    se desarrollan en CCRMA teorías y experiencias en campos tandiversos como la síntesis de sonido a través de modelos físicos, elreconocimiento óptico de una partitura, la producción de instru-mentos musicales y controladores alternativos como el Celletto, elRadio Drum y el Biomuse, la confección de un archivo musicalcon grabaciones digitales de las primeras obras electroacústicasrealizadas en todo el mundo, la creación de lenguajes de progra-mación aplicados a la composición musical, la implementación deun sistema que permita controlar en tiempo real el movimientoespacial del sonido, el estudio del proceso por el cual el sistemaauditivo separa los sonidos provenientes de distintas fuentes, latransfottnación interactiva por medio de computadoras del sonidode instrumentos musicales acústicos, y el análisis de factorespsicoacústicos que influyen sobre la entonación musical, entremuchos otros.

    El personal del CCRMA está integrado por John Chowningcorno director, Chris Chafe, coordinador técnico, Patte Wood,directora administrativa, Glen Diener, programador científico, JayKadis, ingeniero de audio, y compositores, docentes, e investiga-dores como John Pierce, Perry Cook, Leland Smith, Max Mathews,Marcia Bauman, Earl Schubert, William Schottstaedt, BernardMont-Reynaud, y Julius Smith. Completan este cuadro un consi-derable número de estudiantes avanzados y compositores invita-dos.

    En cuanto al equipa miento de la institución, se utilizan fun-damentalmente computadoras NeXT, y también varias Macintoshy PC AT&T. Cada NeXT viene ya preparada para permitir elprocesamiento digital de señales de audio (Motorola 56001 DSP)con alta calidad, aunque algunas de ellas tienen un número adicio-nal de plaquetas (Ariel Quint Processor) con varios procesadoresen cada una. Algunas computadoras Macintosh han sido tambiénequipadas con sistemas que permiten la grabación y edición digitalde señales de audio (Digidesign Sound Accelerator y SpectralInnovations). La lista es extensa y continúa con: irnpresoras laser,sistemas analógicos y digitales para el almacenamiento de señales

  • Revista Música, 880 Paulo, v.4, n.t: 93-114 maio 1993 95

    de audio, diversos sintetizadores, procesadores y controladores deorigen comercial (Yamaha, E-mu, Korg, Ro1and, J. L. Cooper,Buch1a, IVL, etc.) conectados a las computadoras a través de MIDI,un estudio con posibilidades de grabar y mezclar en forma total-mente digita1, .

    Algunos de los múltiples proyectos que están siendo desar-rollados por músicos e investigadores en CCRMA son comentadosbrevemente a continuación.

    MODELOS FISICOS

    Según Chris Chafe, "la década pasada ha visto un rápidocrecimiento en la aplicación de la tecnología digital a la música, yconsecuentemente ha ido aumentando el contacto de los músicoscon las computadoras. Los sintetizadores digita1es se han conver-tido en un instrumento común, las estaciones de trabajo que utilizanaudio digitalizado están reemplazando velozmente a los dispositi-vos ana1ógicos de grabación, el compact disc es el medio máspopular de reproducción, y tanto la composición como la impre-sión musical está asistida con una amplia variedad de programas.

    Las mismas limitaciones que persisten en los sintetizadoresdigita1es también aparecen en las aplicaciones de las computadorasen 10 que hace a la voz hablada y la animación. Cuando se requierealta calidad, nada reemplaza aún la cosa real, así nosotros aúnutilizamos mensajes grabados para asistencia telefónica, y artistashumanos para lograr mejores 'animaciones en las películas. Solopequeños progresos han sido hechos hacia la síntesis de ambientestotalmente automatizados, contínuos, que puedan convencer en laimitación del habla natural o el movimiento de un carácter animadosimulando uno vivo.

    Los a1goritmos empleados actualmente en los sintetizadoresdigita1es caen dentro de una de estas tres categorías: aquellosbasados en modelos espectral es de instrumentos (como la FM),muestras ("samp1es" - reproducción de sonidos grabados, cortos yaislados), o combinaciones híbridas de ambos. Cada aproximación

  • 96 Revista Música, Sáo Pauto, v.4, n.1: 93-114 maio 1993

    tiene sus propias ventajas particulares, y en consecuencia cadaestudio tiene una combinación de estos instrumentos (interconec-tados via MID 1).

    Una nueva clase de algoritmo de síntesis ha surgido deinvestigaciones recientes, que muestra una muy mejorada cone-xión en lo que hace a la articulación tanto en instrumentos musi-cales como en la voz humana. Las simulaciones están basadas endescripciones de la mecánica de un instrumento y son clasificadas,en un sentido amplio, como 'modelos físicos'. Interesantes resul-tados han sido presentados en intrumentos de viento, cuerdasfrotadas y pulsadas, percusión, y voz cantada.

    Aunque la idea de emplear modelos físicos para sintetizarsonidos no es nueva (los primeros modelos fueron desarrolladosen los Laboratorios Bell en la década del 60), no había sido posiblehasta ahora llevada a la práctica. Así, la física de distintas familiasinstrumentales o fuentes sonoras es simplificada para crear mode-los matemáticos que puedan ser repetidos en una computadora.

    En los modelos físicos desarrollados los transientes de ataque,la transición entre notas ligadas, y los detalles expresivos que hacena la interpretación de una frase musical son extremadamentebuenos. El control del sonido es intuitivo, ya que el modeloresponde como el instrumento a las manipulaciones del ejecutante.Los parámetros de control están directamente relacionados con loscontroles físicos con los que el músico está familiarizado (ej.:embocadura, presión del aire, ...).

    La síntesis a partir de modelos físicos no ha sido implemen-tada aún en ningún instrumento comercial."

    El T Bone (ver fig. 1) es un modelo desarrollado por PerryCook que permite sorprendentes resultados en la simulación desonidos normalmente asociados con los llamados instrumentos debronce. El instrumento está conformado por una boquilla de formavariable (las figuras 2a, 2b, y 2c muestran algunas variacionesposibles), cuatro secciones cilíndricas que se conectan mediantepistones, una sección cilíndrica de longitud variable (como la varadel trombón), y finalmente, una campana también variable.

  • Revista Música, Sáo Paulo, vA, n.1: 93-114 maio 1993 97

    Hay controles que permiten manipular individualmente lalongitud de los cuatro tubos, la posición de la vara (en el caso deltrombón), y la posición de los pistones, determinando así el largototal de la parte cilíndrica del instrumento. La forma de la boquillapuede alterarse totalmente a través de un editor. También puedevariarse la campana, la posición de la vara y los pistones, la presióndel aire de entrada, los diversos factores que hacen a la oscilacióndel labio, y otras características tanto del instrumento como delintérprete.

    SPASM es otro modelo implementado por Perry Coa k, y eneste caso permite sintetizar el sonido de la voz cantada a través dela simulación del tracto vocal del ser humano (ver fig. 3). La fuenteglotal que utiliza este sistema copia el desarrollo temporal y lascaracterísticas espectrales de la onda que produce la glotis humana.Las turbulencias de las fricativas y otras consonantes se simulanmediante una fuente de ruido filtrado que puede ubicarse encualquier punto del tracto vocal. El mismo puede ser sensiblementealterado en su forma (las figuras 4a, 4b, y 4c muestran algunasvariaciones posibles). También puede modificarse la posición delvelo del paladar y la forma de la cavidad nasal.

    Los diptóngos se obtienen especificando un conjuto de pará-metros iniciales y otros finales, así como el tiempo y la curva deinterpolación para la transición. Un grupo de controles se relacionadirectamente con la interpretación, y maneja prarámetros como lafrecuencia y amplitud del vibrato, y sus variaciones aperiódicas,entre otros factores.

    Uno de los primeros modelos físicos desarrollados en Stan-ford partió del algoritmo ideado por Kevin Karplus y Alex Strongpara sintetizar el sonido producido por instrumentos con cuerdaspunteadas. Aquella idea básica fué notablemente mejorada y am-pliada por David Jaffe y Julius Smith. y actualmente es posibleutilizar en las computadoras NeXT un instrumento llamado"Pluck", resultado directo de las mencionadas investigaciones.Rick Vander Kam ha implementado poco tiempo atrás, también enlas NeXT, un modelo llamado "RokNRole" (ver fig. 5) que simula

  • 98 Revista Música, Silo Paulo, vA, n.1: 93-114 maio 1993

    el comportamiento de una guitarra eléctrica con distorsión y reali-mentación ("feedback").

    También se encuentram en distintas etapas de desarrollo,modelos físicos que permiten sintetizar, por ejemplo, el sonido deun clarinete ("ClariNeXT"), ver figs. 6a, y ób), o una flauta.

    IDEAMA

    El Center for Computer Research in Music and Acousticsjunto al Zentrum Für Kunst und Medientechnologie (ZKM) enKarlsruhe, Alemania, llevan adelante el proyecto "IDEAMA", através del cual se está creando un archivo digital que incluye lasprimeras composiciones electroacústicas creadas en el mundo.Marcia Bauman y Max Mathews son algunos de los investigadoresque se ocupan, en Stanford, de llevar adelante esta importantepropuesta.

    Las obras comupestas en diferentes lugares del mundo duran-te los primeros años de trabajo con medios electroacústicos nece-sitan ser salvaguardadas del deterioro que está sufriendo el materialempleado para su creación, reproducción y almacenamiento. Paraello, las grabaciones ana lógicas originales son transferidas a unformato digital. Durante este proceso es posible "limpiar" parcial-mente la grabación primitiva de aquellos ruidos indeseados por elcompositor.

    Dado que se trata de un archivo totalmente digital, aún losmateriales complementarios como partituras y notas de programa,serán solamente conservados en el citado formato (digitalizados através de un "scanner").

    Para 1994 se planea realizar un simposio en la sede del ZKMen ocasión de la apertura oficial de IDEAMA, donde compositorespioneros en el campo de la música electroacústica, técnicos yrnusicólogos, discutirán aspectos estéticos y tecnológicos relacio-nados con el tema: ?cuál es la versión "original" de una tempranaobra e1ectroacústica en cinta?

  • Revista Música, 5&0 Paulo, vA, n.1: 93-114 maio 1993 99

    COMMOM MUSIC

    El Common Music es un lenguaje de programación desar-rollado por Heinrich Taube para su aplicación específica en elcampo de la composición musical. La idea de que un compositorescriba y produzca su obra utilizando una computadora es cada vezmás frecuente, y este lenguaje de alto nivel construido en Lisp esuna de las posibilidades para llevarlo a cabo.

    Concretamente, el Common Music permite generar una "par-titura" con la descripción de todos o parte de los eventos (notas)de una composición. Luego un programa distinto se encarga de lasíntesis sonora, convirtiendo el contenido de la "partitura" enmaterial audible (ver figura 7). Para la generación de sonido seemplean programas como el Music Kit, el Common Lisp Music(CLM), o el Csound, aunque también es posible codificar loseventos como mensajes MIDI. El Music Kit, creado por DavidJaffe, es un recurso implementado en todas las computadora sNeXT que permite, entre otras cosas, el procesamiento y la síntesisdigital de sonidos en tiempo real. En cambio el Common LispMusic, desarrollado por William Schottstaedt, no permite la inte-racción en tiempo real, pero es un sofisticado lenguaje para eldiseño de instrumentos (entendiendo por "instrumento" una confi-guración de elementos básicos generadores y procesadores quedefinen una estrategia de síntesis en particular, como por ejemplo:FM, aditiva, granular, u otras).

    En el Commom Music existen conceptos de directa asocia-ción con la organización musical tradicional, como: partitura,parte, escala, nota, ritmo, y dinámica; pero también implementaherramientas tales como los generadores, las funciones, y lasagrupaciones de items, que permiten complejas operaciones delmaterial compositivo.

    Son múltiples las posibilidades de organización de eventosque pueden generarse mediante las llamadas 1;agrupaciones deitems". Con ellas es posible estructurar en forma cíclica, secuen-cial, aleatoria, o de otros muchos modos, datos como: notas,

  • 100 Revista Música, sáo Paulo, v.4, n.1: 93-114 maio 1993

    alturas, ritmos, intervalos, grados, pasos, amplitudes, frecuencias,y ubicación espacial.

    Veamos algunos ejemplos sumples que nos permitan vislum-brar el potencial de las "agrupaciones de items". Habiendo previa-mente delimitado la generación total de eventos a un total de 9, una"agrupación de items" definida como:

    (items 1234 in sequence)

    produce como respuesta:

    123444444

    dado que la lectura secuencial hace que se seleccionen los datos dela lista uno a uno hasta llegar al último, y luego continúa repitiendoeste elemento hasta agotar la cantidad de eventos que se hayadeterminado en la "partitura", en este caso = 9.

    Una "agrupación de items" definida como:

    (items e d e f g in random)

    puede producir muy diferentes resultados cada vez, dado quela lectura de datos es en este caso aleatoria. De este modo, si lageneración de eventos a producir estuviese nuevamente limitada aun total de 9, podríamos obtener algunas de las siguientes respues-tas, o tal vez otras distintas:

    cegcedfgefgfcfeecgegdcfdedgdcgfcedgf

    Otra "agrupación de items", definida en este caso como:

    (items a b e in cycle for 8)

  • Revista Música, Seo Paulo, v.4, n.t: 93-114 maio 1993 101

    nos da como respuesta:

    abcabcab

    ya que la lectura de items es definida aquí como cíclica, lo quesignifica que los datos son leídos de modo secuencial hasta llegaral último elemento de la lista, para entonces retomar ésta desde sucomienzo hasta agotar el número de eventos a generar, limitadosen este ejemplo a un total de 8.

    Otra de las muchas posibilidades de generación yorganiza-ción de eventos empleando el recurso de "agrupación de items" es:

    (items 12 3 in palindrome)

    que produce, limitando ahora el número de generación de eventosa un total de 12:

    123321123321

    una variación de la lectura cíclica, llamada" en palíndromo", dondela selección de items es secuencial pero cambia de dirección cadavez que alcanza uno de los extremos del listado. Incluyendo en laconstrucción de este último ejemplo la opción elided (elidir =suprimir la vocal final de una palabra, cuando la que sigue empiezatambién con vocal), se consiguen alternativas como:

    elided yes = 1 2 3 2 1 2 3 2 1 2 3 2elided start = 1 2 3 3 2 1 2 3 3 2 1 2elided end = 1 2 3 2 1 1 2 3 2 1 1 2

    Uniendo los conceptos de lectura secuencial y cíclica, vemosen el próximo ejemplo que la complejidad del sistema puedeincrementarse considerablemente cuando el último item de una"agrupación de items" es a su vez una nueva" agrupación de items":

    (items 1 2 3 4 (items 5 6 7 in cycle) in sequence)

  • 102 Revista Música, Seo Paulo, v.4, n.1: 93-114 maio 1993

    siendo el resultado esta vez:

    12345675675

    si limitamos la generación de eventos, en este caso, a un númerototal igual a 11.

    La figura 8 nos muestra un fragmento de la partitura deMemorias (Ricardo Dal Farra, 1992), composición producida uti-lizando el lenguaje Common Music y el programa de síntesis desonido del Music Kit.

    BIOMUSE

    El Biomuse, desarrollado por Hugh Lusted y BenjaminKnapp, es un dispositivo que permite crear sonido en tiempo reala partir de la actividad bioeléctrica de aquel que lo esté usando,como así también utilizar señales volitivas para controlar lasfunciones de un sintetizador u otro instrumento que responda amensajes MIDI.

    Está compuesto por la interfase bioeléctrica y la unidad deprocesamiento de señales. Pequeños sensores colocados sobre lapiel son utilizados para tomar señales eléctricas de bajo nivel, lasque son entonces amplificadas, filtradas y luego digitalizadas paraalimentar el procesador. Señales provenientes de diversos múscu-los (electromiogramas), ondas cerebrales (electroencefalogramas),e incluso del movimiento de los ojos (electrooculogramas), puedenutilizarse como entradas de información al procesador, quienanaliza estas bioseñales para finalmente producir como resultadolos comandos MIDI. Una serie de bandas ajustables mantienen enposición a los electródos que pueden colocarse sobre los biceps,triceps, pronadores, supinadores, cuadriceps, gemelos, u otrosmúsculos, permitiendo así que ellos se conviertan en los biocon-trola dores del sistema.

    Entre las aplicaciones del Biomuse aparecen las múltiplesposibilidades musicales de emplearlo como controlador de instru-

  • Revista Música, Seo Paulo, vA, n.1: 93-114 maio 1993 103

    mentos digitales durante un concierto.Ia relación con el movimien-to a partir de una danza o una actuación teatral, su implementaciónen ambientes de realidad virtual, y también su utilización en larehabilitación de personas afectadas por parálisis u otras enferme-dades degenerativas del sistema nervioso.

    E116 de julio de 1992, en el anfiteatro de la Universidad deStanford, el compositor Atau Tanaka estrenó su obra Kagami paraBiomuse e instrumentos WilDI. El mismo compositor interpretóel Biomuse durante el concierto, y empleó sus músculos paragenerar la información básica con la que alimentó a una compu-tadora.Ja cual a su vez procesaba dichos datos (con un programaescrito usando el lenguaje MAX) y transmitía finalmente loscomandos MIDI que llegaban hasta los instrumentos musicalesdigitales.

    (Agosto de 1992)

    AGRADECIMIENTOS

    Deseo agradecer al "Center for Computer Research in Musicand Acoustics" por invitarme a compartir un ambiente de estudioy trabajo donde colaboración, confianza, experiencia, y creativi-dad, se conjugan de un modo muy poco frecuente. A la FundaciónRockfeller por su indispensable y decisivo apoyo económico. Ymuy especialmente a John Chowning, Chris Chafe, Patte Wood,Rick Taube, Perry Cook, Jay Kadis, Bill Schottstaedt, MarciaBauman, Glen Diener, y Heidi Kugler, por toda la ayuda que mebrindaron.

  • 104 Revista Música, Sáo Pauta, vA, n.1: 93-114 maia 1993

    - _. - -- -- - - ~ .~- ..~ .:.. - - '-... ;. . . - .. .., - - - - ~-- - ~

    t CJ french TNmlJUba COntroUer Yr'Indow:::.' , .----. Hcrn AlSpc.nse ----------~~-~----¡,:~ :n~:·fB.,.'"ZJ r:~::noOlWlQt'.."..ir.:

    ~,.~ :n.""M w.suu.r ,,,.,,"', "' ,f:~.:~=----:~----_.-_.--..__._-..r

    ~I)=;-'.1 ~¡8.~~~~~~~~o ••• ' •••••••• ". ••••••••• •••••••••• • ••••••••••••••••••••••••••• " •• , ••• - SUde Contlollel o ••••••••••

    2 3 4 5

    Figura 1. El TBone es un modelo desarrollado por Perry Cook quepermite sintetizar sonidos normalmente generados por los

    instrumentos de bronce.

  • Revista Música, Sáo Paulo, v.4, n.t: 93-114 maio 1993 105

    French Trunlbuha Controller Winoow

    i ::'~.fh,..(HZ.)!ZU1l173a

    Hom aespcnseQuitTru:k~ Chanou·)

    710.5$$103

    C5.544&24

    ¡ DI."''''''.4U"'"

    Figura 2a. En el TBone la forma de la boquilla puede alterarsetotalmente a través de la interacción con un editor gráfico.

    French Trumbuba ControlJar'Mtldow

    i • .&U1.U¡ ••.,,0.''''',5.4. ••••i

    . Horn RtsponuCult T,..Cll;hQ Ch..,.~u .)

    n,..,",,,,"' ...."

    . . .~_..:._~::;"'~_';;J:..: ;...:.:.::3-=='.';"':::-

    '0, "'!'";::--1;~":~.~_._. .:..~:.,__ .:.-2~~~.::;=__:_...::"~'..-'~-:-~-

    ! •.•d••• ' •••• (Hz.)1 JQ.04I'~i2., ••

    >~ :: ~.:~~.~~.~:,:,••----i•· ..•·0'"'2"2.•. ", "

    "07

    •••• ~~ •• : ". , ••• : •• ~.:~~ ••••••••••••• o" _' ••

    ~,~ControlJer ¡;--- eeuControlier -. --I'§ ,¡ ,...,,,,,r.o-, ,

    LengthS:~: 1. ¡¡ l.06a,l, H r'¡.~ ..•• 34 lj .

    ~~~"IC>

  • 106 Revista Música, 580 Paulo, v.4, n.1: 93-114 maio 1993

    r:-'-:::'*-~,'-'-" 'h ,:~,"~ _ '-' .,'. :,," ._. ~om.R,.pDnu1 Mo~,¡.'.r8'rI (Ha.) '/: Qu¡ITr;,dc~ Dlanots -)"-

    lu.~ '~Ol'"! m.1I:12t rnJ4$i..."1r t1.t.~U. 15O.~lsa

    -- - -_. - --- - ,, ~.. - J.._ ,~ ~. '_0

    ,~:~~""'- - ~-' -: ~:~.~~;:"

    Fi¡ura2c

    !I.~."!{~ni

    SPAsN IIIfonnation ,'

  • Revista Música, Sáo Paulo, vA, n.1 : 93-114 maio 1993 107

    Vocal Tracl Shape

    Figura 4a. En SPASM la forma del tracto vocal puede sersensiblemente alterada. También puede modificarse la posición

    del velo del paladar y la forma de la cavidad nasal.

  • 108 Revista Música, Sáo Paulo, v.4, n.1 : 93-114 maio 1993

    Vocal Tracl Editor ~

    Llp: 2.60177

    7: 1.584011

    6: Z.008848

    6: 2.628319~: 2.946903

    3: U380632: 1.346133

    Glo1Iil: 1.1321~3Vllum: O

    Figura4b

  • Revista Música, Sao Paulo, v.4, n.1: 93-114 malo 1993 109

    Vocal Tract SlIa,.. 2SJ

    Trael SecUon Radll2.60177

    J.044248

    2.008848

    0.6301173

    : 2.846803

    0.584071

    2.618469

    0.336283

    Velum: ,,0'-- --'

    Figura 4c

  • 110 Revista Música, Sáo Paulo, vA, n.1: 93-114 maio 1993

    Oistortion Parameters1-099 ¡o:o ,-o 99 ¡0:07""

    r" p':' ~; ~~ ~--;.L . ~ a¡¡. . 1. .~ :' ,Con trol Pallel

    ¡ ~ FBGail1¡ ~ [J;._ ... ;.;;¡0:D3~. ~ f200¡ Gi~sl. r·~·_-------F-B--P-a1~h-L-e-l1-g-ti-~_JJ'i.-",.-.~-f Speedr-i'

    x

    [ñ2S ¡o:so String 1

    ~ ~

    Decayand. . Timbre A

    ••, 00 ~"al 18 I 60076

    Prese1 Chordso G

    Figura 5. RokNRole, de Rick Vander Kam, es un modelo quesimula el comportamiento de una guitarra eléctrica con distorsión

    y realimentación.

  • Revista Música, Sáo Paulo, vA, n.1: 93-114 maio 1993 111

    rn

    bReed Tabla -

    Sreal

  • 112 Revista Música, Sáo Paulo, vA, n.1: 93-114 maio i993

    ~ _ ., , , ,;:_': . _ _ Bell,":'- _. ' " ,--,-~

    ,..----------- Reflection Filter ------- .....;..~

    ¡ Filler TypeIIr 1sI arder AveragerI r 2nd creer BulterworlhI r 4th order ButterworlhI r. 6th order Butterworth

    Filler Gaio: 11

    Radius

    I.----A-ve-r-ag-e-r--cu""',to,--ff-. ·--8-"utt-e-rwo---,rl:'-'h-~·-···-~

    Welghling Radlus " Culoff Frequency (Hz)11 1: e 5000 .'.

    I ;::~:1

    (: -.1759"", C·155Ó

    I ' , í'_!500 "'t

    1":." C~1450.'0' -, .~¡r" .~".,. ---r. ,".!;.\ ;f)250, '.,r 1O·00'·:t1: .,~'~ ,t,

    r------::-:----;=-li!!ran~~Smission Alter ...;..---...;."'""::'-'-__:-...:...-;,kGajn 11.3 ·t

    . T F ; kno rm i (1 + r/z)10.9

    Figura 6b

  • Revista Música, Sáo Paulo, v.4, n.1: 93-114 malo 1993 113

    COMPOSITOR -> Common Music -> "partitura""partitura" -> Music Kit ó CLM ó Csound ó MIDI -> SONIDO

    Figura 7. El lenguaje Common Music permite generar una"partitura" con la descripción de todos los eventos (notas) de unacomposición. Luego un programa distinto se encarga de la síntesis

    sonora, convirtiendo el contenido de la "partitura"en material audible.

    (with-part Fm 1vi Poly(time 127.5ampEnv "pepe"mllndAtt .91mllndRel 1.2cRatio 3.76mllndl 8m lIndO 2mllndEnv "pipo"freqEnv "pepa"sVibAmp .01sVibFreq .2rVibAmp .17events 37

    ; tiempo desde el inicio; envolvente (amplitud); tiempo de ataque (env. modulador)'; tiempo extinción (env, modulador); portadora; índice de modulación cuando env.= 1; índice de modulación cuando env.=O; envolvente (índice de modulación); envolvente (frecuencia); porcentaje de vibrato sinusoidal; frecuencia del vibrato sinusoidal; porcentaje de vibrato aleatorio; número de eventos )

    (sed ampAtt (itern (iterns 4.2 .2 .57 1.75 1.2 .7 in palindrornejj)(sed ampRel (item (items 1.3 .6 3.2 (1.6 .3 .8 in random) in cyclejl)

    '(sed amp (itern (crescendo from ppp to mp in 37»)

    (sed mlRatio (item (items 1.46.92.3 1.173.158.23.294.27.1252.148.67.983.11 4.242.08.61 5.334.28 1.073.96 in sequence)))(sed bearing (item (items 20.0 0.0 -20.0 42.0 -37.0 -5.0 in cyclejj)

    (setf freq (item (items 177.1 228.3 67.1 925.91 43.2 r 987.6 394.6122.7 1057.1 11007.847.3 667.3 72I.2J 1092.1 52.0212.4 in heapjj)(setf rhythm (item (iterns 7.39.54.37.48.76.39.4 in random))))

    Figura 8. Fragmento de la partitura de Memorias (Ricardo DalFarra, 1992), composición producida utilizando el lenguaje

    Common Music y el programa de síntesis de sonido del Music Kit.

  • 114 Revista Música, Sáo Paulo, v.4, n.t: 93-114 malo 1993

    BIBLIOGRAFIA

    CHAFE, Chris. "Pulsed Noise and Microtransients in Physical Models ofMusical Instruments", Stanford University, Departrnent ofMusic TechnicalReport STAN-M-65, 1990.

    CHOWNING, John M. "Music from Machi..nes: Perceptual Fusion & AuditoryPerspective - for Ligeti". Stanford University, Department of Music Tech-nical Report STAN-M-64, 1990.

    COOK, Perry R. "Synthesis of the Singing Voice Using a Physically Paramete-rized Model of the Human Vocal Traer". Proceedings of the Internationa!Computer Music Conference. Ohio, 1989.

    ___________ . 1989. "TBone: A.n Interactive Waveguide Brass InstrumentSynthesis Workbench for the NeXT Machine", Proceedings of the Interna-tional Computer Music Conference . Montreal, 1991.

    KNAPP, Benjamín R. y LUSTED, Hugh, S. "A Bioelectric Controller forComputer Music Applications". Compute!" Music Journal 14(1):42-47,1990.

    SCHOTTSTAEDT, William. "Pla: A Composer 's Idea of a Language". Com-puter Music Journal, 7( 1):11-20, 1983.

    SMITH, Julius o. "Viewpoints on the History of Digital Synthesis". Procee-dings of the lnternational Computer Music Conference . Montreal, 1991.

    __________ . "Waveguide Synthesis Tutorial". Center for Computer Re-search in Music and Acoustics, 1992.

    TAUBE, Heinrich. "Common Music: A Music Composition Language in Com-mon Lisp and CLOS". Computer Music Journal, 15(2):21-32.

    WOOD, Palie. "Research Overview". Center Ior Computer Research in Musicand Acoustics, 1992.

    Ricardo Dal Farra é compositor de musica eletro-acústica epesquisador, radicado em Buenos Aires.