ISSN 1989-1938
Espai web patrocinat per:
Revista de pensament musical en V.O.

De la composición a la electrónica


IÑAKI ESTRADA TORÍO

Mediazone-la-Música
Sistemas de espacialización en MaxMSP

Quisiera, en primer lugar, hacer una aclaración que sirva de punto de partida, una reflexión que permita comprender el cómo y el por qué de lo que a continuación escribo. La verdad es que no es complicado, al contrario, es tremendamente simple y contundente: soy compositor. ¿Qué quiero decir con esto? En realidad es una afirmación excluyente. Lo que dice es lo que no soy: programador, técnico informático, de sonido… En mi devenir he acumulado conocimientos en especialidades diversas sin llegar nunca a ser especialista en otra cosa que no sea escribir música. Lo que simplemente quisiera aclarar es, precisamente, este estado de las cosas.

Long Walk to Sedum Happiness © Andrea Geile 2007. Photo: M. Wolchover

Long Walk to Sedum Happiness © Andrea Geile 2007. Photo: M. Wolchover

Por otra parte es importante constatar que la composición es un artesanado, ya lo decía Boulez, y arte-sano es un constante equilibrio entre las ideas y la manera en la que estas se nos presentan como espectador. Un compositor debe saber cómo hacer llegar sus inquietudes de forma concreta: al músico hay que darle notas, cosas concretas por hacer, no palabrería.

Una vez queda esto sobre la mesa es momento de comenzar un viaje alrededor de mi música, de mis inquietudes y situaciones en las que me he visto envuelto. Ahí, en ese cúmulo de circunstancias, es donde se fraguan las ideas. Pero como del dicho al hecho hay un trecho, nos toca pasear por la historia de cada una de las piezas para ver el por qué de cada una de las decisiones.

Desde mi llegada a París el contacto con la electrónica trastoca mi percepción de la composición introduciendo nuevas perspectivas: unas se integran en mi forma de escribir, otras suplantan directamente algunos de los no tan sólidos fundamentos que tenía adoptados casi de forma inconsciente. Somos las primeras víctimas de nuestros automatismos, de nuestra rutina intelectual. Perdido como todo joven compositor, pobre del que no lo esté, un nuevo horizonte de posibles me obliga a posicionarme conmigo mismo, a ser yo de forma consciente y mirarme en el espejo de lo aprendido para confrontarme con lo que soy y quiero ser.

En el conservatorio de París ya habíamos pasado por secuenciadores de audio tipo Protools y algunos programas de análisis-síntesis venidos desde el Ircam. Mi música comienza a integrar análisis espectrales (que no música espectral), y la forma se plantea como algo que no tiene por qué contener el tan occidentalizado “ger-men-pa-ra-to-do” y la repetición como baliza perceptiva exclusiva. Técnicas del artesanado electroacústico comienzan a tomar forma instrumental. Palabras como mosaico, incrustación, espacio, delay, filtro… pasan a ser parte de mi pensamiento formal, orquestal y armónico sustituyendo oxidados axiomas mentales: ese dogma donde lo matemático e intelectual garantiza un equilibrio que, a la historia me remito, tantas obras maravillosas y-o-tras-no-tan-to, ha proporcionado.

Realizo el Cursus Annual de Composición Musical de Ircam en 2006-07. Fruto de ese año de desvelos nace la primera versión de Kiral, para guitarra, violonchelo y electrónica. Kiral, como decía anteriormente, es una pieza totalmente condicionada por su naturaleza y el espacio al cual está destinado. De ahí que la espacialización sea tan importante, de ahí que hayamos imaginado lo que el Espace de Projection del Ircam nos ha permitido soñar.

El espacio es el siguiente:

Cómo podemos observar es un sistema que permite imaginar diversas formas de mover el sonido. Pero lo más importante de todo es que nosotros, como compositores, tenemos que crear algo en lo que la especialización sonora esté implicada. De lo contrario el resultado musical será pobre. La técnica no es más que un medio, no puede ser, en ningún caso, el fin.

En este tipo de espacio varios sistemas es especialización son posibles en relación a mis ideas musicales. Primeramente comentar que Kiral se sirve exclusivamente del Routing de señal, es decir, toma la señal y la mueve o dirige por diversos altavoces. Esto es físicamente real, no es el SPAT desarrollado por el Ircam. Kiral no realiza simulaciones de sonido (con el SPAT podemos incluso crear la sensación de que el sonido está más allá de los altavoces mismos). No era mi intención en ningún caso este tipo de simulaciones que, además de tomar una parte importante de la CPU, no se adecuaban a mi proyecto musical.

Ya dentro del routing, una de las formas más comunes de dirigir una señal en MaxMSP es la siguiente:

Una de las formas más comunes de dirigir una señal en MaxMSP

En este ejemplo, de 4 canales, se realiza un equilibro de la señal en relación al punto que vemos al interior del cuadrado. La idea es simple: mover en un solo plano una señal, bien sea la de la guitarra, bien la del violonchelo. La ventaja de este simple routing es que nos permite hacer un adelante-atrás-derecha-izquierda con pasmosa facilidad, cosa que otro sistemas, como el que presentaré posteriormente, no hace.

Pero si la primera forma de mover el sonido nos permite hacerlo en varias direcciones tiene un problema claro si queremos hacer algo tan preciso como, por ejemplo, una rotación. Si queremos aprovechar nuestro espacio en 3 dimensiones está muy claro que con este objeto nos van a faltar, por lo menos, una. Es un objeto sencillo, consume muy poco procesador y es ideal cuando, como en mi caso, tienes más de un instrumento. Usar el SPAT en 2007 con dos instrumentos al mismo tiempo me hubiera consumido tal cantidad de CPU que hubiera tenido que parar el resto de tratamientos durante la ejecución de esta espacialización. No confundamos, con los ordenadores del Ircam no hubiera sido problema, ahora bien, ¿quién la va a tocar después? Este es otro de los elementos prácticos en lo que un compositor debe pensar. Kiral se puede ejecutar en un Macbook Pro G4 con un giga de RAM, que era lo que yo tenía por aquellos tiempos y con lo que hemos tocado Kiral en todas partes.

Como decíamos este espacio del Ircam y la disposición de los altavoces en el espacio permitía imaginar un routing en 3 dimensions. En mi caso y tiempo, recordemos que hablamos de una pieza del 2007, se trata de lo que llamamos un Vbap. Este objeto, simple de programar, nos permite realizar rotaciones así como dar una elevación. Pero, como siempre, tienen ciertos inconvenientes. Al contrario que el objeto anterior el Vbap no realiza una distribución equilibrada entre todos los puntos: sólo entre dos. ¿Qué quiere decir esto? Sencillo: podemos ejecutar una rotación en un mismo plano sin problemas siempre y cuando pasemos por todos los puntos. No podremos pasar del 1 al 5 (salvo si ponemos una rampa para evitar clips y lo hacemos directamente), sin pasar por el 2-3-4.

A su favor: programación y versatilidad. El mensaje se articula de forma sencilla:

  • Control de rotación: vbap-control-liste “grado inicial” “grado final” “tiempo entre los dos”
  • Control de elevación: vbap-elev “altura inicial” “altura final” “tiempo entre los dos”

Vbap-elev “altura inicial” “altura final” “tiempo entre los dos”

Como hemos observado es realmente fácil manejar este dispositivo, consume poca CPU y es muy efectivo con la programación, que apenas lleva unos minutos. Posteriormente llegaron los Ambisonics y otro tipo de objetos externos que facilitarían la tarea aun más.

Estas dos opciones de espacialización son, a fin de cuentas, una consecuencia elemental del concepto. Desde que decimos espacio y pensamos en 2 ó más puntos la idea de mover el sonido libremente entre estos así como de realizar rotaciones es algo básico, si bien siempre efectivo, lo cortés no quita lo valiente.

Lo complicado, como siempre, es encontrar algo diferente derivado de un pensamiento que vaya más allá de lo que el propio cacharrito pueda hacer. Desde esta perspectiva y partiendo de mis propias ideas musicales me decidí a elaborar una distribución del sonido basado en el routing pero con otra serie de implicaciones.

Ya en “Begiratzailearen nahia”, la voluntad del que mira, para guitarra sola, escribí toda una parte en la que la guitarra se expresa mediante pizzicatos Bartok, parte muy intensa y efectiva en relación dificultad-resultado. Pues bien, teniendo un espacio tridimensional con 13 altavoces, ¿no sería fantástico poder sacar esos impactos por cierto número de altavoces? Cincelar al auditor con flashes, que salgan por 3 altavoces a la vez, por 4, por 2, que la sucesión de los pizz Bartok, tanto en el violonchelo como en la guitarra, creen un entorno tridimensional en el que se alternen todos esos ataques.

Seguidor de niveles de amplitud

Para este tipo de recurso lo principal es la detección de ataque: tenemos que identificar el pizz. Bartok. Para eso hemos desarrollado un seguidor de niveles de amplitud que, posteriormente abrirá o no el routing dependiendo del límite que le hayamos puesto: Ataque-Release.

Ataque: límite de amplitud a partir del cual se abre nuestro routing.

Release: Límite inferior de amplitud para que se pueda volver a abrir nuestro ataque. Esto evita que saturemos los altavoces.

Una vez nuestro ataque a pasado el filtro del detector de ataque vamos a ver por cuántos altavoces al tiempo va a salir. Esto es lo que provoca el cincelamiento en el auditor. Una vez sepamos por cuántos saldrá (normalmente de 2 a 4, no conviene saturar al auditor puesto que tenemos dos instrumentos sonando el tiempo con pizz. Bartok), determinaremos el sistema de elección de altavoces: una lista, un contador, urna, drunk, random… Finalmente hemos instalado una pantalla en la parte principal de Patch para poder visualizar en tiempo real cómo está funcionando nuestra criatura.

Como hemos dicho anteriormente la espacialización depende de varios factores. Están los condicionantes inherentes a la composición y luego lo que el espacio en sí mismo nos proponga. A este respecto llegamos a la segunda obra de la que hablaremos: I+D, para piano, electrónica y video. I+D es un encargo del pianista Alberto Rosado y para integrarla en su repertorio Alberto tenía algunos condicionantes:

  1. Que no dure más de 10 minutos.
  2. Portabilidad: que se pueda tocar en un espacio cuadrofónico.

Estas necesidades, lógicas al montar todo un programa de piano y electrónica con video, determinan y condicionan cómo se realiza la especialización así como otras partes de la obra.

Pero este condicionante no es determinante. Partiendo de mi experiencia en Kiral asumí la nueva distribución y reimaginé cómo usar los recursos al servicio de una nueva pieza y espacio.

La detección de ataque había dado excelentes resultados en Kiral, por lo que simplemente había que reacondicionar su función a alguna necesidad compositiva, en este caso, la distribución en rotación del piano. También realiza otro tipo de funciones, pero nos centraremos por ahora en el espacio, que es lo que nos ocupa.

El sistema es el siguiente:

Kiral

El funcionamiento es una combinación del Vbap anterior con la detección. Se trata de que en ciertas partes, lentas y rápidas, la variación de la dinámica provoque una espacialización en rotación, realizada por un objeto multiouts, cuya velocidad de rotación está controlada por un phasor. En realidad es algo bastante sencillo de planificar y muy efectivo en su realización.

Por otra parte I+D es una pieza que trabaja la síntesis mucho más que Kiral, que como hemos visto, se proyecta mucho más sobre la espacialización. Tenemos, por tanto, un sistema de síntesis combinado con uno de espacialización que funciona hemos llamado: espacialización por franjas de frecuencia en rotación. En fin, es un nombre muy largo para algo bastante más sencillo. En realidad el nombre lo dice todo. Vemos las imágenes a continuación.

Espacialización por franjas de frecuencia en rotación

Espacialización por franjas de frecuencia en rotaciónLo que tenemos es sencillo como forma de pensar. Tomamos el sonido del piano y lo vamos a dividir para su posterior resíntesis en diversas franjas de frecuencias. Esto lo podemos ver en los distintos mensajes. Vemos también que en el mensaje está un coeficiente de multiplicación para controlar la velocidad de rotación de los multiouts (como antes con un objeto phasor). Lo que se pretende es que cada una de las frecuencias gire a una velocidad distinta creando así un espacio acústico en movimiento y estático al tiempo. En este ejemplo las frecuencias graves giran más despacio que las agudas, pero todo, como hemos visto, es programable.

Al interior del Poly nos encontramos con cada una de las partes que resintetiza el sonido original. El procedimiento es el habitual, por fft. Se seleccionan las bandas y se reconstituye el sonido con unos 43 parciales, suficientes como para mezclarse con el sonido real del piano.

Pero como dije anteriormente nada de esto vale si no tenemos una parte instrumental bien escrita, pensada para funcionar con y para la electrónica… y viceversa! Es como escribir un cuarteto de cuerda: tenemos que escribir cada uno de los instrumentos sin olvidar que cada parte obedece a un ideal mayor a sí mismo. No escribamos una electrónica que de pie a una partitura ni hagamos lo contrario. Si al escribir de forma instrumental no pensamos en este tipo de complicaciones asumamos que la escritura con medios electrónicos es exactamente lo mismo: primero la idea, luego la escritura.

Destacar siempre la colaboración de Grégoire Lorieux, excelente compositor e informático brillante, que me ayuda con toda la parte informática en un tándem establecido ya desde hace 4 años.

*  *  *