CAPÍTULO 2
NUEVAS TECNOLOGÍAS ENFOCADAS A LA CREACIÓN MUSICAL ASISTIDA POR COMPUTADORA
No basta con escuchar la música, además hay que verla. Igor Stravinsky
2.1 Plataformas.
Quizá la pregunta inicial más común que todo músico, diseñador o cineasta se hace sea: ¿PC o Macintosh? Hace algunos años, la respuesta se hubiera ubicado según el oficio o uso en cuestión. Sin embargo, actualmente ambas plataformas ofrecen las mismas herramientas y aplicaciones de trabajo indistintamente. Entonces, ¿por qué el dilema?
En el caso Macintosh, se trata de una empresa y marca que incorpora en
sus
ordenadores
piezas
ya
probadas
de
otros
fabricantes
y
desarrolladores y, en ocasiones, se construyen diseños “a la medida” para satisfacción del mercado. Este fenómeno, al ocurrir en dispositivos clave de la computadora como la motherboard, el procesador, los puertos i/o (input – output o puertos de ingreso y salida de datos) y la tarjeta de video, por ejemplo, garantizan el funcionamiento adecuado del equipo.
Este mismo fenómeno se da en el terreno de las computadoras de escritorio denominadas “de fabricante“ o “de marca”, las cuales siguen el mismo principio para asegurar un estándar de calidad en sus modelos y, para que los departamentos de soporte técnico puedan ofrecer un mejor servicio al cotejar los números de serie en sus bases de datos, contra todas las especificaciones registradas de la máquina en cuestión.
Por otro lado, existe un mercado mucho más amplio que el que Apple Macintosh o el mercado de PC’s de marca pudieran ofrecer.
Se trata del mercado constituido por todas las piezas necesarias para armar una computadora PC y sus respectivos submercados. La razón de que esto no pueda hacerse en el mercado Macintosh, se debe a que sus desarrolladores no venden sus productos a otro cliente que no sea Apple Macintosh.
Al suceder lo contrario en el mercado PC, es posible construir un ordenador “a la medida”, con requerimientos técnicos muy específicos. A pesar de la flexibilidad que este mercado ofrece, el servicio de soporte técnico es prácticamente inexistente, ya que, al depender de un ensamblador, es común que no cuente con el conocimiento necesario.
A pesar de ello y al constituir un mercado flexible en precios y configuraciones, es común que sean los mismos usuarios los encargados de ensamblar y configurar la máquina.
En este punto, conviene hacer una distinción con respecto al mercado PC y Apple Macintosh. La razón de que Apple Macintosh esté considerada como una plataforma de uso dedicado al diseño gráfico, la edición de audio y video digitales y el diseño web, se debe a que, en un inicio, todo el desarrollo
de software1 estaba dedicado a Macintosh. Aplicaciones como Illustrator, Photoshop, Pro Tools, etc. tenían como host2 los sistemas operativos de Apple Macintosh, mejor conocidos como OS.
Por otro lado, la PC siempre fue considerada como una máquina multifuncional en la que sinnúmero de aplicaciones podía “convivir” en el host llamado Windows: juegos, aplicaciones de trabajo para oficina, navegadores de Internet, etc. La PC se ganó su lugar como “computadora de familia” en la que podía hacerse la tarea, llevar la contabilidad del negocio familiar o reservar un par de boletos de avión.
En otras palabras, mediante el uso y desarrollo extensivo de aplicaciones para PC, éste se convirtió en el formato favorito de los usuarios en términos de costo y variedad. Mientras tanto, Macintosh se ocupó de ofrecer una plataforma sólida y poderosa para trabajo específico: el diseño gráfico, la música, la edición de video y el diseño web giraban en torno a Macintosh y las compañías encargadas del desarrollo de herramientas pioneras que, a la fecha, son tan útiles como entonces.
Compañías como Macromedia, Adobe, Digidesign y Steinberg, no se detienen ante la presencia que ambas plataformas han logrado consolidar y,
1
El término software, también llamado “aplicación” o “programa”, se refiere a los datos almacenados en una computadora, así como el sistema y sub sistemas en sí mismos. 2 Se denomina host a un programa de computación diseñado para controlar otros programas diseñados para ello, es decir, para controlar otro programa.
finalmente, ha llegado el momento en que existen prácticamente las mismas herramientas para ambas plataformas.
En un mercado tan vasto, finalmente llegamos al grand host o software principal que permitirá el funcionamiento de ciertos programas “compatibles”, y excluirá los programas que no estén diseñados para ello, es decir, los “no compatibles”.
El “sistema operativo”3 de un ordenador puede ser considerado como la “base blanca” de un lienzo antes de aplicarle color. Se trata de una gran aplicación, cuyo despliegue en pantalla nos permitirá tener acceso a los subsistemas del operativo y a las aplicaciones que de él dependen.
De la arquitectura de éste sistema operativo, es decir, de la manera en la que la programación esté hecha, el flujo adecuado de información a los demás dispositivos y puertos del sistema se verá afectado. Pese a lo anterior, no existe, por el momento, uno sin errores o bugs que no hagan la vida difícil de vez en cuando.
Afortunadamente, la mayoría de los problemas surgen no en el operativo en sí, sino en su integración con otros dispositivos como tarjetas de 3
Un sistema operativo constituye la “plataforma” de una computadora cualquiera, es decir, se trata de un programa de computadora diseñado para que el usuario pueda “comunicarse” con el hardware conectado a la misma, de una forma sencilla. Actualmente, las dos plataformas más importantes son: PC y Apple Macintosh y, a lo largo de su historia, ambas plataformas han subsistido gracias al constante mejoramiento y rediseño de sus sistemas operativos, para mantenerse al día con los cambios e innovaciones del hardware.
sonido y algunas aplicaciones slaves o esclavas que dependen de una adecuada interacción con el sistema operativo, por lo que la posibilidad de corregir el problema con un pequeño instalador descargado de la red ofrece una solución que permite mantener el sistema al día y en condiciones óptimas.
En el mercado actual, tanto de PC como de Macintosh, existen dos vertientes principales; se trata de dos generaciones de sistemas operativos, uno más novedoso que el otro y, de la misma manera, uno más avanzado que otro. En sistemas Apple Macintosh los sistemas operativos reciben el acrónimo de OS (Operative System), seguido de la versión de la que se trate: OS 8.6, OS 9.1, OS 9.2.2, etc.
La historia de Macintosh con relación a los sistemas operativos no es una digna de presumirse; sus operativos nunca estuvieron del todo integrados, las “mañas” o tweakings posibles y, en ocasiones, necesarias para lograr un funcionamiento adecuado resultaban: molestas, complejas y, comúnmente, inútiles.
Al mismo tiempo que el fundador de Apple, Steve Jobs, regresó a la compañía en calidad de CEO4, con diseños que colocarían a Macintosh en su “mejor momento”, también trajo un nuevo sistema operativo bajo el brazo; 4
Acrónimo de Chief Executive Officer, título otorgado al miembro a cargo del manejo diario de una corporación. Normalmente, este puesto cuenta con toda la autoridad ejecutiva al interior de una empresa.
uno que, finalmente, lograba integrar todo lo que un operativo “debía ser”: atractivo, fácil de usar y compatible.
El sistema, décimo intento de Apple Macintosh en el desarrollo de sus OS, fue bautizado con el nombre “X”. El OS X o sistema diez sentó las bases de una nueva generación de sistemas operativos basada en un lenguaje que, en aquel momento, apenas era conocido y empleado por algunos desarrolladores y programadores del mundo: UNIX.
Por otro lado, Windows se basó en su sistema previo llamado NT para llevar a cabo las modificaciones pertinentes en el diseño de su operativo Windows XP. En el caso de Windows XP, sencillamente se trata de un major update5 del sistema operativo más vendido del mundo.
Su interfase visual mantiene mucho o, mejor dicho, todo lo que hizo a Windows famoso en los años que mutó de Windows 3.11 a Windows 95. En realidad y, pese a que el operativo XP de Microsoft tiene el mismo planteamiento que OS X en términos de conectividad. Su interfase6 visual y soporte para un sinfín de aplicaciones no deja detrás todo el terreno ganado, para sorpresa de los usuarios.
5
Se le llama update o “actualización” al proceso que permite, tanto la corrección de errores, como el mejoramiento de un software. 6 Una interfase, es un dispositivo que permite la interacción entre el usuario y una computadora. Existen interfases visuales o gráficas (monitor), interfases para ingreso de datos (teclado), interfases de impresión (impresoras, plotters, etc.), interfases de señalización (mouse o ratón), interfases de audio, MIDI, etc.
El llamado backward compatibility o “compatibilidad previa”, tanto para hardware7, como para software; en ambiente Windows XP, le asegura un nicho de mercado mayor al ser compatible gran cantidad de aplicaciones y hardware diseñado para su uso con versiones anteriores de Windows como 98, Millenium / ME, e incluso 95.
Naturalmente, la nueva generación de sistemas operativos desplazará tanto a los OS previos al X de Macintosh (actualmente ya con una versión 10.4 Tiger en el mercado) y, en el caso de Microsoft, seguramente continuarán con la visión que les permite el desarrollo de hardware y software nativo de Windows con la posibilidad de ser usados en otro operativo, prácticamente sin problemas de compatibilidad como, por ejemplo: en
OSX.
Esto
es,
desarrollo
de
tecnología
multiplataforma
que,
definitivamente, es un lujo que una compañía como Microsoft puede darse.
La recomendación, por la velocidad con la que este mercado cambia, es optar por un sistema de nueva generación PC o Macintosh, siempre y cuando, se tenga muy claro el trabajo que se va a requerir del ordenador; y, por otro lado, se esté seguro de cualquier aspecto de compatibilidad que pudiera presentarse. Conviene, inicialmente, cerciorarse si el dispositivo a integrar es compatible con el sistema.
7
Hardware es un término que abarca todas las partes físicas o tangibles que integran una computadora. El hardware es accesado por el usuario a través de software.
En conclusión, tanto PC como Macintosh, así como sus respectivos sistemas operativos, ofrecen al usuario el mismo potencial. El desarrollo de hardware y software multiplataforma permite que la decisión final recaiga en el gusto y presupuesto del usuario. Si además se considera que los archivos vinculados a una aplicación en plataformas distintas son frecuentemente compatibles, entonces, puede afirmarse que el mercado ofrece una solución accesible a todos los presupuestos.
2.2 Hardware de uso común en la creación musical asistida por computadora.
Al mismo tiempo que los sistemas operativos y sus aplicaciones evolucionaron, el hardware también comenzó a evolucionar. Nuevos puertos fueron diseñados y añadidos a las motherboards; entonces, el hardware comenzó a cambiar rápidamente, desplazando la tecnología previa y reorientando, de manera inteligente, las nuevas interconexiones, así como sus posibilidades.
Este es un momento curioso en la historia de todo estudio casero. Gracias al mercado y las mejoras en su construcción y distribución y, la proliferación de Internet, los costos elevados han sido eliminados en lo que a la creación de un estudio casero respecta. La grabación digital nunca antes ofreció una relación costo-productividad tan favorable para los artistas amateurs y profesionales (Milstead, 2001).
Antes, los puertos más comunes que podían encontrarse en una computadora tipo PC eran: paralelo, serial, ps/2, ethernet, módem; y SCSI en menor medida. En Macintosh, la mayoría de los puertos eran SCSI, (pronunciado “scozy”), aunque las conexiones de tipo ethernet o módem ya estaban presentes en algunos modelos.
En el momento que el modelo iMac de Apple Macintosh salió al mercado, no sólo sentó un precedente en el diseño industrial que Apple mantendría en lo subsiguiente sino, también, incorporaron nuevos puertos a sus máquinas que contaban con las ventajas de un sistema más evolucionado. Dichas ventajas incluían algo nunca antes visto en un ordenador personal, una tecnología que permitió la conexión y desconexión de dispositivos sin necesidad de apagar la máquina.
En otras palabras, gran parte de la innovación de Apple Macintosh se vio reflejada no sólo en sus diseños, sino en los nuevos puertos que sentarían las bases para un nuevo desarrollo industrial y, pese a que el llamado puerto USB (Universal Serial Bus) fue desarrollado por Intel, se le debe a Macintosh su popularidad.
Otro puerto que revolucionó por igual el mercado fue el llamado Firewire desarrollado por Macintosh, mismo que más tarde adoptaría Sony como iLink y el mercado genérico de PC como puerto IEEE 1394.
Esta tecnología se popularizó y se volvió de uso común, el mercado de PC comenzó a integrarla a su mercado y continuó evolucionando hacia lo que hoy en día se conoce como USB 2.0 capaz de transferir datos a 480 Mbps8 (USB 1.1 lograba transferir no más de 12 Mbps).
Es decir, USB 2.0 supera el ancho de banda de Firewire al estar limitado éste a 400 Mbps; IEEE 1394b (una especie de Firewire 2.0) ya se encuentra en el mercado y ofrece una tasa de transferencia9 de hasta 800Mbps por medio de un cableado de fibra óptica.
En el caso particular del audio digital, tanto USB como Firewire fueron tomados en cuenta por los desarrolladores y se le dio un seguimiento que nos permite hoy, contar con interfases de audio, MIDI o ambas in the box10 que constituyen: estudios portátiles, home studios y estudios profesionales.
La variedad de productos que se puede encontrar en el mercado es tan amplia como fascinante y la comodidad en su uso resulta por demás conveniente, ya que, al integrar todo lo ya mencionado sobre los sistemas operativos con este nuevo hardware, es posible olvidarse un poco de las vicisitudes que plantea el simple hecho de utilizar una computadora personal con fines artísticos.
8
Un millón de bits por segundo. Término que refiere a la cantidad de datos que permite una interconexión entre dos o más computadoras. 10 Soluciones integrales en un espacio reducido a un precio asequible. 9
La sencillez que plantea el nuevo mercado permite concentrarse en la tarea concreta que se quiera llevar a cabo y no está de sobra conocer los detalles sobre el funcionamiento de la plataforma, el operativo y la paquetería que se desee utilizar.
Siguiendo el caso concreto del audio digital, existe otra tecnología que no tiene que ver con USB o Firewire, aunque, en ocasiones, se logra incorporar; se trata de tarjetas especiales a las que una interfase es conectada para su operación. El hecho de que haya que instalar una tarjeta en uno de los slots11 de la motherboard tiene varios aspectos a considerar.
Normalmente, a este tipo de sistemas les acompañan especificaciones muy concretas respecto de los parámetros de grabación y reproducción, pues el flujo de estos datos de la computadora a la interfase no debe ser interrumpido.
Algunos fabricantes incluyen micro procesadores en sus tarjetas, lo que reduce, en gran medida, las tareas que el procesador de la computadora debe completar. Al reducir esta carga de trabajo, el procesador del ordenador puede realizar sin problemas otras funciones mientras la tarjeta y su interfase, comúnmente llamado core system o “sistema base”, se encarga de
11
Término utilizado para designar las ranuras de expansión que permiten, tanto la eventual expansión del equipo, como la especialización del mismo.
la conversión AD/DA (Análogo / Digital, Digital / Análogo) y del flujo ininterrumpido de datos.
Ya sea que utilicemos un puerto genérico de la computadora (USB o Firewire) o que contemos con la posibilidad de adquirir un core system, es importante tomar en cuenta, de nuevo, el uso que se le habrá de dar al sistema; es decir, el tipo de producciones concebidas para poder determinar, tanto el número de canales de entrada y salida a utilizar (como veremos más adelante), como la mejor solución disponible en el mercado.
Entre las diversas opciones que ofrece el mercado informático especializado para creación musical, nos encontramos con tres tipos de aplicaciones: secuenciadores o “editores no–lineales”, “editores lineales”, soft synths y plug–ins.
Los secuenciadores constituyen parte esencial de nuestro estudio ya que todo gira en torno al mismo. Se trata de una aplicación maestra o host a través de la cual podemos controlar tanto el hardware (debidamente interconectado) como software ajeno al secuenciador (es decir, un “programa esclavo” o slave).
La razón de que también se les llame a estas aplicaciones “editores nolineales” tiene que ver con la siguiente concepción: un sonido grabado es un
sonido que toma cierto tiempo en suceder y corresponde al tiempo que tarda en reproducirse.
Cuando el usuario es capaz de alterar esa línea de tiempo libremente, se le conoce como “edición no–lineal”. Esto quiere decir que, según las funciones disponibles en el secuenciador, será el usuario quién determinará la ubicación temporal del audio en el timeline o “línea de tiempo” del proyecto.
Así, es posible lograr una edición precisa, ya que este manejo temporal está concebido por la industria en “capas paralelas” (dependiendo del entorno visual del secuenciador utilizado), capaces de grabar, reproducir o editar minuciosamente audio digital.
Casi por convención internacional, a estas capas se les denomina tracks o “canales” y, generalmente, entre más tracks ofrezca un secuenciador; mayor será, tanto su precio, como sus funciones.
Entonces ¿qué hace un editor lineal? Un editor lineal ofrece un sinnúmero de herramientas para manipular audio digital; algunos, inclusive, cuentan con funciones muy específicas con las que un secuenciador no suele contar. La única diferencia entre editores lineales y no–lineales es la posibilidad de ubicar el audio en un lugar preciso dentro del timeline en un proyecto vs. tener que trabajar individualmente cada audio.
Actualmente, ambos tipos de editores son muy utilizados; sin importar las ventajas que la edición no-lineal pueda tener frente a las desventajas de la edición lineal, varios secuenciadores incluyen una función que permite al sistema “llamar” un editor lineal específico debidamente instalado en la computadora.
De esta forma, el proceso de producción se ve agilizado al contar con una poderosa herramienta de edición que interactúa con una herramienta de manipulación y ubicación temporal de audio.
Los llamados soft synths no son más que aplicaciones diseñadas para ser controladas a través de un secuenciador o para ser utilizadas en lo que se conoce como stand alone mode o “modo de uso propio”. Estos soft synths se caracterizan porque están diseñados para producir sonidos como un sintetizador de hardware. Todas las funciones disponibles en una pieza de equipo que genere o reproduzca sonidos se pueden encontrar en sus símiles cibernéticos12. Esto es, cajas de ritmo, sintetizadores, samplers13, etc.
Actualmente, éste es un camino común en la creación musical asistida por computadora, ya que los desarrolladores han inclinado la balanza hacia 12
El término refiere al grado de perfeccionamiento que las herramientas virtuales han alcanzado con respecto a las formas tradicionales con que operan: instrumentos musicales, herramientas de diseño gráfico, arquitectónico, fotografía digital, etc. 13 Un sampler es un instrumento musical que permite tener acceso a una amplísima gama de sonidos, misma que, en la mayoría de los casos, se concentra en su calidad sonora. Es decir, hablamos de un instrumento que permite reproducir sonidos correspondientes a otro con gran calidad.
su perfeccionamiento y diseño. En otras palabras, el hardware diseñado para hacer música hoy puede encontrarse en el mercado de software para PC o Macintosh.
Finalmente, aunque no menos importante, se encuentran los llamados plug ins; emuladores digitales de diversos procesos de audio. Es decir, los procesos habituales a los que el sonido puede someterse mediante el uso de hardware especializado (compresores, ecualizadores, etc.) son convertidos a algoritmos y usados de la misma forma que dicho hardware.
Los parámetros mediante los cuales se puede alterar el sonido son los mismos que los que se encontrarían en la versión hardware y su gran ventaja es que se tiene una amplia gama de posibilidades creativas a un costo mucho menor que lo que podría costar el hardware; además, sobraría destacar el aspecto de la reducción de espacio y los cables en el estudio.
La tecnología siempre evoluciona y, la velocidad con la que dicha evolución se ha dado en las últimas décadas, ha aumentado. Como es común durante etapas llenas de avances tecnológicos, obsolescencia y vanguardia comparten una era y, a medida que la vanguardia espera a ser obsolescencia, el ser humano debe tomarse su tiempo para analizar, reflexionar y usarla adecuadamente. En el futuro, quizá la única limitante en la evolución tecnológica, sea la velocidad con la que la raza humana se logre adaptar a la misma (White, 2001).
2.3 Software de uso común en la creación musical asistida por computadora.
Actualmente, los géneros pop configuran un abanico creativo tan fascinante como inclasificable. Las propuestas “en boga” son aquellas que logran un balance entre la experimentación sonora, la rítmica estática o dinámica y la armonía tradicional14, aunque, al tratarse de propuestas experimentales, puede darse el caso que dichos elementos musicales no sean del todo necesarios.
La influencia musical al interior de diversas sociedades ha motivado no sólo la hibridación de géneros musicales sino, también, la influencia en gran cantidad de músicos que ahora se interesan, por ejemplo: en integrar sonidos latinos en una composición de música electrónica y demás mezclas que conforman el mainstream musical de la actualidad.
El mercado de instrumentos musicales no ha ignorado este aspecto y actualmente ofrece, tanto al músico profesional, como al amateur; un sinfín de dispositivos en hardware y software que permiten un modelado sonoro de gran calidad a precio accesible.
14
Por “armonía tradicional” nos referimos a la armonía que opera en los doce semitonos de una octava, es decir, C, C#, D, D#, E, F, F#, G, G#, A, A#, B. Sucesivamente la escala se repite de forma ascendente o descendente.
El advenimiento del dominio digital o digital domain con el que se cuenta hoy en día, se encuentra en fase de perfeccionamiento, tanto de sus características, como de lo que podría definirse como una: “nostalgia digital”15. La precisión, calidad y bajo costo del procesamiento digital de señal son, sin lugar a dudas, aspectos ya superados y perfeccionados por las tendencias industriales del mercado musical.
a) Emulación digital.
Un instrumento que, sin lugar a dudas, modificó y reconfiguró el modus operandi de varios géneros musicales en su época y que aún es pieza clave en los géneros pop actuales, es la guitarra eléctrica. Ahora bien, recordemos esa “nostalgia digital” de la que hablábamos anteriormente y tratemos de imaginar cuáles fueron los elementos que permitieron a Jimi Hendrix, Jimi Page, Brian May, Stevie Ray Vaughn, David Gilmour, Eddie Van Halen, Eric Clapton y demás iconos del rock clásico, tener un sonido tan peculiar que, en ocasiones,
una nota y su modelado eran suficientes para saber quién
tocaba.
15
Una nostalgia que ha permitido un desarrollo constante en la búsqueda del “sonido exacto”, aquel que sólo la versión original producía. La emulación del dominio análogo en el procesamiento digital de audio, por ejemplo, aún es argumento de venta en el mercado actual de instrumentos musicales.
En definitiva, el estilo de cada guitarrista tenía mucho que ver, los sistemas de amplificación y su manipulación eran lo que permitía definir el estilo16 de un guitarrista.
Ahora bien, recientemente la compañía Line 6 desarrolló un procesador para guitarra en el que hardware y software interactúan de una manera nunca antes vista en el mercado. El equipo de investigación de Line 6 midió electrónicamente la respuesta de señal de treinta y seis amplificadores de guitarra considerados “clásicos”.
Se midió el punto preciso en que sus perillas de control comenzaban a afectar el sonido, desde su nivel más sutil hasta el nivel más agresivo en el que el sonido comienza a distorsionarse17.
De la misma manera, se midió electrónicamente la respuesta de señal de diferentes tipos de bocinas; gabinetes cerrados y abiertos con setups de cuatro bocinas de 12”, 30”, etc.
Al integrar hardware y software, tenemos como resultado, un procesador de señal con un costo aproximado de seiscientos USD, con gran potencial de modelado acústico que, de no existir, limitaría creativamente el 16
Ver Creación de iconos sonoros. Capítulo 1 (1.5). La llamada distorsión es, quizá, el efecto de guitarra más utilizado en la historia de la música a partir de 1950. Consiste en un incremento en el control de ganancia del circuito de amplificación, lo cual provoca un cierto nivel de saturación en la señal a medida que se incremente al volumen. El resultado es un sonido distintivo al cual se añaden falsos armónicos que modelan la señal en su paso por los controles de circuito de amplificación. 17
espectro de sonidos posibles con una guitarra. Además, al volverse casi imprescindible una buena pieza de amplificación el costo se eleva y, si lo buscado es lograr un sonido “clásico”, por ejemplo, resultará aún más caro encontrar un equipo vintage18 en condiciones óptimas.
Otro punto a favor de esta nueva herramienta, conocida como POD, es el aspecto del espacio, ya que hasta ahora se ha estado hablando de un aparato cuyo peso aproximado es de tres kilogramos y que ocupa dos espacios en un rack19.
b) Síntesis virtual.
Otro ejemplo que permitirá comprender mejor el papel que esta emulación digital juega en el ámbito de la producción musical, tiene que ver con los llamados virtual synths o soft synths, nombre utilizado para designar todo software capaz de producir sonidos mediante un control o secuenciador built in o “integrado” o, a través de un controlador MIDI externo.
Esta tecnología fue inicialmente desarrollada por la compañía alemana Steinberg cuando integró el soporte VST (Virtual Studio Technology) en su secuenciador Cubase. Actualmente, el soporte VST es muy popular entre los
18
El término refiere a una pieza de equipo antigua que, por sus características sonoras, goza de cierto prestigio en el mercado. 19 El rack de 19”, es un sistema estandarizado de montaje de equipo electrónico.
usuarios de Macintosh y PC, ya que existe desarrollo para ambas plataformas desde hace algunos años.
Técnicamente, se adquiere un software escrito y diseñado para trabajar en otro software, generalmente un secuenciador, denominado host. Este software host puede, o no, ser compatible con el soft synth adquirido, ya que por ser un mercado en desarrollo constante existen varios lenguajes, tanto para Macintosh como para PC, en los que estos softwares pueden ser adquiridos. Sin embargo, desde hace ya algún tiempo, es posible obtener en el mismo paquete un soft synth híbrido PC / Macintosh con soporte para varios secuenciadores host compatibles por el mismo precio.
La variedad de soft synths disponibles hoy en día presentan, al igual que el POD de Line 6, un abanico interminable de productos de emulación sonora de instrumentos clásicos como Prophets, B4, DX 7; nombres quizá no muy conocidos actualmente por la nueva generación de músicos que comienza a adentrarse en este mundo.
Estos instrumentos fueron piezas clave en la configuración de sonidos clásicos de los años ochenta. Grandes íconos pop como Duran Duran, Madonna, Electric Light Orchestra, etc. deben “su sonido” al potencial de estos instrumentos. Bastaría recordar que el famoso Moog Modular, del cual hablaremos más tarde, ya cuenta con una réplica virtual que ofrece sus mismas características sonoras.
Este rubro es el más explorado actualmente por los desarrolladores y no todo queda en la nostalgia digital. Imaginemos, ahora, la posibilidad de experimentar con el sonido y poder modelar una onda sinoidal, triangular, cuadrada o serrada básica, ruido, o algún otro tipo de señal, con la capacidad de procesamiento sonoro que ofrece una computadora y la posibilidad de poder “abrir” cuantos módulos virtuales se necesiten para obtener los resultados necesarios o imaginados.
c) Procesamiento de señal digital.
Como último ejemplo, abordaremos otro gran mercado de emulación análoga en el dominio digital. Este tiene que ver con el procesamiento de señal que, anteriormente, necesitaba racks inmensos, repletos de equipo de uso común como: compresores, ecualizadores, preamplificadores, analizadores de espectro, herramientas que añadían efectos especiales a voces, guitarras, etc., todas las herramientas de procesamiento imaginables.
Cuando VST fue desarrollado por Steinberg, éste fue pensado para lograr integrar toda una maquinaria de producción de alta calidad para Cubase, que ya contaba con varias generaciones previas orientadas primordialmente al manejo MIDI.
La primera versión de Cubase VST resultó ser una gran innovación en el ámbito musical por ser la primera aplicación que integraba un secuenciador MIDI, un secuenciador de audio y una amplia gama de herramientas de procesamiento digital; estas herramientas fueron bautizadas como plug ins.
En adelante, MIDI, audio y todo lo necesario para su procesamiento se encontraron in the box. Finalmente, se logró integrar un estudio virtual que contenía todas las herramientas necesarias para lograr una producción de calidad. A partir de ese momento, el audio digital comenzó a popularizarse y la industria musical y del entretenimiento se redefinieron al poder prescindir de todo el espacio y dinero que había que invertir en un estudio basado en “dominio análogo”.
En los años siguientes, la tecnología VST fue mejorada; varias compañías orientaron su potencial y su inversión en el desarrollo de estos plug ins y,
tanto Macintosh, como PC, compiten en el mercado actual.
Algunas empresas tuvieron tanto éxito, que sus procesadores virtuales alcanzan hoy un valor en el mercado de tres mil USD por un paquete de cinco herramientas para “masterización”.
Otras compañías fueron absorbidas por los nuevos titanes de los instrumentos musicales y procesadores de señal en su versión avant garde, y no es de sorprenderse que varias de estas compañías utilicen el mismo
criterio de Line 6 para desarrollar versiones en “software” de productos de procesamiento vintage.
Ahora, la
elección es entre dos o más algoritmos formulados por
diferentes compañías que afectarán el audio registrado sensiblemente. Por ejemplo: antes se trataba de escoger entre un compresor análogo marca Neve o Pultec, ahora se trata de escoger entre un algoritmo de compresión digital Waves o GMR Tools.
Con el advenimiento de esta evolución tecnológica, también se desarrollaron otros formatos de procesamiento que sentaron las bases para que los secuenciadores host pudieran aprovechar una extensa variedad de dichos productos. Surgieron los Plug Ins DX o Direct X para PC; VST y VST 2.0 para Macintosh y PC; RTAS y TDM para sistemas Pro Tools; MAS para MOTU Audio System y otros que, además, pueden ser operados como stand alone o “modo independiente”.
Al igual que sucede con el tema referente a MIDI, por ahora basta con entender que existe un abanico tecnológico en constante desarrollo, orientado al procesamiento virtual de señal y de instrumentos musicales, capaz de ofrecer la cantidad de sonidos necesaria y más para contar con un gran catálogo sonoro en una computadora personal.
Más adelante, abordaremos todos los aspectos técnicos que tienen que ver con los formatos disponibles, su integración MIDI, el lugar que pueden tomar como herramientas de producción en un home studio, la integración con el hardware de procesamiento análogo y sus diferencias.
La piratería ha tomado por asalto a la industria musical, no sólo en el producto cultural que representa un audio cassette o un disco compacto sino, también, en la industria que invierte millones de dólares en el desarrollo tecnológico que hoy permite la existencia de productos como los anteriormente mencionados.
Si recurrir a la piratería está bien o mal, o si debe cambiar o no, es algo que atañe exclusivamente a la legislación en la materia de cada país. Lo que es un hecho y sí nos atañe, es la manera en la que la piratería electrónica ha motivado a los usuarios a hacerse de verdaderas mediatecas musicales, audiovisuales y herramientas de trabajo digitales.
Hace años, pensar en una copia de audio cassette conllevaba la eventual degradación sonora con cada copia. Ahora, el advenimiento de la tecnología digital y su irrupción en el video, el audio y el diseño gráfico, entre otros, permite contar no sólo con las herramientas de trabajo, sino también con una “copia original” de cada copia.
Aunque más adelante también abordaremos este proceso, no deja de sorprender la mecánica de esta reproducibilidad ilimitada para los músicos que pretenden que su obra sea escuchada y multiplicada sin degradación por un mercado reproductor-consumidor y, eventualmente, creador.
Indudablemente, lo que para la industria discográfica mundial es una sentencia de cambio en los procesos de manufactura para proteger el material que el público va a consumir, para la escena musical independiente representa un gran avance en términos de costos de producción, distribución, diseño de imagen y masificación de productos comunicativos musicales.
En adelante, al abordar el tema de la piratería se hará desde la perspectiva que atañe a este estudio, la cual es la libre distribución de la obra registrada, por el músico en cuestión, con miras a la formación de un mercado y público meta.
Por otro lado, se debe estar consciente de que pese a la ilegalidad que rodea la piratería de software, converge también el interés de gente que quiere experimentar con estas nuevas herramientas y no sabe qué productos adquirir, es decir, un proceso de ensayo y error para realizar la compra más apropiada.
Una vez que el producto musical quede terminado y éste pueda ser reproducido ilimitadamente sin degradación sonora, el público no se detendrá a pensar si éste fue integrado con herramientas ilegales, ya que no existe forma de determinarlo, o no; el público, sencillamente, escuchará una canción “nueva” de un artista “nuevo” y, si resulta de su agrado, eventualmente pedirá más y se podrá pensar en llevar esos resultados a otros niveles y arenas de recepción.
2.4 MIDI.
El desarrollo de MIDI tiene su origen a principios de los años setenta, época en la que el Dr. Robert A. Moog inventó el primer sintetizador. Los primeros instrumentos electrónicos comenzaron a desarrollarse en la década de los años 20 con la llamada “música de vanguardia”.
El instrumento desarrollado por Moog tuvo tal éxito, que se vio en la necesidad de hacer una modificación no contemplada; el instrumento debía contar con un sistema que permitiera controlar los sonidos emitidos por el módulo: un teclado.
Moog consideraba que las características del teclado convencional no eran lo suficientemente aptas para su módulo, ya que gran parte de las características del llamado Moog Modular incluían perillas de ajuste micro
tonal y afinaciones variables que rebasaban el límite creativo de la afinación tradicional.
En los años venideros, los fabricantes comenzaron a desarrollar dicha tecnología de control con variaciones entre las diversas marcas. La idea era que los sintetizadores de una misma marca se pudieran comunicar entre sí para tener acceso, desde un solo “controlador”, a los sonidos de otro sin la necesidad de tocar físicamente el teclado controlador del módulo accesado. Esto permitió a los músicos de la época un nuevo abanico de posibilidades sonoras mezclando, por ejemplo, el sonido de piano de un módulo con el sonido de violines de otro.
Años después, en 1982, fabricantes y desarrolladores de sintetizadores se reunieron para sentar las bases de un protocolo de comunicación entre instrumentos musicales; el resultado es el protocolo de comunicación conocido como MIDI (Musical Instruments Digital Interfase). Tras el desarrollo tecnológico que detonó el invento de Moog, el protocolo MIDI comenzó a popularizarse.
A tres años de su irrupción en el mercado [MIDI], casi todos los instrumentos musicales electrónicos contemplaron el hardware MIDI, y sus funciones, en sus diseños. Se convirtió en un verdadero estándar universal ... Al igual que cualquier computadora, MIDI es utilizado por millones de personas en miles de aplicaciones (Rona, 1994).
MIDI puede definirse como un protocolo de control entre instrumentos musicales, una interfase digital que puede encontrarse en casi cualquier dispositivo que tenga que ver con el ámbito musical: procesadores de efectos, sintetizadores tradicionales, sintetizadores para guitarra, sistemas de iluminación que requieran algún tipo de sincronía, etc.
Al hacer uso del protocolo MIDI, la interconexión y sus posibilidades creativas rebasan la imaginación o, mejor dicho, ésta se convierte en su única limitante.
Tomemos en cuenta que hablamos de una tecnología de control presente en home studios y estudios profesionales; las interconexiones entre los dispositivos pueden ser muy sencillas o muy complejas y esto depende sólo de la conceptualización sonora que se tenga en mente y su control.
Estas interconexiones, por ejemplo, permiten un arreglo preciso en una secuencia con respecto al tempo de un proyecto o el control global de un live performance setup20. Partiendo de esta concepción, puede apreciarse la gran utilidad que representa MIDI en la creación musical actual, de tal suerte que una vez que la información se encuentra almacenada en la memoria de un secuenciador ya sea de software o hardware, es posible cambiar los arreglos; es decir, puede estar sonando un violín sin gran potencial acústico
20
Término MIDI utilizado para denotar la interconexión en la interpretación de un mensaje musical en vivo.
y ser sustituido por trompetas, saxofones, u otros violines con mayor presencia. Incluso puede duplicarse la información ya capturada y ser reproducida con algunos tonos de diferencia con otro instrumento para lograr mayor riqueza armónica.
La mayor virtud del protocolo MIDI es que permite lograr una interpretación óptima aunque la ejecución no lo sea mediante varios parámetros y herramientas de edición. Una vez hecho esto, el material registrado denominado: “secuencia”, puede ser trabajada en mayor o menor medida para que “suene” como uno desea, ya sea en la tonalidad original, o en una transpuesta; con violines o violoncelos o, quizá, ambos (Valenzuela, 1995). En una primera aproximación, debe entenderse que un dispositivo MIDI es, en esencia, una computadora que genera sonidos21 al cual llamaremos “módulo”. Este módulo puede contar con un dispositivo de control para el usuario, es decir un teclado comúnmente llamado “controlador”.
En esencia, un sistema MIDI integra tres puertos: MIDI IN para el ingreso de datos, MIDI OUT para su transmisión y, MIDI THRU no disponible en todos los dispositivos, que retransmite los datos ingresados por el puerto MIDI IN. Este puerto es el que permite la interconexión de varios dispositivos en serie para ser accesados desde un solo controlador.
21
Existen varios tipos de síntesis, esto es, diversas formas en las que un sintetizador puede emitir sonidos: síntesis sustractiva, aditiva, granular, tabla de onda, FM o modulación de frecuencia, modelado físico o a través de sampleo digital.
Conexiones MIDI.
El flujo de datos entre los dispositivos MIDI y su interconexión se realiza mediante un cable MIDI de 5 pines que transmite la señal del puerto de salida al puerto de entrada, es decir, la conexión debe realizarse del MIDI OUT del controlador al MIDI IN del dispositivo a controlar y, si este dispositivo contara con un puerto MIDI THRU, la señal podría ser retransmitida a un segundo dispositivo en su puerto MIDI IN y así sucesivamente.
A este tipo de interconexión se le denomina daisy chain y representa una conexión en serie o serial. Esto quiere decir, que todos los dispositivos reaccionarán a las órdenes de un solo controlador en los canales asignados respectivamente.
Conexión serial o daisy chain.
Otro tipo de interconexión MIDI es el llamado paralelo, en el que interviene una “interfase MIDI”. Este tipo de dispositivos permite el “ruteo”22 libre de las ordenes MIDI entre el número de puertos con los que cuente dicha interfase. El número de puertos va de la mano con el costo y las funciones disponibles; existen interfases de 2, 4 y 8 puertos en diversas configuraciones y, regularmente, las más grandes integran una memoria que almacena diversos setups MIDI para re-rutear la señal con el toque de un botón.
22
Anglicismo que refiere al término informático routing, mismo que es usado para denotar la forma en la que se interconectan dos o más computadoras, así como el flujo de información en el sistema interconectado. El ruteo, tanto de órdenes MIDI, como de señal de audio en un estudio de grabación, es algo que no se debe perder de vista, ya que del mismo depende el funcionamiento adecuado del sistema.
Conexión paralela.
Después de más de 20 años de existencia, MIDI no ha sufrido cambios en su forma de operar; los dispositivos que se conectan entre sí han sido objeto de sutiles modificaciones que amplían el potencial creativo del protocolo.
Las conexiones MIDI se realizan mediante un cable de 5 pines, de los cuales aún no existe la necesidad de utilizar más de 3; los pines 1 y 3 no son utilizados, el pin 2 carga una tierra física a través de la interconexión de los
equipos, el pin 4 lleva una corriente de +5V (cinco voltios) a través del cable y, finalmente, el pin 5 transmite los datos MIDI.
Cable MIDI.
Cada puerto o cable MIDI es capaz de transmitir 16 señales independientes en 16 canales separados. Esto quiere decir que una interfase MIDI de 8 puertos IN/OUT permitirá el libre flujo de información en 128 canales IN y 128 en 8 canales OUT.
Al comunicarse el controlador y el módulo de sonido, se detona una secuencia de ordenes que pueden agruparse en cinco tipos: “mensajes de eventos musicales” o MIDI events messages, “mensajes de control continuo” o continuous control messages (CC), “mensajes de sistema” o System messages, “mensajes de modo” o mode messages y, finalmente, los llamados “mensajes de sistema exclusivo” o system exclusive messages (SYSEX).23
23
Para mayor información sobre el protocolo MIDI ver bibliografía anexa.
Creativamente, las posibilidades que ofrece MIDI están limitadas por dos factores primordiales: el número de dispositivos interconectados y las características de los mismos. Estas características van en relación con la aplicación de los dispositivos y repercutirán en la forma en la que los mismos se integren a la “cadena”. Algunos de los dispositivos MIDI más comunes son: cajas de ritmo; módulos de generación de sonidos o sintetizadores; samplers; sintetizadores para guitarra; secuenciadores, tanto en software, como en hardware), y procesadores de efectos.
Al respecto, existen dos aspectos a tomar en cuenta en cualquier dispositivo MIDI. El primero se llama polifonía, esto es, ¿cuántos sonidos puede emitir el módulo en cuestión de forma simultánea? Al segundo, se le llama multitimbricidad, y se refiere a la capacidad que varios sintetizadores tienen de dividir su sección de control para crear zonas que pueden asignarse a canales MIDI independientes, permitiendo el acceso a varios sonidos desde un mismo controlador.
¿Cómo repercute en la producción musical la integración de todos estos conceptos? Al integrar las características MIDI de un dispositivo, es posible determinar el potencial de un sintetizador o algún dispositivo similar; no basta con conocer sus especificaciones MIDI sino, también, la orientación con la que dicho instrumento fue desarrollado.
Por ejemplo: puede darse el caso que contemos con un módulo de precio exorbitante con un sinnúmero de perillas, leds y pantallas; el dispositivo puede costar 2000 USD, tener una polifonía limitada de dos voces simultáneas y no ser multitimbral y, a pesar de ello, es factible que la calidad sonora sea inigualable.
Dicho de otro modo, es necesario poner todas las especificaciones MIDI en la balanza y tomar en consideración el uso que se dará al instrumento. El precio de los mismos, normalmente va respaldado por un “prestigio sonoro”, es decir, cualidades acústicas inherentes una marca determinada que constituyen parte de la preferencia de los consumidores por ciertos modelos y marcas considerados “clásicos”.
Las posibilidades creativas van en relación con el ingenio con el que se combinen las características MIDI. Por ello, es importante definir el uso que se le habrá de dar al tipo de setup24 MIDI en cuestión. Es decir, musicalmente, cada género representa diferentes configuraciones. Por ejemplo: si lo que pretendemos es que las composiciones suenen como una orquesta, recurriremos a módulos, cuyas características sonoras se enfoquen en instrumentos sinfónicos; si, por otro lado, queremos hacer música electrónica, recurriremos, en gran medida, a cajas de ritmo, módulos, sintetizadores digitales de emulación análoga y samplers.
24
El término refiere al arreglo e interconexión del equipo MIDI y de audio utilizados en un estudio o una presentación en vivo.
Actualmente, las características e innovaciones hechas por los fabricantes se ven reflejadas en todo un abanico de “posibilidades sonoras” en las que no es raro encontrar un módulo o sintetizador que no contemple el factor “variedad sonora” en sus diseños y ofrezca todo en paquete. A medida que se defina el sonido deseado, se irá enfocando el tipo de elementos que hacen falta en el estudio para tomar la decisión de compra más apropiada.
Al tener, hoy en día, un espectro tan amplio en relación con el tipo de dispositivos que se integrarán a un home studio, nos encontramos con tres aspectos muy importantes.
El primero, es que MIDI es un estándar en la industria de los instrumentos musicales y para muestra basta un botón: a finales del año 2002 fue lanzada al mercado una versión del Moog Modular que ya cuenta con implementación MIDI y un rediseño que, de manera casi obligada para algunos géneros musicales, resulta indispensable.
El segundo, es que MIDI es un protocolo de control de un “arsenal sonoro”25, a través de las 10.6 octavas de un teclado, o las seis cuerdas de una guitarra.
25
La instrumentación del protocolo MIDI en la gran mayoría de los dispositivos disponibles en el mercado actual, permite tener acceso a cualquier tipo de sonido imaginable.
El tercero, es que MIDI es, en suma, un protocolo de comunicación digital entre instrumentos musicales. Es decir, un código de comunicación muy sencillo en su esencia digital al ser un verdadero “balbuceo” comparado con un sistema digital avanzado como el de una PC. Se trata de una estandarización que abraza todas y cada una de las posibilidades de composición que cualquier entusiasta requiera; ha funcionado por más de 20 años; y ha permitido una evolución musical importante desde su invención.
Por último, aunque pudiera parecer confusa toda la información referente al protocolo MIDI, resulta de suma importancia no perderla de vista por el momento. Una vez definido el género musical en el que se desea incursionar o el tipo de sonidos necesarios para integrar en un home studio, entonces convendrá retomar todo lo anterior para determinar el lugar que el nuevo dispositivo tomará en el mismo.
En gran medida, la necesidad de aprender a fondo el protocolo MIDI se aviene con el deseo de hacerlo. Dicho de otra forma, conviene tener claras las preguntas al respecto para poder plantear un conjunto de problemas musicales concretos y encontrar una respuesta en el mercado actual de los instrumentos musicales. Al final, es el usuario quien logra que la “comunicación musical” fluya entre los dispositivos, lo que permite que el protocolo MIDI funja como elemento constitutivo en la gestación de un mensaje musical.
2.5 Nociones de audio digital, MP3 y CD.
MP3 es el formato más popular de compresión informática sonora. Aunque su introducción en el ámbito musical es hasta cierto punto reciente, éste irrumpió con fuerza en Internet a partir de 1999. Su historia se remonta a mucho tiempo antes.
En Alemania, en el año 1987, el Fraunhofer Institut Integrierte Schaltungen (ISS) del Motion Picture Expert Group (MPEG), en colaboración con la Universidad de Erlagen; bajo la dirección del International Standards Organization (ISO) y de la International Electro-Technical Comission (IEC), comenzó la búsqueda de un sistema para transmitir audio digital por radio, ocupando menor “ancho de banda”26.
Tras dos intentos previos, en 1992 es publicado el formato MPEG layer 3, con compresión 11:1 (once a uno), es decir, el peso informático del material comprimido con respecto al material de origen es reducido un poco más de diez veces; el flujo de datos se estableció en 128 Kb/s, sentando las bases de lo que hoy conocemos como MP3.
MP3 es el formato de música más usado, transferido, compartido, codificado, decodificado y copiado en Internet. La popularidad que adquirió MP3, al momento de su irrupción en la vida cotidiana de los cibernautas, se debió a que la música en Internet se encontraba 26
El término refiere a la cantidad de datos que pueden transferirse a través de una conexión en un lapso determinado.
distribuida en archivos informáticos muy pequeños y con una calidad sonora ínfima; o, en su defecto, archivos de alta calidad cuyo tamaño no permitía, siquiera, una descarga “garantizada” (White, 2001). El sistema de compresión que emplea el MP3 se basa la psicoacústica: el oído humano no percibe (o el cerebro no interpreta) todas las frecuencias existentes en el espectro sonoro, algunas pueden ser eliminadas sin afectar la calidad sonora, ahorrando espacio en el tamaño del archivo.
Es decir, en un audio existen frecuencias con mayor potencia o dominancia que otras. Lo mismo pasa en una canción y en cualquier material sonoro registrado; al no contar con la misma potencia en todo el rango de frecuencia, es posible eliminar aquellas con menor potencia adyacente a las frecuencias
dominantes;
este
proceso
se
denomina
masking
o
“enmascaramiento” y constituye la esencia de dicho algoritmo de compresión.
La cantidad de frecuencias a eliminar resultará en un archivo con mayor o menor peso informático y, en dicha relación, a mayor peso informático, mayor calidad. Por otro lado, también se considera que los sonidos agudos y graves al no estar presentes de forma constante en una pieza musical, pueden ser atenuados mientras no sean utilizados.
El algoritmo de codificación MP3 fue concebido como un tipo de “archivo intermedio” o “puente”, destinado a ser transmitido y luego
convertido en otro tipo de archivo para su uso final; por ello, ofrece tantas posibilidades de codificación, lo que permite controlar la calidad del archivo final.
A pesar de lo anterior, la popularidad del MP3 ha motivado que el archivo intermedio sea el producto final; dicho de otra forma: MP3 permitió la gestación de un coleccionismo electrónico, cuyos fines no pueden ser otros más que la satisfacción personal o la piratería. Así, cuando se pregunta cuál es la mejor forma de codificar un MP3, no se puede determinar un formato único, ya que depende del uso que se vaya a dar al archivo en cuestión.
Sin embargo, desde que el CD fue desarrollado, fueron establecidos los parámetros óptimos con los que un medio de registro sonoro digital debía contar:
•
Rango de frecuencia que opera de los 20Hz a los 20,000Hz o 20KHz; esto, debido a que es el rango de frecuencias que pueden ser percibidas por el oído humano, es decir, el rango de frecuencia audible.
•
Sistema de reproducción estereofónica o monoural, aunque éste es un recurso menos utilizado.
•
Rango dinámico de 96dB27 el cual es la relación entre el silencio y el sonido más fuerte que se puede reproducir, rango de potencia que se traduce en volumen por el equipo reproductor y su sistema de amplificación.
•
Distorsión armónica menor al 0.1%; referente a la máxima cantidad de deterioro que la señal puede presentar para no ser percibida como molesta o distorsionada.
•
Nivel de ruido en señal mayor a -90 dB el cual representa la relación entre el volumen de la señal y el volumen resultante de la suma de todo el ruido presente.
•
Finalmente, aunque no menos importante, cabría aclarar la diferencia entre análogo y digital. Básicamente, un medio de registro sonoro análogo funciona mediante un proceso de inducción magnética. En un registro digital, el audio análogo es convertido a lenguaje binario mediante convertidores llamados AD/DA (análogo-digital, digitalanálogo); esto, con el objeto de manipular el audio en un medio digital como el que puede proporcionar una computadora.
27
El decibel (dB) es una unidad de medida de valores logarítmicos. Debe su nombre a Alexander Graham Bell, sin embargo, para fines prácticos, se recurrió a su división. El decibel (dB), la décima parte de un bel, es la unidad que expresa la potencia o volumen del sonido.
Sin ahondar en tecnicismos respecto de las cualidades de registro de un CD, puede decirse lo siguiente: el disco compacto o CD es considerado como un “medio perfecto”, esto debido a que sus cualidades de registro abarcan todo el rango de frecuencias audible por un ser humano y, además, ofrece un potencial de volumen con poca distorsión. Todas estas cualidades se obtienen maquilando el CD con una “resolución de sampleo” o sampling rate de 44.1 KHz y 16 “bits de profundidad” o bit depth.
Para hacer un archivo digital de audio, se toman muestras sucesivas; esta sucesión es determinada por el sampling rate, valor que indica qué tan sucesiva será la muestra de una señal análoga, la resultante de dicha onda sonora es traducida a valores numéricos. El número de sampleos que se toman en un segundo es lo que, técnicamente, se conoce como “frecuencia de muestreo” o sampling rate y se expresa en hertz (Hz) o kilohertz (KHz) o; miles de ciclos por segundo. A mayor sampling rate, mejor será tanto el registro como la reproducción de las frecuencias agudas.
Según el teorema de Nyquist28:
La frecuencia de muestreo debe ser, por lo menos, el doble que la máxima frecuencia de la señal a reproducir. Por lo tanto, para alcanzar la frecuencia máxima que percibe el oído, o sea 20 KHz, la frecuencia de muestra debería ser mayor de 40 KHz. Como en el CD también se tienen que codificar los llamados bits de control, se escogió la 28
El teorema de Nyquist establece que al digitalizar una señal análoga, la frecuencia de sampleo debe ser del doble de la frecuencia más alta de entrada para que la señal pueda ser reconstruida adecuadamente una vez digitalizada.
frecuencia 44,1 KHz para cubrir todo el espectro sonoro. Con la mitad de esta frecuencia de muestreo, es decir, 22 KHz, podríamos reproducir una señal de hasta 10 KHz; es decir, menor ancho de banda de lo que permite la radio de frecuencia modulada pero suficiente para muchas aplicaciones, como, por ejemplo, grabar y reproducir con exactitud la voz humana (Haines, 2001). Por otra parte, como los números asignados a las muestras son cantidades concretas, cuando el archivo digital es reconvertido en una señal análoga para
su
reproducción,
ésta
resultará
"escalonada",
introduciéndose
frecuencias que constituyen el llamado “ruido de cuantificación” o de “muestreo”. Cuanto mayor sea la frecuencia de muestreo, menor y más agudo será el ruido de cuantificación y, por tanto, menos perceptible; una frecuencia de muestreo de 44,1 KHz produce mucho mejor relación señal / ruido que una de 22 KHz.
Codificar a frecuencias mayores de 44,1 KHz (por ejemplo a 48 KHz) no tiene sentido cuando la fuente original es un CD o un archivo grabado a menor frecuencia de muestreo, ya que los datos necesarios no pueden ser “inventados de la nada” y, por lo tanto, sólo conseguiremos hacer archivo más grande con la misma calidad sonora.
Además, como el oído humano sólo percibe frecuencias hasta 20 KHz, tampoco conseguiremos "escuchar más". Frecuencias de muestreo mayores a 44.1 KHz y 16 bits pueden ser utilizadas cuando se realiza una grabación en la que cada detalle sonoro debe quedar registrado con suma precisión como,
por
ejemplo;
las
colecciones
de
efectos
de
sonido.
Independientemente de que la grabación haya sido realizada a 96 Khz y 32 bits, el producto final en CD no puede exceder los 44.1 Khz y 16 bits.
Al samplear una señal, es preciso dar valores numéricos a cada muestra; dependiendo del valor, al restaurar la señal análoga para ser reproducida; la amplitud será afectada por igual y, por tanto, el volumen del sonido reproducido se verá afectado. El “potencial de volumen” está limitado por el número de bits con que se dispongan.
Si se emplean “palabras de ocho bits” (un byte), se podrán asignar números que ubicados entre ocho ceros, corresponden al número decimal 0; y ocho unos, correspondiente al número decimal 255. En otras palabras, se podrán asignar 256 valores de amplitud, lo cual ofrece un rango dinámico de 50 dB (cada bit equivale a 6 dB), es decir 8.33 Bits. Como esto es insuficiente para obtener una calidad óptima, se recurre a emplear “palabras de 16 bits” (2 bytes), con lo que es posible asignar valores entre dieciséis ceros (decimal 0) y dieciséis unos (decimal 65,535), es decir, podremos asignar 65,536 valores, lo que nos permite contar con un rango dinámico de 96 dB.
Una señal que oscila entre los valores 0 y 65,535, al ser reproducida, tendrá el máximo volumen posible en el valor 65,535. Si la señal que pretendemos samplear tiene picos de amplitud que exceden dicho rango,
estos quedarán "recortados", produciéndose un deterioro o clipping en la señal. Esto constituye la llamada distorsión armónica digital.
Por otro lado, si los picos de amplitud no llegan a estos valores, no se alcanzará el máximo rango dinámico posible y, en consecuencia, el volumen del registro carecerá de potencia al momento de su reproducción. Esto puede arreglarse sumando o restando valores progresivos a los números existentes en el archivo, de forma que los picos de amplitud tengan un valor mayor.
A este proceso se le llama “normalización”. Existen dos formas de hacerlo: la normalización de picos y la normalización RMS. En la primera, un algoritmo calcula el número de decibeles (dB) que se han de sumar o restar al pico máximo del archivo para alcanzar los valores 65,535, añadiendo valores proporcionales al resto del registro informático.
En el sistema RMS, se suman o restan valores para que el promedio alcance un valor predeterminado, alterando los valores de ganancia automáticamente en el audio procesado; este sistema permite una mayor homogeneidad cuando se requiere normalizar varios archivos conservando la relación de sus rangos dinámicos, a pesar de esto, tiene el inconveniente que los picos pueden sobrepasar los valores máximos, produciéndose recorte de los mismos y provocando distorsión armónica.
Los archivos MP3 pueden ser comprimidos en formato monoural con sólo un
canal o con dos canales de audio en estéreo. En este caso el
tamaño del archivo será el doble, ya que contiene muestras de dos señales que se asignarán, alternativamente, al canal derecho e izquierdo.
Existe una forma mixta que se denomina joint-stereo y se basa en que el oído humano percibe bien las frecuencias medias como direccionales o posicionadas en el espacio sonoro, en menor medida las frecuencias agudas y, poco o nada las frecuencias graves. Así, para ahorrar tamaño, se codifican en estéreo sólo las frecuencias medias, mientras que las graves y agudas quedarán en “mono”.
Otro elemento importante de los archivos MP3 es el bitrate o “flujo de datos”
que puede entregar un archivo de audio o de vídeo al ser
reproducido. Se mide en miles de bits por segundo (Kb/s o Kbps) y constituye el caballo de batalla de los archivos comprimidos en formato MP3. Para equiparar los parámetros de calidad CD con sampling rate de 44,1 KHz, bit depth de 16 bits y dos canales estéreo se precisa un flujo de datos mínimo de 128 Kb/s.
A pesar de todo esto, “el que un archivo de audio tenga ‘calidad CD’ no significa que suene igual a la grabación original” (Haines, 2001). Como se mencionó anteriormente, esto se debe a la esencia del algoritmo de compresión MP3: el masking o “enmascaramiento”.
Para comprender lo anterior más a fondo, es necesario entender el concepto musical de "timbre". Aunque las notas musicales tienen una determinada “frecuencia fundamental” que las caracteriza, no suenan igual si son tocadas por un piano, un violín o si son cantadas. Esto debido a que a la frecuencia
fundamental
se
añaden
otras
frecuencias
secundarias
denominadas “armónicos” las cuales son múltiplos enteros de la frecuencia fundamental en relación logarítmica. “La cantidad y proporción de armónicos es característica del sonido de un instrumento o de una voz y es por ello, que logramos reconocer el instrumento que suena, o la persona que habla” (Haines, 2001).
Ahora bien, los armónicos son predominantemente agudos y es esta zona del espectro la que se ve más afectada por la compresión MP3. Cuando se produce la atenuación e intensificación del “espectro alto” del rango de frecuencia, así como al aplicar el masking; el umbral de los armónicos es alterado. Esta alteración cambia las cualidades sonoras de la música y es bien percibida por el oído humano, pues éste es muy sensible a la proporción de armónicos ya que, como se mencionó con anterioridad, esto es lo que permite distinguir, tanto una voz de otra, como los sonidos de distintos instrumentos.
Si el bitrate es incrementado, las frecuencias agudas se verán menos afectadas, consiguiéndose una reproducción más fiel respecto a la grabación
original. Esto entra en conflicto con el tamaño del archivo, el cual será mayor a medida que el bitrate aumente. La clave en el tema de los algoritmos de compresión, de los que MP3 es únicamente el más popular y no el único, radica en encontrar un balance entre la calidad y el tamaño del archivo de audio, según el uso que se le vaya a dar al mismo.
El bitrate puede ser constante (CBR) cuando se mantiene el mismo flujo de datos durante toda la reproducción del archivo, o variable (VBR) si cambia durante la reproducción; este sistema se basa en que los pasajes musicales más simples, es decir, con menor número de frecuencias activas, pueden ser codificados a menor bitrate que los pasajes complejos sin comprometer la calidad.
En teoría, el bitrate variable es una buena alternativa con balance entre calidad y peso informático; su reproducción o decodificación, resulta mucho más compleja que la de los archivos con bitrate constante y, normalmente, es causa de errores y problemas entre las aplicaciones decodificadoras y reproductoras multimedia.
Los conocimientos básicos antes mencionados, resultarán de suma importancia no sólo para entender el funcionamiento de la compresión MP3 sino, también, para comenzar a entender cuáles son los factores a relacionar en este estudio para lograr resultados óptimos en un home studio.
Recientemente, la proliferación de estos archivos en Internet ha sido objeto de discusión y debate internacional referente a los derechos de autor. Al respecto conviene hacer una distinción, lo que para la industria disquera es casi una sentencia de muerte, para un músico independiente, sin apoyo de una empresa discográfica, resulta en un medio viable de hacer llegar su obra al público.
El enfoque de este estudio no es discernir sobre piratería o asuntos éticos ya que, como algoritmo de compresión, el MP3 es legal y, lo que, en ciertas ocasiones, no es legal, es su uso.
Hoy en día, con o sin la aprobación de la industria discográfica mundial, MP3 es una tecnología que desde su irrupción en la vida cotidiana de los usuarios, planteó exitosamente; tanto una nueva modalidad de distribución artística haciendo uso de un multimedio de comunicación como lo es Internet; como una alternativa viable al selectivo mercado discográfico mundial.
La revolución musical digital, ha repercutido notablemente en muchas industrias. Los nuevos modelos de negocios evolucionan rápidamente y los ya establecidos intentan sobrevivir. Pasarán años antes de que puedan percibirse los efectos de manera inmediata; sin embargo, aún en esta temprana etapa de desarrollo tecnológico, mucha gente se beneficia de las oportunidades que moldean la industria musical digital (White, 2001).
En suma, más adelante nos detendremos a comentar el efecto que este formato de compresión tuvo en el mercado discográfico y el uso que puede dársele; por el momento basta con entender su funcionamiento como tecnología a partir de la comprensión de otra por igual relevante para este estudio: el disco compacto o CD.
2.6 Requerimientos técnicos.
De manera introductoria, puede afirmarse que los requerimientos básicos de una computadora, para trabajar adecuadamente, tanto audio digital, como MIDI, y cada parte del proceso de grabación y secuenciación son los siguientes. Cabe aclararse que lo expuesto a continuación no es una regla, pues existen varias consideraciones que afectarán directa o indirectamente al sistema, sin embargo, dichos requerimientos variarán en función del método29 utilizado para realizar la producción de un mensaje musical.
•
Procesador Intel Pentium II a 450 MHz, equivalente o superior, en el caso de ser PC; o procesador G3 o superior en el caso de Macintosh.
29
Es decir, muchos usuarios utilizan una computadora equipada únicamente con los requerimientos técnicos mínimos pues, quizá su se meta sólo llevar a cabo el proceso de grabación; sin embargo, otros tantos optarán por una computadora poderosa, capaz de llevar a cabo todos los procesos que involucran una producción compleja. El método refiere tanto al uso que se le da a una computadora como la forma en la que los diversos procesos involucrados son llevados a cabo por el usuario.
•
En
el
caso
de
una
computadora
“ensamblada”;
una
motherboard compatible con el procesador elegido y con ranuras de expansión PCI; a través de éstas, será posible expandir el sistema tanto como sea necesario. Una buena opción son las motherboards que ya cuentan con puertos ethernet, módem, tarjeta de video y puertos seriales, paralelos y PS/2; es decir, en un solo paquete se obtiene todo lo necesario, ocupando un mínimo de ranuras de expansión.
•
128 Mb de memoria RAM o más, de ser posible.
•
Un disco duro dedicado para trabajo de audio digital con una velocidad de rotación de 7,200 RPM (revoluciones por minuto) o superior. El tipo de interfase de este dispositivo puede ser IDE o SCSI, aunque el primero es el más común y económico del mercado.
•
Accesorios de uso común como: mouse o ratón, teclado y monitor.
•
Tarjeta de audio, ya sea de calidad “uso casero”, “audiófilo” o “profesional”. Más adelante, puntualizaremos en lo que concierne a estas tres vertientes del mercado.
Es de suma importancia comprender lo siguiente: los estándares mencionados anteriormente se aplican cuando el usuario pretende convertir su computadora personal en una DAW (Digital Audio Workstation). Es importante puntualizar la importancia de algunos de estos requerimientos para que todo vaya tomando su lugar.
La forma más socorrida para lograr una grabación digital multi canal, actualmente, es mediante el uso de una computadora y un secuenciador de audio y MIDI instalado en la misma. El éxito de este esquema radica en el hecho de que una computadora es relativamente barata frente a su capacidad de procesamiento de datos, pueden ser expandidas tanto en hardware, como en software; y proveen un entorno visual integrado en el que tanto audio, como los datos MIDI, pueden ser manipulados (White, 2001).
Cualquier DAW se puede constituir con la mitad de los requerimientos técnicos antes mencionados, es decir, se puede grabar y reproducir tanto audio como MIDI en una computadora verdaderamente obsoleta. Es importante dejar un concepto muy en claro: una computadora personal no es únicamente el disco duro, o el procesador; mucho menos la memoria RAM o la motherboard.
Una computadora, en sí, constituye un sistema integral que depende de la interacción de todos sus elementos constitutivos para que su funcionamiento sea adecuado. Dicho de otra forma, un Procesador Intel a 1.7 GHz servirá de muy poco con un disco duro de poca velocidad de rotación y
capacidad. De la misma forma, de poco servirán 512 Mb de RAM y un disco duro óptimo, “comandados” por un procesador Pentium de primera generación a 166 MHz. Es decir, eliminar los “cuellos de botella” permite que el flujo de datos y operaciones sea el adecuado.
Con relación a los procesadores y la memoria RAM, es cierto, se puede grabar y secuenciar con pocos requerimientos técnicos. No sólo se pretende la grabación del material; también será necesario “producirlo” y, para ello, es preciso contar con los “caballos de fuerza” de un sistema adecuado.
Con el desarrollo de nuevas y complejas aplicaciones disponibles para hacer música asistida por computadora, viene la demanda de más recursos de sistema. Así, lo robusto de un sistema dependerá, de nuevo, de la intención del usuario.
El caso de los discos duros tiene un trasfondo de mayor especificidad. Cualquiera que sea la plataforma y sistema operativo en que se trabaje; todas las aplicaciones deben ir instalados en un disco duro físico (1). Al añadir un segundo disco duro (2) con las características antes mencionadas se aseguran dos cosas principalmente: en primer término, la estabilidad del sistema; en segundo término, al tener todos los datos de trabajo (material de audio digital) en un disco duro independiente (2) es posible salvaguardar el trabajo en gran medida. Mientras el host opera desde otro disco duro (1), controlando el flujo de datos disco duro de audio se asegura, tanto el
respaldo de gigabytes de información importante, como la transferencia adecuada de dichos datos.
Llegado este punto, es posible concluir que la elección de un sistema de producción musical asistido por computadora depende única y exclusivamente del usuario y sus necesidades. Evidentemente, todos los mercados ya mencionados evolucionarán a niveles quizá insospechados; por ello, resulta imprescindible estar informado sobre los cambios e innovaciones de estas tecnologías para contar siempre con las mejores herramientas disponibles enfocadas a la creación musical asistida por computadora.
2.7 Internet como medio de comunicación y distribución.
Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador conocido como gateway. Las interconexiones entre gateways se efectúan a través de diversas vías de comunicación: líneas telefónicas, ethernet, fibra óptica, enlaces por radio y cable coaxial.
Los sistemas de redes como Internet permiten intercambiar información entre computadoras. Esta conexión puede darse de varias formas: conectándose a un ordenador desde otro lugar (telnet); transfiriendo ficheros entre una computadora local y una computadora remota (protocolo de transferencia de ficheros, o FTP)
o leyendo e interpretando ficheros de
ordenadores remotos (gopher). El modo de interconexión más reciente y
popular es el protocolo de transferencia de hipertexto (http), un descendiente del servicio gopher. El http, o Hyper Text Transfer Procol, puede leer e interpretar ficheros de texto, imagen, audio y video desde
una máquina
remota. En suma, http es el protocolo de transferencia que permite la existencia de la denominada World Wide Web.
Por tratarse de una red informática mundial, cada computadora cuenta con una dirección electrónica y los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección para tener acceso a un contenido determinado (dirección de Internet). Uno de dichos formatos se conoce como decimal con puntos, por ejemplo: 123.45.67.89. Otro formato describe el nombre del ordenador de destino y otra información para el ruteo. Por ejemplo: mayor.dia.fi.upm.es.
Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar) para Argentina. En Estados Unidos, el sufijo anterior especifica el tipo de organización a que pertenece la red informática en cuestión: institución educativa (.edu), centro militar (.mil), oficina del gobierno (.gov) o una organización sin ánimo de lucro (.org).
El protocolo de Internet (IP) es el “soporte lógico básico” empleado para operar
el
sistema
de
redes.
Este
protocolo
especifica
cómo
las
“computadoras de puerta” encaminan la información desde el ordenador emisor hasta el ordenador receptor. De la misma forma, otro protocolo
denominado “protocolo de control de transmisión” (TCP) comprueba si la información ha llegado al ordenador de destino y, en caso contrario, hace que se vuelva a enviar.
Una vez dirigida, la información, sale de su red de origen a través del gateway, es encaminada de gateway en gateway hasta que llega a la red local, donde se ubica la “computadora destino”; toda vez que Internet no tiene un control central, ninguna computadora dirige el flujo de información. Esto diferencia a Internet y a los sistemas de redes semejantes de otros tipos de servicios informáticos de red como CompuServe, America Online o Microsoft Network.
El Protocolo de Internet (IP) y el Protocolo de Control de Transmisión (TCP) fueron desarrollados en 1973 por el informático estadounidense Vinton Cerf como parte de un proyecto dirigido por el ingeniero norteamericano Robert Kahn y patrocinado por la Agencia de Programas Avanzados de Investigación (ARPA, siglas en inglés) del Departamento Estadounidense de Defensa.
Internet comenzó como una red informática de ARPA (llamada ARPAnet) que conectaba redes de ordenadores de varias universidades y laboratorios de investigación en Estados Unidos. La WWW la desarrolló en 1989 el informático británico Timothy Berners-Lee para el Consejo Europeo de Investigación Nuclear (CERN, siglas en francés).
Internet surgió como un proyecto del ministerio de defensa de los Estados Unidos durante el periodo de la guerra fría para el caso de un ataque nuclear. Se necesitaba una red de comunicación sin centro, que pudiera seguir operando desde varios puntos geográficos luego de ser eventualmente destruido el comando central. Una institución anárquica originada en los cuarteles.
La WWW es una colección de ficheros, denominados sitios o páginas web, que incluye información de texto, gráfico, audio y vídeo, además de vínculos con otros ficheros. Los ficheros son identificados por un “localizador universal de recursos” o universal resource locator (URL) que especifica: el protocolo de transferencia, la dirección de Internet de la máquina y el nombre del fichero.
Por
ejemplo,
http://www.encarta.es/msn.com.
Los
programas
informáticos denominados exploradores como Navigator de Netscape, o Internet Explorer de Microsoft, utilizan el protocolo http para acceder a dichos ficheros. Continuamente se desarrollan nuevos tipos de ficheros para la WWW que contienen, por ejemplo, animación o realidad virtual (VRML).
A pesar de que, hasta hace poco, había que programar especialmente los “lectores” para manejar cada nuevo tipo de archivo, los nuevos lenguajes de programación como Java de Sun Microsystems, permiten que los
exploradores puedan cargar sub programas de ayuda capaces de manipular esos nuevos tipos de información.
Aunque esta interacción informática lleva ya algunos años en desarrollo, ha cambiado; el tiempo y la distancia finalmente se acortaron, y gente de todo el mundo saca el mejor partido de Internet. Para algunos es un medio de comunicación imprescindible que les permite manejar sus negocios, finanzas y el contacto con sus seres queridos; para otros, resulta un escaparate para “decir algo” en forma gratuita; para otros más, se trata de un medio que sencillamente les permite conocer el mundo y, seguramente, para infinidad de personas representa anonimato, música y programas de computación gratuitos.
En realidad, al hablar de Internet, sus características como medio masivo de comunicación no dejan de ser excluyentes. Datos proporcionados por Nielsen30 revelan, por ejemplo, que Estados Unidos contaba en el 2002 con 165 millones de usuarios, los cuales equivalen al 59.85% de la población de ese país. A finales del 2001, México contaba con 3.5 millones de usuarios equivalentes al 3.43% de la población el International Telecomunication Union (ITU). En una escala global, esta cifra coloca a México por encima de Nigeria y la India. Entre otros datos, gran cantidad de países europeos se encuentran cerca o rebasan, en algunos casos, el 50% de usuarios con respecto a su población. 30
http:www.aui.es/estadi/internacional/internacional.htm
A pesar de lo anterior, resulta evidente que los factores tecnológicos disponibles en relación con su costo y la infraestructura necesaria para un funcionamiento adecuado de “la red”, segmentan al mundo en mayor o menor medida. Es importante recalcar el hecho que quien usa esta red con un propósito, ya sea para recibir emails, descargar música o programas o, incluso, montar un sitio web, han asimilado la tecnología y ésta permite cambiar la forma en la que se interrelacionan tanto online como offline.
Tras la llegada de Internet es que se logran integrar las características de los medios de comunicación. La prensa puede imprimir texto pero su calidad de imagen es muy baja, y no puede presentar imágenes animadas; la televisión sí, pero resulta impropia para el texto; el cine tiene su efecto, pero no podemos acceder a películas como a libros en una biblioteca; el periódico tiene un solo día de vigencia y, en realidad, podrían ser tan sólo unas horas. La pregunta: ¿qué es Internet? Halla su respuesta en la integración estructural de todos los medios de comunicación tradicionales ofreciendo, en esencia, las virtudes de todos sin las desventajas de ninguno.
Nunca como hoy fueron tan grandes las posibilidades que ofrece la tecnología y nunca como hoy estas posibilidades se ignoraron, ocultaron o despilfarraron ... La vida en general y el aprendizaje en particular son procesos multimediáticos, experiencias multimodales ... Tan importante como el modo de generar las imágenes lo es la forma de acceder a ellas (Piscitelli, 2002).
El crecimiento explosivo de Internet ha motivado que se planteen importantes cuestiones relativas a la censura. El aumento gradual de las páginas web con texto y material gráfico, donde se denigraba a una minoría, se fomentaba el racismo o se exponía material pornográfico infantil, llevó a pedir que los suministradores de Internet cumplieran voluntariamente ciertos criterios.
En 1996, se aprobó en Estados Unidos la Ley para la Decencia en las Comunicaciones, que convirtió en delito que un suministrador de servicios transmitiera material inapropiado a través de Internet. La decisión provocó una reacción inmediata de usuarios, expertos del sector y grupos en favor de la libertad de expresión que se oponían a ese tipo de censuras.
La ley fue impugnada y, posteriormente, suspendida en junio de 1996 por un comité de jueces federales. El comité describió Internet como una conversación planetaria continua que merecía la máxima protección frente a la injerencia gubernamental.
La censura en Internet plantea muchas cuestiones, la mayoría de los servicios existentes en la red quizá puedan vigilar, mas no controlar lo que dice o hace la gente en Internet a través de sus servidores. “Cuando, en lugar de enfrentar la pantalla, nos sumergimos en ella, nuevos mundos de acción vienen a la mano” (Piscitelli, 2002).
2.8 Introducción a medios, distribución y mensajes alternativos.
Como consecuencia a todo lo planteado anteriormente, puede concebirse, no sólo una industria en constante desarrollo, sino con gran cantidad de mentes creativas que tienen otra percepción y concepción de esta misma industria. En este sentido, son los responsables de la gran hibridación sonora actual en la escena musical popular, tanto underground como overground.
Actualmente, productores y músicos han tomado las alternativas digitales disponibles para integrarlas a sus estudios de grabación o producción. Los resultados son colaboraciones entre músicos y productores de géneros tan dispares como hip-hop y hard rock o pop y electrónico; esto es debido a que el trabajo y las herramientas presentes en la mayoría de los estudios pueden orientarse hacia un género musical o coincidir en una fusión de dos o más.
Por otro lado y dejando el aspecto cooperativo entre artistas y productores, se halla otra ruta que sencillamente apela a la productividad y rapidez con la que pueden desarrollarse ideas musicales de excelente calidad sonora en un home studio, en su versión low budget o de bajo presupuesto vs. uno profesional. La diferencia está en la especialización de la gente que ahí labora y la cantidad de software y hardware disponible.
Al respecto, el estudio profesional seguramente contará con software debidamente autorizado que es otro punto a considerar en cualquier cotización; la piratería también ha motivado a los usuarios a adquirir el mismo software con el mismo potencial de procesamiento a mucho menor costo.
2.9 Los sistemas de producción profesional vs. el mercado de consumo.
Una vez aclaradas las nociones más relevantes respecto a las partes que integran un digital audio workstation (DAW) o “estación de trabajo casera de audio digital” o sencillamente: home studio o “estudio casero”, resulta más fácil y comprensible dilucidar la competencia que éstas pueden constituir ante un equipo considerado profesional.
En primera instancia, recordemos todo lo discutido hasta el momento. Una computadora actual es capaz de manejar audio digital, datos MIDI y una o varias aplicaciones tanto host como slave con fines de producción musical. Ahora bien, si una computadora casera es capaz de hacerlo, ¿por qué invertir miles y miles de dólares, no sólo en la construcción de un estudio sino en su equipamiento y operación?
Sorprendentemente, no existe una respuesta única y definitiva. Si bien es cierto que es posible lograr producciones de gran calidad en la comodidad
de nuestro hogar, también es cierto que ese proceso se da en el ámbito empírico; además, recordemos que lo buscado es, precisamente, amortizar todos esos costos que supone un estudio profesional.
En segundo término, el hecho de que el proceso creativo en un home studio sea empírico, no quiere decir que no exista un símil en el ámbito profesional; por el contrario, se trata, sencillamente, de gente preparada, en mayor o menor medida, para desempeñar una labor profesional, en este caso: desempeñar alguna función en un estudio de grabación, post producción, masterización, etc.
Ahora bien, un factor relevante al comparar el mercado profesional vs. el mercado de consumo, es el tema de los costos. ¿Pero qué es realmente lo que se paga? Muchos pagan las instalaciones; otros el equipo; otros más la preparación y experiencia de la gente que ahí labora, etc.
La realidad de un estudio profesional es que también se vende un servicio y, como tal, tener un lugar ordenado, con buena distribución del espacio, cómodo, con buena atención, equipo suficiente y adecuado, así como personal preparado para operar el equipo y resolver cualquier eventualidad permite cotizaciones millonarias para la realización de una producción.
Afortunadamente, el desarrollo tecnológico del que se ha venido hablando extensamente, permite concentrarse en el objetivo principal: producir audio. ¿A qué nos referimos con todo esto? Normalmente, cualquiera quedaría devastado al comparar su propio home studio contra uno profesional por obvias razones; sin embargo, el público no tiene por qué enterarse si en lugar de atriles para colocar los micrófonos se utilizaron escobas y cinta canela; en suma, eso es algo que al público no le interesa.
La creatividad y concepto de la persona operando la computadora en cuestión, será el único responsable de los resultados y, para ello, existen alternativas tecnológicas que no sólo amortizan costos sino, también, permiten experimentar creativamente de muchas maneras.
Gran cantidad de jóvenes creadores busca “sus propias herramientas” motivados por la facilidad y simplicidad que, tanto la cultura cibernética, como la accesibilidad tecnológica actual plantean. Al experimentar con sonidos nuevos, se crean y recrean formas y estilos musicales. Una vez en los anaqueles, el público no se detendrá a pensar si las herramientas utilizadas cubrieron el pago de sus licencias o no; para el público y el mercado discográfico, lo único de interés es el contenido del disco.
Finalmente, convendría hacer una aclaración al respecto. El hecho de no necesitar mucho para poder hacer producciones de calidad, no quiere decir que no se necesite nada. Dicho de otra forma, cualquier pieza de
equipo que se quiera integrar al estudio no será barata y, por ello, el consumidor amateur y semiprofesional, debe conocer todos los aspectos posibles del tema, de la misma forma que lo hace el profesional que labora en un estudio reconocido. Si un gran estudio no puede darse el lujo de gastar en piezas de equipo no adecuadas, mucho menos un usuario promedio.
De lo que hablamos es de preparación. Es necesario comprender y estudiar, cuando menos someramente, cómo funciona el equipo con que se trabaja o con el que se pretende trabajar. Cada pieza del estudio constituye una inversión fuerte, no sólo monetaria sino, también, creativa; entender toda la nomenclatura y tecnicismos con la que una pieza de equipo es valorada requeriría de un curso de audio.
Por ello, es recomendable acceder a dicho conocimiento. El proceso puede ser autodidacta o formal, eso en realidad sólo puede decidirlo el interesado; si el entusiasta en cuestión se preocupa no sólo por hacer música sino, también, por hacerla sonar bien; entonces, conocer los aspectos técnicos que atañen a la creación musical asistida por computadora se convierte en algo obligado.
Es necesario tener presente que, al hablar de música independiente, normalmente se habla de músicos que también fungen como ingenieros de sala, productores, operadores, diseñadores de arte y promotores, entre otras actividades. Si la música es el producto a vender, lo más recomendable es
cuidar su calidad en todos los procesos, asĂ como tomar en cuenta las consideraciones tĂŠcnicas anteriormente expuestas.