Postado em
Bytes invadem o mundo da música
por Nilza Bellini
Quando a cantora islandesa Bjork apresentou o instrumento futurista reactable durante uma excursão mundial, em 2007, o mundo inteiro soube que ali tinha início uma nova era para a música eletrônica. Desenvolvido pelo grupo de tecnologia de música da Universidade Pompeu Fabra de Barcelona, o dispositivo é uma mesa redonda translúcida como uma tela de cristal líquido que, usada em uma sala escura, causa um efeito quase surreal. Sobre ela é possível dispor blocos chamados “tangíveis” e, com eles, ou com as pontas dos dedos, criar música ou efeitos a partir de vários símbolos sonoros animados que simulam ondas, círculos e linhas de varredura. O instrumento foi definido como um sintetizador virtual. Hoje, passados menos de cinco anos, o mercado de eletrônicos evoluiu de tal forma que existem versões do reactable para iPod.
Ninguém pode dizer, porém, que a utilização de equipamentos eletrônicos e interfaces fosse novidade até Bjork apresentar o reactable. Em 2007, já eram inúmeras as invenções que, sem a identidade de instrumentos musicais, permitiam fazer música. Aliás, se o conceito for levado ao pé da letra, o pioneirismo pode ser atribuído a Thaddeus Cahill, que em 1897 patenteou pela primeira vez um instrumento eletroacústico, batizado de telarmônio. A máquina, gigantesca, era capaz de produzir diferentes frequências sonoras, comandadas por um teclado e um painel de controle, e de sintetizar sons com os timbres desejados. Deveria servir para transmitir música pelo telefone, mas, por sua complexidade, acabou levando o inventor à falência. Apenas um compositor, o italiano Ferruccio Busoni, percebeu o potencial do equipamento como gerador de novos conceitos harmônicos e elogiou-o, mas não fez uso dele.
No início do século 20, o russo Léon Theremin inventou o primeiro instrumento musical completamente eletrônico, que leva seu nome: o teremim. Esse é o único, até hoje, que não precisa de contato físico para produzir sons: é tocado com o movimento das mãos no ar, por meio da manipulação de um campo eletromagnético gerado por duas antenas, uma vertical comum e outra horizontal em forma de U, que emitem um sinal e controlam sua frequência e volume. Sua concepção é a mesma há mais de um século, mas existem modelos modernos, um deles produzido pela lendária Moog, uma das primeiras fabricantes de sintetizadores. Por seu timbre diferenciado, o teremim foi bastante utilizado na década de 1950 em filmes americanos de terror e ficção científica para criar efeitos que se perpetuaram como modelo de sons alienígenas. Pouco conhecido no Brasil, é um dos instrumentos de predileção do músico e sound designer Paulo Beto, que vive em São Paulo e, entre sintetizadores analógicos, uma coleção de vinis raros e computadores, explora novas possibilidades musicais.
Paulo Beto não toca apenas teremim. Ele participa de mais de um grupo e enfatiza o som que faz sincronizado a efeitos visuais, outra constante no cenário da arte eletrônica. A relação da música com a ficção científica apresentada pelo cinema é seu foco desde o início da carreira. PB, como é conhecido no cenário artístico, resume a história da música eletrônica durante o século 20 destacando que, depois do movimento futurista comandado por Filippo Marinetti, que defendia a liberdade de expressão artística e a utilização de técnicas musicais não convencionais, a grande revolução composicional aconteceu com a música concreta, que inclui partes completas ou fragmentos de sons, como os ruídos produzidos por qualquer tipo de objeto, gravados e depois modificados em estúdios especializados. Foi assim que surgiram as primeiras mixagens. Mais ou menos nessa época entrou em cena o computador, que os puristas não aceitam, ainda hoje, como um instrumento.
A história de Paulo Beto com a música é semelhante à de muitos garotos que, durante os anos 1980, montaram bandas de rock progressivo. Ele vivia, então, em Juiz de Fora (MG) e já estava atento às inovações que se desenhavam no cenário musical, como os novos meios de criação da era digital. “Hoje, em vez de a tecnologia se adequar aos instrumentos, vemos surgir novas ideias que aproveitam os avanços da informática”, observa PB.
Polêmica
O esboço do que seria a atual explosão dos computadores no universo da música começou a ser rascunhado em 1956, quando Lejaren Hiller, químico americano e colaborador do compositor John Cage, criou aquela que é considerada a primeira peça de música erudita com auxílio de um computador, a suíte Illiac. A polêmica sobre o uso de computador para fazer música foi tão grande, na época, que ele demorou a ser reconhecido como pioneiro no assunto.
Hoje praticamente ninguém mais discute que o futuro da música passa pela informática. Hardwares são classificados como instrumentos. Softwares permitem produzir música sem partitura. Uma imensa quantidade de programas simples ou sofisticados que estão disponíveis na internet garantem, para quem não tem formação erudita, o exercício da “composição”. O DJ carioca Sany Pitbull é um dos grandes entusiastas desse processo. Ele foi o primeiro brasileiro a usar ao vivo, em bailes funk do Rio de Janeiro, o MPC, um misto de bateria eletrônica e gravador, de fabricação japonesa, com 16 painéis de toque, conhecido entre os adeptos do hip-hop por suas muitas possibilidades de gravar, armazenar e manipular sons, como se fosse uma banda portátil. Ao se apresentar num festival de música eletrônica em Stuttgart, na Alemanha, Sany Pitbull causou estranhamento ao montar seu MPC no meio do evento, mas acabou provando ser possível criar música diante da plateia. “Hoje, de cada dez bailes funk no Rio de Janeiro, oito usam o MPC ao vivo”, explica ele.
Os computadores, segundo Pitbull, transformaram a vida de milhões de garotos pobres, não apenas no Brasil como em todos os lugares do mundo. “São os moradores da periferia das grandes cidades conversando entre si e em linguagem musical pela primeira vez na história”, ressalta. A música erudita, feita pela e para a elite, não deixa de ter importância, ressalta o DJ, mas perdeu sua força. “Os computadores têm garantido para a população mais jovem e de baixa renda, dentro ou fora das escolas de música, a chance de exercer a criatividade e se profissionalizar como nunca antes na história. Tenho 43 anos, fui pobre e, por causa da música, hoje conheço 46 países e já fiz sete turnês mundiais”, diz.
O surgimento de novas interfaces deve favorecer cada vez mais outras maneiras de criar e tocar música. Entre essas mágicas novidades estão aparelhos já patenteados e apresentados ao público, embora ainda pouco acessíveis por seu preço. Entre eles, podem ser citados o Eigenharp, a Misa Digital Guitar e o Tenori-On.
O Eigenharp foi criado por John Lambert, um músico e empresário de Devon, na Inglaterra. Ele demorou oito anos para desenvolver a novidade, cuja aparência é uma mistura esdrúxula de teclado, bateria e saxofone. Capaz de produzir inúmeros sons, o aparelho se assemelha ao “fanfar”, que apareceu no cinema, em Guerra nas Estrelas, tocado por uma banda da cantina de Tatooine. Também lembra o fagote, um instrumento de sopro de origem medieval. É iluminado e inclui uma matriz de 120 teclas e um controlador de respiração, ao qual podem ser atribuídas diferentes funções. Fabricado pela Eigenlabs, tem um software separado do hardware que pode ser facilmente atualizado. Para alguns artistas solo, é uma solução cara mas eficiente, embora ainda não tenha sido usado por nenhum grande astro do cenário musical em turnê mundial.
A Misa Digital Guitar é outro objeto de desejo dos músicos contemporâneos. Não foi projetada para substituir as guitarras convencionais, mas para ampliar possibilidades. Muitos efeitos sonoros podem ser obtidos com ela, bastando, para isso, usar o painel multitoque que substitui as cordas convencionais. É considerada uma nova interface, capaz de controlar um sintetizador Midi. A Misa precisa estar conectada a um computador para funcionar. Seu painel, sensível à pressão, serve não só para fazer vibrar as cordas virtuais como para controlar os efeitos sonoros que nas guitarras tradicionais são garantidos por botões e pedais.
O Tenori-On, outro daqueles que pareciam destinados aos filmes de ficção científica, permite a qualquer um obter resultados sonoros interessantes mesmo sem treinamento. É uma matriz com sensores/emissores de pulsos luminosos que, ao colidir uns com os outros, emitem sons. Portátil, lembra um computador de mão.
Muito além dos sintetizadores, as novidades digitais eletrônicas, capazes de simular instrumentos com inusitadas e variadas sonoridades e texturas, estão evoluindo para o que já vem sendo chamado de “instrumento virtual”, ou seja, um programa de computador acionado por um teclado externo ou por outro software, o que permitirá ao artista manter dentro de sua máquina modelos variados de sintetizadores, orquestras e outros instrumentos. Até mesmo os telefones celulares, como o popular iPhone, começam a oferecer funções de instrumentos musicais – basta instalar alguns dos muitos aplicativos disponíveis. Resta, apenas, a criação de interfaces de áudio mais potentes.
Novos compositores
O músico Paulo Motta, de Juiz de Fora, que desde 1984 dedica-se à pesquisa histórico-estética da música erudita contemporânea e da interação da composição com novos meios, diz que “os recursos científicos e tecnológicos sempre marcaram a história da música”. Os instrumentos – elementos fundamentais para a prática musical, incluindo a voz – não mudaram muito até o século 20, explica ele, salientando que, assim, não era possível inserir transformações radicais no gesto composicional.
A concepção da escala musical é um dos exemplos mais importantes do desenvolvimento da música. Foi Pitágoras quem fez os primeiros estudos, em cerca de 600 a.C, que acabaram dando origem à escala de sete notas, o ponto de partida de toda a música ocidental. A evolução das escalas musicais, desde então, se deu sempre por meio da combinação de experimentações e métodos científicos.
Todos os instrumentos acústicos limitam o ato de compor, já que sua estrutura não permite ir além de certo ponto. Porém, quando um compositor tem recursos para produzir timbres diferenciados, a composição é pensada de outra forma. Os eletrônicos garantem recursos para a produção quase infinita de timbres e alteraram a forma de pensar a composição musical.
Outro parâmetro das mudanças na forma de pensar a composição, por conta dos recursos eletrônicos, é o espaço. Além dos timbres, da altura e do ritmo, é preciso organizar a difusão dos sons. Não é raro engenheiros e arquitetos especializados em acústica tornarem-se músicos. O espaço da execução musical e a forma como cada timbre vai aparecer nas caixas acústicas são parte das modernas partituras. A estrutura timbrística e o local em que será executada cada composição exigem, assim, estratégias muito mais complexas e, embora os elementos gráficos de notação continuem sendo consensuais, a grafia musical eletrônica inclui características físicas, como os decibéis, que a tornam muito mais fidedigna.
As exibições de música estão ligadas ao espaço, construído ou não, desde sempre. Uma música tocada em locais diferentes nunca é a mesma. “Cada som ecoa de uma forma em determinado tipo de ambiente arquitetônico, por causa do volume sonoro, da amplidão do espaço, do eco e outros aspectos”, diz o professor Sylvio Bistafa, da Escola Politécnica da Universidade de São Paulo. Assim, a história mostra que a música sempre foi composta em função do lugar onde seria executada. Foi só no século 20, no entanto, que começaram a ser projetadas salas específicas de concerto. E apenas agora, no século 21, com a música eletrônica, os timbres passam a ser considerados.
Arquitetura e música
Os primeiros estudos sobre acústica que a história registra também antecedem Cristo, diz o professor Bistafa. Eles foram feitos pelo engenheiro Marco Vitrúvio, que escreveu o tratado De Architectura, uma coleção de textos inspirados nos ensinamentos dos gregos, no qual além de outros assuntos ele destaca os materiais, formas e até pigmentos que deveriam ser utilizados para obter uma sonoridade mais adequada. Foi Vitrúvio quem desenvolveu o conceito de consonância – em que dois sons, audíveis ao mesmo tempo, têm uma combinação harmônica –, assim como o de dissonância.
A acústica, diz Bistafa, serve para proporcionar qualidade sonora, ou seja, refletir o som de forma agradável ao ouvinte, mesmo quando as composições são dissonantes. Numa sala de conferências, por exemplo, ela tem de garantir que os ouvintes entendam a fala. O mesmo se dá em salas de concerto. Isso exige o controle do nível de ruídos externos, mas, mais do que isso, da reverberação, que, se é necessária em algumas circunstâncias para a apreciação da música, não deve dificultar boas condições auditivas.
As características físicas de uma sala – seu tamanho e forma, os materiais de revestimento das paredes e teto, a organização dos assentos – têm muita influência sobre a qualidade do som. No Brasil, uma das melhores acústicas para orquestra é a da Sala São Paulo, explica Bistafa. O local, porém, não nasceu para ser uma sala de concertos. Era um saguão inacabado, anexo à Estação Ferroviária Júlio Prestes, que só nos anos 1990 foi transformado, visando à utilização atual. Com o formato de uma caixa de sapatos, tem capacidade para 1,5 mil pessoas.
A grande vedete da sala, além da concepção estética que a torna uma das mais bonitas do mundo, é o teto acústico móvel. Ele é formado por 15 painéis modulares independentes, sustentados por cabos de aço, que oferecem possibilidades de reverberação do som quase infinitas. Maestros de diferentes países a classificaram entre as melhores do mundo. Porém, destaca Bistafa, não se deve rotular a acústica de um espaço com qualificativos, em detrimento da de outros: apenas reconhecer suas diferenças. Uma sala de concertos não é a melhor para apresentações de outro gênero, como, por exemplo, música eletrônica.
O projeto Acusarq, Acústica Arquitetônica, dirigido por Bistafa, envolve pesquisas para medir índices subjetivos de qualidade sonora em salas e estúdios de gravação. “Parâmetros objetivos não conseguem mensurar o conforto auditivo do ouvinte”, explica o professor. O projeto também avalia revestimentos modernos, capazes de controlar reflexos e não simplesmente absorver o som. “São experiências sonoras diferentes”, nota Bistafa.
Também são grandes as diferenças das experiências sonoras nos ambientes abertos e fechados. Roger dos Santos, gerente de marketing da ProShows, empresa importadora de equipamentos de áudio e som, destaca que a tendência é garantir mobilidade com instrumentos compactos e poderosos. Equipamentos de som de alta tecnologia evoluem na velocidade da luz. Ótica, mecânica e eletrônica se unem para o desenvolvimento de novos conceitos na área. Efeitos de iluminação, vídeo e laser estão sempre casados com a música que se produz nos megashows, em ambientes abertos, onde o volume e a potência do som precisam ser muito altos para que a audição se torne confortável, apesar do ruído ambiental. E são indispensáveis para a atmosfera que se quer criar, observa Roger.
Considerando o ritmo da evolução tecnológica atual, num futuro próximo poucos irão se surpreender quando pudermos assistir a espetáculos ao vivo sentados no sofá de casa, com a simulação tridimensional das imagens dos músicos em holograma, bastando, para isso, o toque numa pequena tecla de computador.