Baixar este arquivo PDF - NICS
Transcrição
Baixar este arquivo PDF - NICS
Editorial Este é o oitavo número da revista online NICS Reports (NR), a terceira edição publicada no ano de 2014, que traz uma seleção de cinco trabalhos de pesquisadores e alunos do Núcleo Interdisciplinar de Comunicação Sonora (NICS). Como de costume, a NR divulga os trabalhos do NICS que já foram publicados em outros meios de comunicação, tais como: simpósios, congressos e revistas indexadas. Neste número, apresentamos quatro artigos divulgados em anais de eventos científicos nacionais (ANPPOM e SIMCAM10), e também um trabalho publicado na revista PERCEPTA. Todos estes abordam temas relacionados à ciência e arte da produção e do entendimento da música, em suas diferentes nuances, perspectivas a utilizações, tais como: a cognição musical, a musicologia, as performances multimodais, a música computacional, a psicoacústica e a emoção musical. Esperamos que os trabalhos aqui apresentados, no oitavo número do NICS Reports (NR8) sejam interessantes e úteis a todos os leitores, e venham a contribuir para a divulgação e o desenvolvimento da pesquisa em música, para todos aqueles que estudam aprofundadamente, ou simplismente se interessam pela fronteira da música, entre a tecnologia e a arte. Campinas, julho de 2014 Equipe Editorial da NR NICS / UNICAMP Paisagens Sonoras Sintéticas Dinamicamente Geradas por Algoritmos Evolutivos José Fornari1, Adolfo Maia Jr.1,2, Jônatas Manzolli1,3 1Núcleo Interdisciplinar de Comunicação Sonora – Universidade Estadual de Campinas (UNICAMP) Caixa Postal 6166 – 13.091-970 – Campinas – SP – Brazil 2Departamento de Música, Instituto de Artes (DM/IA) 3Departamento de Matemática Aplicada (IMECC) {fornari,adolfo,jonatas}@nics.unicamp.br 1. Introdução Pare um momento onde você estiver. Se puder, feche os olhos, relaxe e apenas focalize a sua atenção na sua audição. Esta informação acústica que seus ouvidos continuamente percebem e o seu cérebro interpreta como som, nunca mais se repetirá. É a primeira e última vez que este fluxo de sons irá se manifestar na mesma ordem, com as mesmas intensidades, durações e os mesmos componentes sonoros. Como diz a famosa frase de Heráclito, é impossível entrar no mesmo rio duas vezes. Do mesmo modo é também impossível escutar duas vezes o mesmo som. Mesmo em relação ao som gravado, a cada vez que o escutamos, estaremos cercados por diferentes ruídos externos, apresentaremos distintos ruídos internos (batimento cardíaco, respiração, movimentação) e também diferentes estados emocionais, o que influenciará na maneira como interpretaremos a informação sonora. Entre outros compositores, John Cage foi um grande apaixonado pela natureza sempre original dos sons naturais. Como ele não fazia distinção entre qualquer geração sonora e a criação musical, para ele o som natural, como o de uma avenida movimentada ou de uma floresta, era uma música mais original e criativa que uma sinfonia de Beethoven ou Mozart, pois, segundo ele, estas sempre lhe pareciam iguais, enquanto que o som naturalmente gerado em ambientes não controlados é sempre novo. Em sua controversa composição musical intitulada, 4'33'', onde o pianista (ou, dependendo da versão, todos os componentes de uma orquestra) não produzem qualquer som com seus instrumentos musicais durante quatro minutos e trinta a três segundos. A inovadora idéia composicional de Cage é que a música é assim gerada pelos sons ambientais presentes no momento daquela grande pausa. Pode-se, porém notar que o som gerado em um ambiente não-controlado, apesar de ter um comportamento não repetitivo, na maior parte do tempo é similar o suficiente para que possamos reconhecê-lo prontamente. Não só podemos reconhecer como também relembrar o som de uma praia deserta, de uma floresta tropical, de uma tempestade, de uma multidão em um estádio lotado ou de um cão ladrando de madrugada. A esse tipo de sonoridade espontaneamente auto-organizada foi dado o nome de Paisagem Sonora, ou Soundscape, em Inglês. A definição de paisagem sonora está ligada com o movimento ecológico através do trabalho de Murray Schafer, compositor e ambientalista, criador do World Soundscape Project em 1960. Na música, compositores como Barry Truax e Luc Ferrari utilizaram o conceito de paisagem sonora, seja na sua utilização em processos de síntese sonora, ou como inspiração composicional. O estudo de paisagens sonoras também vai além da criação musical. Atualmente diversas pesquisas na área de saúde e conforto ambiental levam em consideração a paisagem sonora na qual o indivíduo está inserido no desenvolvimento de seus estudos. Vimos que uma paisagem sonora é um fenômeno natural. A sua criação depende da auto-organização de um ambiente, mesmo que este tenha sido criado pelo ser humano. Gerar uma paisagem sonora artificial, ou seja, uma paisagem sonora sintética, é uma tarefa dificilmente alcançada utilizando-se métodos tradicionais de síntese sonora. Para se gerar uma paisagem sonora sintética, é necessária uma metodologia não determinística, que emule a estratégia de adaptação dinâmica encontrada na biologia. Tal metodologia vem da Inteligência Artificial e se chama Computação Evolutiva, algumas vezes também conhecida como Evolução Artificial, ou EA, que é uma metodologia de otimização computacional inspirada na teoria Darwiniana de evolução das espécies biológicas. Em EA, tem-se a busca automática da melhor solução para um problema dentro de uma população dinâmica contendo onde os indivíduos são as soluções possíveis [Koza,97]. Os métodos de EA não possuem uma condição inicial fixa. Em teoria, estes podem ser usados na resolução de qualquer tipo de problema [Bäck,96], mas seu interesse cresce para a solução de problemas nãodeterminísticos, também chamados de NP-completos [Garey,79]. Em música e artes gráficas, onde tais problemas são abundantes, há vários estudos sobre aplicações de computação evolutiva. [Miranda,03] investigou o potencial de algoritmos de "vida artificial" (Alife) para a criatividade musical. [Soddu,02] usou algoritmos de vida artificial para gerar multiplicidades de possíveis soluções de peças artísticas. [Garcia,00] usou algoritmos genéticos na automação de projetos de técnicas de síntese sonora. [Gibbs,96] desenvolveu animações gráficas com figuras articuladas usando programação genética. [Biles,94] usou algoritmos genéticos para criar o software GemJam, um programa que aprende e toca improvisos de jazz em tempo-real. [Horner,93] desenvolveu um método evolutivo para a geração automática de algoritmos de síntese FM. O estudo aqui reportado vem se desenvolvendo desde 1999 no NICS. O primeiro projeto foi denominado “VoxPopuli”, um ambiente evolutivo para gerar seqüênciais musicais através do protocolo MIDI (Musical Instrument Digital Interface) [Moroni,00], posteriormente, baseado nos resultados do primeiro sistema foi implementado o JaVOX, um sistema que ampliou as funcionalidades do primeiro e foi desenvolvido em JAVA (http:/www.geocities.com/Artemis_Moroni/JaVox/). O uso de CE aplicada à síntese sonora, denominado de Síntese Evolutiva de Segmentos Sonoros, iniciou-se com um método baseado em curvas psicoacústicas [Fornari,01]. Criamos uma metodologia usando um sistema imunológico artificial apresentada em [Caetano, 05]. Recentemente, estudamos a utilização de funções de localização sonora ITD (inter-aural time difference) como um parâmetro de controle do genótipo sonoro [Fornari,07]. A motivação inicial para a inserção de localização espacial sonora na SE foi que A utilização de localização espacial junto com a capacidade da síntese evolutiva de gerar sons com similaridade variante mostrou-se uma abordagem para sua criação e controle dinâmico de paisagens sonoras digitais. Nas próximas seções apresentamos a idéia geral do método, destacando as conexões entre a Síntese Evolutiva e o controle de parâmetros cognitivos. Depois apresentamos os modelos matemáticos desenvolvido, seguidos da implementação em Pd. Os resultados são apresentamos e discutimos, onde tentamos mostrar a possibilidade de uso desta metodologia em composição eletroacústica e outras aplicações em computação musical. 2. Método: Síntese Evolutiva Inicialmente, fazemos um breve resumo do processo de síntese que desenvolvemos. A seguir apresentamos o novo modelo que utiliza a inclusão da localização espacial como fator de adequação do processo. 2.1 Síntese Evolutiva de Segmentos Sonoros (SE) No método inicial Síntese Evolutiva (SE) descrito em [Fornari,01], segmentos sonoros digitais (waveforms) são utilizados como indivíduos de uma população que evolui através de uma medida de adequação (fitness) à um conjunto de outros segmentos sonoros o qual representa o fator condicionante do meio. O incremento temporal desta evolução artificial é dado pela geração, equivalente à um ciclo computacional do processo onde a população evolui, condicionada pelo conjunto. Os processos de seleção e reprodução agem na população a cada geração. A seleção compara os indivíduos da população em relação à sua semelhança com os indivíduos do conjunto alvo. Esta semelhança é dada pela função de adequação (fitness) que, a cada geração da população, determina o individuo mais próximo ao alvo, o qual é chamado de melhor indivíduo. A reprodução gera novos indivíduos na população através de dois operadores genéticos: crossover e mutação, que, a cada geração, substituem todos os indivíduos da população por indivíduos descendentes dos indivíduos substituídos (da geração anterior) e o melhor indivíduo da geração atual. 2.2 SE e Localização Espacial Com a inclusão de localização espacial no processo, constatamos que o método de síntese poderia ser expandido conceitualmente. A localização espacial utilizada como função de adequação permite a criação de uma seqüência de amostras sonoras posicionados no espaço que apresentam uma similaridade convergente como característica do próprio processo de síntese. Estes sons com posicionamento espacial acabam, ao longo do tempo, compondo um ambiente sonoro que apesar de sempre original é reconhecido por sua similaridade. Deste modo, supomos que este processo de síntese evolutiva poderia ser utilizado para a criação do que chamamos de paisagens sonoras digitais. 2.3 Paisagem Sonora Sintética O termo paisagem sonora se refere a um processo sonoro dinâmico, auto-organizado e complexo, onde a informação sonora nunca se repete e, no entanto, é cognitivamente auto-similar, uma vez que este é facilmente reconhecido pela audição humana. Murray Schafer, compositor, ambientalista e criador do World Soundscape Project em 1960, define as bases de uma paisagem sonora. Segundo ele, os três principais elementos são: 1) Tônicas sonoras (Keynote Sounds) 2) Sinais sonoros (Sound Signals) 3) Marcações sonoras (Soundmarks) O conceito de tônicas sonoras é similar ao dos centros tonais na música tonal. Estes definem a "tonalidade" da paisagem, mesmo quando não estão presentes, da mesma forma que a tônica define a tonalidade de uma peça musical tonal mesmo não estando presente na estrutura melódica ou harmônica. São exemplos de tônicas o som de insetos e pássaros na paisagem sonora de uma floresta, de ondas na paisagem de uma praia, ou do transito, na paisagem de uma metrópole. Sinais sonoros são os sons componentes de uma paisagem sonora que são conscientemente percebidos quando presentes. Diferente das tônicas sonoras, estes só são percebidos conscientemente pois chamam a atenção quando ocorrem. Exemplos de sinais sonoros são: som do apito do juiz na paisagem sonora de uma partida de futebol, som de um trovão particularmente alto em uma tempestade, som do sinal de recreio na paisagem sonora de uma sala de aulas. Marcações sonoras, como o nome sugere, são os sinais sonoros que definem e demarcam uma paisagem sonora, as caracterizando e distinguindo de outras. Assim, essas marcações sonoras são necessariamente únicas a uma paisagem sonora, como descrito em [Murray,77 e Truax,78]. Estudamos a utilização de funções de localização sonora como um novo parâmetro do genótipo sonoro. Isso nos levou a considerarmos a síntese evolutiva não apenas para a transformação dos fatores psicoacústicos, mas também para a manipulação da interpretação do som, descrita por alguns aspectos relacionados a cognição de estímulos sonoros. Percebemos que o resultado sonoro da síntese evolutiva passava a se encaixar ao paradigma de soundscapes especialmente no que tange à “similaridade variante” dos sons da população de formas de ondas, aspecto característico da síntese evolutiva. A síntese evolutiva que desenvolvemos passou assim a ter uma aplicação criativa: composição de soundscapes. A implementação em Pd permite que o usuário controle a criação de soundscapes, não apenas pela manipulação dos parâmetros de síntese e do conjunto alvo, mas também através de um arquivo de texto, chamado de score, que organiza o processo de composição. 3. Modelamento Matemático Inicialmente foi necessário o desenvolvimento de uma representação de genótipo sonoro, ou seja, do conjunto de parâmetros que caracterizam amostras sonoras num dado contexto musical, que não apenas permitisse o reconhecimento e discriminação de sua natureza psicoacústica, mas que também fosse computacionalmente viável. Iniciamos com o estudo de três modelos do genótipo sonoro descritos em [Fornari,03]: 1) genótipo como forma de onda (waveform), 2) genótipo como um conjunto de curvas psicoacústicas, e 3) genótipo como espectrograma sonoro e culminamos por descrever o genótipo através de descritores cognitivos não-contextuais, os quais são descritos a seguir na seção 4. 3.1 Função ITD Conforme descrito em [Murray,04] a função ITD simula o mecanismo pelo qual a audição percebe a localização de uma fonte sonora pela diferença de tempo de recepção do som entre os ouvidos. Se não houver atraso (se ambos os ouvidos receberem a mesma informação sonora simultaneamente) a localização da fonte é percebida como estando em frente ao ouvinte, caso contrário, percebe-se a fonte Sonora deslocada horizontalmente, num dado angulo de azimute. A função ITD emula esse efeito através da inserção de atraso entre dois canais com a mesma informação sonora. 3.1.1 Sound-Marks no Campo de Localização Sonora Sob o ponto de vista matemático, este modelo consiste de um espaço de triplas G={(W, I, L)}, chamado de Espaço Genotípico, onde 0≤ I ≤1 é o fator de intensidade sonora, e 1≤ L≤1 é o fator de localização ITD, dado pelo ângulo de azimute θ, onde L = (90o – θ)/ 90o e 0o θ 180o. Para maiores detalhes, veja [Fornari,06]. O conjunto de todos os possíveis valores do par (I,L) é chamado de “Campo de Localização Sonora” (SLF). Em nosso modelo, este é descrito como um semicírculo, e o par (1,0) é associado com o som de maior intensidade e localizado em frente ao ouvinte. A dispersão especial no SFL é caracterizada pela distribuição dos conjuntos finitos de pares S = (I, L) conforme mostrado na Figura 1. Definimos como População um sub-conjunto finito de elementos de G. Em nosso modelo iniciamos com uma população P(0) e conjunto alvo T e, interativamente, construímos uma seqüência de um número R de populações G(1), G(2),…, G(r), onde a k-ésima população é um sub-conjunto de G com N indivíduos (elementos) G(k) = {G1(k) , G2(k) ,…, GN(k) } e os indivíduos são dados pelas triplas G i(k) = (Wi(k), Ii(k) , Li(k)). O conjunto alvo tem M indivíduos T= {t1, t2,…,tM } cujo j-ésimo indivíduo é dado por tj = (W j(T), Ij(T), Lj(T)). A dispersão especial na SLF é caracterizada pela distribuição do conjunto de pares S i = (Ii, Li) conforme mostra a Figura 1. Estes pares, onde os Operadores Genéticos são aplicados são chamados de Genótipos de Espacialização Sonora (SSG). O conjunto alvo T = {Tk = (Ik, Lk), onde k=1,…,M} pode, em principio, ser gerado por uma série de controladores gestuais associados a posição e movimento do usuário / músico. Isto permite que impressões perceptuais guiem interativamente o processo evolutivo de distribuição especial do som. Uma vez que G(k) e T são subconjuntos de G nós definimos a distância entre estes dois como se segue: d ij (G (k ) (k ) (k ) (k ) (k ) 1 Ii I j 1 Li L j ,T ) 2 A 4 B (1) onde as constantes A e B são respectivamente dadas como os fatores máximos de intensidade e localização, e cuja distância é normalizada dentro do intervalo [0,1]. A distância d k entre G(k) e T é definida por: dk ≡d(G(k),T) = min d (G ( k ) , T ) i, j ij (2) onde i=1,…,N e j=1,2,…, M. Observe que a função de distância usa apenas dois fatores de SSG. O melhor indivíduo da k-ésima população G(k), Gi*(k) = ( Wi*(k), Ii*(k) , Li*(k)) é aquele que apresenta a distância dk ≡d(G(k), T). Este novo indivíduo (o melhor da população) pode ser usado pelo processo evolutivo interativo, conforme descrito em 4. Para controlar a saída sonora nós usamos a distância descrita acima para definir a Similaridade Espacial como segue: Dado dois indivíduos da população Gi(k) , Gj(k) , eles são similares se d( Gi(k), Gj(k)) , onde é um número arbitrário e a distância d é definida pela Eq. (1). Localização do i-ésimo indivíduo Figura 1. Campo de localização sonoro (SLF). 3.2. Operadores Genéticos e a Espacialização Sonora 3.2.1 Crossover Dado o melhor indivíduo da k-ésima geração Gi*(k) = ( Wi*(k), Ii*(k), Li*(k)) e a taxa de crossover α, onde 0 ≤ α ≤ 1, os parâmetros de localização dos indivíduos da População serão transformados como se segue: Ii(k+1) = α Ii*(k) + (1-α). Ii(k) , e (3) Li(k+1) = α. Li*(k) + (1-α). Li(k) para 1 ≤ i ≤ N, e k= 0,1,…, R. onde R é o número de interações. 3.2.2 Mutação Similarmente, dado o melhor indivíduo da k-ésima geração Gi*(k) = ( Wi*(k) , Ii*(k) , Li*(k)) e a taxa de mutação ß, onde 0 ≤ ß ≤ 1, a operação de mutação é definida como se segue: Ii(k+1) = 1 . (rand) + (1-1). Ii(k) e (4) Li(k+1) =2 . (rand) + (1-2). Li(k) para 1 ≤ i ≤ N, e k=0,1,…, r. onde “rand” é o parâmetro randômico no intervalo [0,1] e as taxas 1 e 2 controlam o grau de aleatoriedade da operação de mutação. Nesta implementação nós consideramos 1 = 2 por simplicidade. 4. Implementação A primeira implementação do SE utilizando a linguagem de programação Pd serviu para salientar os pontos que deviam ser abordados pelo método inicial. Dos diversos aspectos percebidos, viu-se a necessidade de se incorporar uma série de extensões ao método de modo que este se tornar mais semelhante à evolução biológica. Entre eles, destacam-se as seguintes extensões. Conceito de variação demográfica, dado pela implementação de uma população de tamanho variável onde os indivíduos apresentam um determinado tempo de vida. Conceito de reprodução sexuada, dado pela criação de indivíduos com gênero sexual. Conceito de localização e mobilidade geográfica de indivíduos através da implementação de genótipos com funções de localização espacial sonora. Estas três extensões serviram para re-orientar não só o desenvolvimento do SE, mas também a sua aplicação. Dada a sua crescente proximidade com modelos de evolução biológica, a SE passou a se aproximar da geração de estruturas mais complexas, ou seja, ao invés da síntese de sons, a síntese de soundscapes. 4.1 Descritores da Percepção Sonora No desenvolvimento da SE, a primeira e a terceira extensão descritas acima estão diretamente relacionadas à síntese de soundscapes. Numa soundscape o número de fontes sonoras pode variar (população de tamanho variável) bem como as fontes sonoras podem se deslocar no espaço (localização espacial). Apesar de não relacionada diretamente à soundscapes, achamos interessante implementar também a segunda extensão descrita acima: a reprodução sexuada. Para isso, criamos o conceito de gênero no indivíduo da síntese evolutiva. Partindo do conceito de reprodução sexuada uma nova extensão do método da síntese evolutiva que implementamos também foi o conceito de genes diplóides. Assim, em cada genótipo tem-se que cada cromossomo é formado por genes dominantes e/ou recessivos, tal e qual na biologia. Os genes são dados por descritores cognitivos não-conceituais, tal como explicados em [Leman,03]. Estes descritores são considerados como unidimensionais correspondentes a uma dimensão da multidimensionalidade que constitui o timbre sonoro. Existem diversas representações de descritores, tal como ataque, harmonicidade, inharmonicidade, rugosidade, entropia, flutuação, etc. Para essa implementação da SE, definimos quatro descritores: onsetness, loudness, pitchness a location. Estes descritores foram definidos aqui neste trabalho com base em outros descritores já definidos em outros estudos como em [Leman,04]. Suas escalas são normalizadas entre zero (nulidade ou ausência do descritor em questão) e um (presença máxima do descritor). Assim definimos o descritor onsetness como aquele representando a quantidade de ataque (onset) presente no som, sendo que onsetness é próximo de zero para sons que não possuem ataque perceptual, tal como é o caso de sons da família das cordas friccionadas (não pizzicato). Do mesmo modo, onsetness seria próximo de um para sons que sejam praticamente apenas o ataque, tal como o som de um estalo (sem reverberação), ou um pulso unitário. O descritor pitchness representa o grau de tonalidade de um som. Para sons ruidosos, que não apresentam qualquer definição perceptual de pitch, tem-se pitchness=0. Para puramente melódicos, como o som de uma nota musical de um instrumento melódico, sem qualquer presença de ruído (como o som de um diapasão) tem-se pitchness=1. O descritor loudness determina o grau de percepção de intensidade sonora, lembrando-se que este não está unicamente relacionado com a intensidade do sinal sonoro, mas também com o ataque, a freqüência do parcial fundamental e a composição espectral do som em questão. No processo de seleção existem quatro parâmetros correspondentes aos três descritores (definidos acima) e à localização sonora. Estes definem a máxima distância permitida para cada descritor do genótipo do indivíduo em relação ao alvo. Por exemplo, se num dado processo de seleção o parâmetro de distância de um dado descritor for dd = 0,5 então será eliminado da população qualquer indivíduo cujo mesmo tipo de descritor d, comparado aos seus correspondentes, no conjunto alvo satisfizer |d – da| >= dd a todos os genótipos do conjunto alvo. O processo de reprodução é aqui determinado por quatro fatores. Os dois primeiros são descritos no genótipo do indivíduo: localização espacial e gênero. Apesar de não ser uma característica genotípica, por motivos de conveniência computacional a localização do indivíduo é descrita no arquivo de texto que representa o genótipo do indivíduo. Este é dado por duas variáveis normalizadas, I (intensidade) e L (angulo de azimute), dada por I=[0,1] e L=[-1,1] (respectivamente correspondente aos ângulos de 0 e 180 ). Nesta implementação definimos três tipos de gênero dos indivíduos: m (macho), f (fêmea), s (estéril) e b (ambos). As únicas reproduções possíveis são as que obedecem às seguintes regras: m&f m|f|b [ m | f | b] & b = s (reprodução com b sempre gera indivíduos estéreis). onde: & = AND, | = OR e x & y é a reprodução entre x e y. 4.2 Implementação em Pure Data A saída de som da SE também foi expandida. Ao invés de ser apenas formada pelo melhor indivíduo de cada geração, esta passou a ser definida pelo usuário através de dois parâmetros: m (melhores, ou mais próximos do alvo) e p (piores, ou mais distantes do alvo) seguidos por uma variável [0,1] referente a porcentagem de indivíduos na população. Exemplificando, m 0,3 corresponde à saída dada pela mistura de 30% dos indivíduos da população ordenados do melhor ao pior. Note que m 1 é o mesmo que p 1 e m 0 equivale à saída da implementação anterior, ou seja, o melhor indivíduo. A implementação inicial foi feita na forma do arquivo PD, se00.pd (versão 0.0). A correção e melhoria desta implementação inicial resultaram no se01.pd (versão 0.1), cuja figura abaixo mostra sua interface gráfica (front-end): Figura 2. Primeira implementação da Síntese Evolutiva em Pure Data. Ao iniciar a síntese, o se01.pd vai inicialmente selecionar o individuo da população que é mais próximo dos indivíduos do conjunto alvo. Este será o primeiro melhor indivíduo. Logo em seguida o processo de reprodução modifica todos os 12 elementos do conjunto população através das operações genéticas entre cada indivíduo da população e o melhor indivíduo escolhido anteriormente. Na fase final da implementação em Pd, o método da síntese evolutiva foi remodelado com base nos novos critérios apresentados na secção anterior e o sistema foi assim expandido para a síntese de soundscapes. 4.2.1 Arquivo de Controle Paramétrico Tem-se agora um sistema mais complexo que pode ler um arquivo de texto, aqui chamado de score, com as instruções ordenadas no tempo, para orientar a síntese do soundscape. Além do score, a SE é também controlada pelos parâmetros contínuos das taxas dos operadores genéticos (crossover e mutação), a taxa de proliferação populacional, bem como pela modificação dinâmica dos indivíduos do conjunto alvo pelo usuário. No modelo de score que implementamos, tem-se toda a informação inicial e as linhas de comando organizadas sob a forma de um arquivo de texto. Na Tabela 1 é dado um exemplo de score: Tabela 1. Score usado no controle da Síntese Evolutiva. Title Title: o nome do score. ParteTeste; instructions: instruções da organização deste score que irão aparecer ao usuário, sob a forma e comentário, na janela do programa. instructions Esta eh a sintese evolutiva de \\ soundscapes com score ParteTeste\\ \\ Clique SPACE para prosseguir\\ \\ modos do score: \\ time selec onset loud pitch location \\ time repro gender proximity\\ output proxim x distant y all\\ num-pop: número inicial de indivíduos na população, que deve estar em conformidade com o número de WAV files no arquivo pop. num-alvo: número inicial de indivíduos no conjunto alvo que, igualmente, deve estar em conformidade com o número de WAV files no arquivo alvo. proli: valor inicial de proliferação da reprodução de indivíduos. cros: valor inicial da taxa de crossover. mut: valor inicial da taxa de mutação. \\ global: selecao\\ step: reproducao\\ state: output\\ Logo em seguida, tem-se as linhas de comando, ou commandlines, dada em uma única linha encerrada por “;”. Estas são ordenadas com as seguintes instruções: ; num-pop 7; num-alvo 3; Time: tempo de atraso para a execução da linha, dado em segundos. proli .5; cros .5; mut .1; Mode: determina o modo de operação: sel processo de seleção, rep reprodução e out saída sonora. 00 sel .5 .5 .5 .5; 00 rep .5; 00 out p 1; 01 out p 5; 05 out l 1; 06 out a; 10 rep 0.1; O genótipo é também dado por um arquivo de texto. Seguindo o padrão do objeto “textfile” do Pd, onde cada linha é encerrada pelo símbolo “;”. A primeira linha do arquivo de texto do genótipo especifica a localização espacial do indivíduo (location). Esta é dada através de dois parâmetros, Intensidade, que varia entre I = [0,1], e ângulo de azimute que varia entre A = [-1,1] respectivamente correspondendo a uma variação de ângulo entre [-180 , 0 ]. Um exemplo típico é dado abaixo: location 1 -1; lifespam 0; Fonte Sonora gender m; I onsetness d .5 r .5; A loudness d .1 r .9; pitchness d .9 r .1; 180 Figura 3. Esquerda: Exemplo de um genótipo da SE, representado por um arquivo de texto. Direita: Localização do indivíduo da SE. 0 A segunda linha arquivo de texto do genótipo determina o “tempo de vida” (lifespam) deste indivíduo, ao longo do processo evolutivo. Este tempo é dado em segundos. Depois de terminado este tempo préestabelecido, o indivíduo é automaticamente eliminado da população. Para representar indivíduos “imortais” usa-se “zero” como parâmetro (conforme é mostrado no exemplo da figura 3). A terceira linha determina o gênero do indivíduo (gender), podendo este ser: m (masculino), f (feminino), b (ambos), s (estéril). Conforme foi mostrado, existem duas regras que determinam a reprodução anteriormente, sendo que se o indivíduo for s não pode reproduzir e permanecerá na população até terminar seu tempo de vida ou ser eliminado por distanciamento do conjunto alvo. As próximas linhas do genótipo determinam os três descritores cognitivos escolhidos para representar o genótipo em si. Estes formam o cromossomo diplóide do indivíduo onde existe o conceito de dominância e recessividade. Então, em cada linha tem-se o valor para o gene dominante dado pelo parâmetro d, seguido de seu valor numérico (entre [0,1]) seguido pelo gene recessivo, dado por r, seguido de seu valor normalizado. Os conceitos de hereditariedade e caracterização fenotípica seguem as simples regras dispostas pela genética de Gregor Mendel. 4.2.2 Interface Gráfica O front-end da implementação da SE é visto na figura 4. Nesta janela inicial (figura 4, esquerda) o usuário é convidado a digitar o nome de um score que este deseje utilizar para guiar o processo evolutivo. Conforme falamos anteriormente, um score é um arquivo de texto com os parâmetros evolutivos ordenados no temporalmente. Ao digitar o nome do score uma nova janela aparece, com o nome deste score no titulo e com outros parâmetros evolutivos (figura 4, centro) Caso não haja um score definido, a próxima janela que irá aparecer será similar aquela da figura, à direita. Figura 4. Janela inicial (front-end) da interface do programa (esquerda). Janela com o nome do score e os respectivos controles para a síntese evolutiva (centro). Janela da síntese evolutiva feita sem a presença de um score (direita). Como se percebe, não é necessária a utilização de um score na síntese evolutiva. Este funciona similar a uma partitura musical que descreve as passagens de uma composição musical. Analogamente, a não utilização de um score, se assemelha a improvisação musical, pois deixa a cargo do usuário o controle em tempo real de todos os parâmetros. 5. Conclusão Apresentamos a implementação do sintetizador evolutivo em Pd, com processamento e controle em temporeal. Esta implementação abre as portas para um novo conceito de processamento não-determinístico de ambientes sonoros, ou soundscapes, uma vez que o método gera sons que se modificam adaptativamente, convergindo com similaridade variante. O projeto gráfico da SE também apresentou grande melhoria em relação à primeira versão implementada. No entanto, o Pd não oferece grandes recursos gráficos em sua plataforma atual. Uma maneira de sanar esse problema, no futuro, seria valer-se do fato que o Pd é na verdade formado por dois programas, o engine que realiza o processamento e controle de áudio e a plataforma gráfica, que cria as janelas e objetos visuais. Teoricamente, é possível utilizar apenas o engine processando em background controlado por uma plataforma gráfica mais desenvolvida, por exemplo, em JAVA. Isto tornaria a visualização do programa mais aprazível e protegeria o código do algoritmo. Esperamos com isso que uma grande quantidade de pesquisadores desta área avaliem esta implementação, suas amostras sonoras e emitam seus pareceres com relação à suas avaliações. É nosso intento que tenhamos conseguido chegar a uma ferramenta musical interessante para o compositor de música eletroacústica. Agradecimentos José Fornari teve o apoio da FAPESP através de bolsa de pós-doutoramento desenvolvida no NICS, processo 04/00499-6R. Jônatas Manzolli e Adolfo Maia Jr. tem o apoio do CNPq através de bolsa de produtividade em pesquisa PQ. Referências Koza, John R., “Genetic Programming”, Encyclopedia of Computer Science and Technology, 1997. Bäck, T. “Evolutionary Algorithms in Theory and Practice: Evolution Strategies, Evolutionary Programming, Genetic Algorithms”, Oxford Univ. Press. 1996. Garey, M. and D. Johnson, “Computers and Intractability; A Guide to the Theory of NP-Completeness”. ISBN 0-7167-1045-5. 1979. Miranda, E. R.. "On the evolution of music in a society of self-taught digital creatures." Digital Creativity, Vol. 14, No. 1, 29-42. 2003. Soddu C. O. "A Generative Approach to Art and Design" Leonardo, 1 June 2002, vol. 35, no. 3, pp. 291-294. MIT Press. 2002. Garcia, Ricardo A. "Automatic Generation of Sound Synthesis Techniques". Proposal for degree of Master of Science. MIT - Fall. 2000. Gibbs, J. "Easy Inverse Kinematics using Genetic Programming". Genetic Programming 1996: Proceedings of the First Annual Conference. MIT Press. http://www.red3d.com/cwr/evolve.html. 1996. Biles, J. A., "Gen Jam: A Genetic Algorithm for Generating Jazz Solos", Proceedings of the 1994 International Computer Music Conference, (ICMC'94), 131-137. http://www.it.rit.edu/~jab/GenJam.html. 1994. Horner, A., Beauchamp, J., and Haken, L., "Machine Tongues.16. Genetic Algorithms and Their Application to FM Matching Synthesis," Computer Music Journal, vol. 17, pp. 17-29. 1993. Moroni, A., Manzolli, J., Von Zuben, F., Gudwin, R., "Vox Populi: An Interactive Evolutionary System for Algorithmic Music Composition", Leonardo Music Journal, San Francisco, USA, MIT Press, Vol. 10. 2000. Fornari, J., Manzolli, J., Maia Jr., A., Damiani F., "The Evolutionary Sound Synthesis Method". SCI conference. Orlando, USA. 2001. Caetano, M. F., Manzolli, J., Von Zuben, F. J. "Application of an Artificial Immune System in a Compositional Timbre Design Technique". In: Jacob, C., Pilat, M.L., Bentley, P.J., Timmis, J.. (Org.). Artificial Immune Systems, Lecture Notes in Computer Science. Berlin: Springer-Verlag, v. 3627, p. 389-403. 2005. Fornari, J., Manzolli, J., Maia Jr., A., Damiani F., "The Evolutionary Sound Synthesis Method". SCI conference. Orlando, USA. 2001. R. Murray Schafer, M. (1977). “The Soundscape”. ISBN 0-89281-455-1. Truax, B.. (1978) “Handbook for Acoustic Ecology”. ISBN 0-88985-011-9. Fornari, José Eduardo. “Síntese Evolutiva de Segmentos Sonoros”. Dissertação de Doutoramento. DSIF/FEEC/UNICAMP. 2003. Leman, M., Vermeulen, V., De Voogdt, L., Moelants, D., & Lesaffre, M. (2004). Correlation of Gestural Musical Audio Cues. Gesture-Based Communication in Human-Computer Interaction:5th International Gesture Workshop, GW 2003, 40-54. Murray, J. C., Erwin, H. R., and S. Wermter, "Robotic sound source localization using interaural time difference and crosscorrelation", presented at KI-2004, September 2004. Fornari, J.; Maia Jr. A.; Manzolli, J.. “Generating Soundscapes Using Evolutionary Spatial Control”. In Proceedings of EvoWorkshops, EvoMusarts, Spring-Verlag: Berlin. pg 517-526, Valencia. 2007. Alive Music Tuti Fornari (José Fornari) Núcleo Interdisciplinar de Comunicação Sonora- NICS UNICAMP [email protected] Art was always related to technology. Among pre-historical musical instruments discovered in excavations, perhaps (and arguably) one of the oldest ever found, it is a flute made of a bear femur, that is dated of over 40,000 years old, and able to play four notes of the diatonic musical scale [1]. Percussion instruments are found in archaeological sites, and dated back to the paleolithic period. Even animal species, such as some monkeys, are known to build rudimentary drum-like instruments, playing with wood logs and branch sticks. In fact there is no registry of a human civilization that did not have any form of musical expression. Along of the modern human history, there have been a great deal of effort in developing technologies to perfect musical instruments. The Kunsthistorisches museum in Vienna, has an impressive collection of ancient instruments, where it is possible to follow the march of technological advances that families of musical instruments, specially the Western ones, undergone along of the centuries. String, Plucked, Keyboard, Wind instruments, all suffered large modifications in their material and mechanics. What we see now performing in an Western musical orchestra is the result of an evolutive process of musical technology, that preserved and perfected the best-fit solutions and abandoned the ones that were not musically adequate. In the 18th century, about a century after the physician William Gilbert coined the term “electricity”, after his studies on electricity and magnetism, several musical instruments exploring its new media were build, such as the Denis d'or, the first dated electrical musical instrument, invented by Václav P. Diviš [2]. This was the first musical usage of electricity on records. It was a keyboard instrument were electrified strings were struck and its vibration would create electro-magnetic oscillations, thus corresponding to mechanical oscillation, (i.e. sounds). In the early 20th century, the triode (later named as “valve”), the first device able to amplify a current of electrons, invented by Lee de Forest, marked the begin of the electronic era. This was followed by the creation of semiconductor technologies, in the 1950s, that allowed the miniaturization of large number of transistors (the semiconductor equivalent of a triode) into integrated circuits. Music technology already have started to use electronics to develop instruments, such as the Theremin. This instrument generates a constant sine-wave that is independently controlled in intensity and pitch by the player without contact of their hands, but only by its proximity with two loop antennas [3]. With the advent of semiconductors, technology could use the logic previously developed by George Boole in the 19th century, the Boolean logic, for the development of digital circuits, which is regarded as one of the foundation of computer science. Electronic and computing technologies helped to reshape some aesthetic principles of music. By allowing musical recording and processing, music was no longer an evanescent form of art that existed only in the form of music notation or as memory of a performance or a trace of cultural heritage. Now, music gained a materiality and form, similar to the visual artworks. Manipulation of music material, through electronics, let the artists to explore real-time sonic alterations, as seen in the phase vocoder, that independently manipulates sound in its time and frequency domains [4]. Alongside, music synthesis were also vastly developed. Specially with computers, timbres never heard before in nature, could now be created by different techniques, such as additive, frequency modulation syntheses and sampling techniques such as wavetable [5]. Computer science also advanced towards the attempt of emulating the way nature (i.e. natural selection) and the brain are able to solve problems that are not deterministic, meaning by that a problem that can not entirely defined by an exact mathematical method. One of these bio-inspired methods is Evolutionary Computation (EC), a branch of Artificial Intelligence that emulates the natural selection process as defined by biological theory of evolution, in which the genetic material, or genotype, of individuals within a population adapt to better fit dynamic and unpredictable environmental conditions. As it happened before, music can take advantage of such adaptive computer technologies to synthesize sounds and create music material in a way that was never done before. With such methods sonic environments can be created, similar to what happens naturally, in self-organized acoustic systems known as soundscapes. Self-organized systems are typical open systems that autonomously increase their complexity and may present emergent properties [6]. A soundscape is the acoustic correspondent of a visual landscape, and, as such, has the feature of retaining a cognitive (and even affective) identity, although their formant acoustic material is always being renewed, and never repeats itself. This creates the immersive sensation as a typical emergent property featuring in any soundscape. Immersion generated by variant similarity resembles the complex organization of a population of individuals, and it may also be seen as a selforganized system. Undoubtedly, deterministic methods of computer technologies were foundamental on the creation of real-time, on-the-fly music analysis, processing and synthesis, that underpin the concept of Live Electronics from the 1960s, term coined by musicians members of Milton Cohen's Space Theater, in Michigan, later passed to the Pop Electronic Music, in the 1970s, with the appearance of musicians such as: Jean Michel Jarre, Vangelis and bands such as: Devo; expanding till nowadays. Lately, as portable computer became more affordable and with the existence of several open-source programming languages for music and video real-time performance, such as: ChucK, Csound, SupperCollider, Processing and PD, musicians have adventured on the creation of programs during musical performances. This is known as: Live Coding. This article deals with the possible next step on the computer-assisted musical creation scenario; the usage of adaptive methods such as EC to create a meta-composition ambient, in with the system takes over the process of music generation, where the artist, metaphorically speaking, behind the curtains of musical performing time and space, delineates the compositional structures and guide the creation of soundscapes. DJ: Live As the electronic music technology reached a certain level, recorded music could be easily accessed and transmitted, specially by the radio stations. Musicians could now have their production broadcasted to a greater audience then concert halls as their music could be recorded in phonograms, and later in compact discs. A great deal of musical recording was naturally beginning to pile up. To handle all this music production and organize music-lists that would be played by the radio stations, a new profession started to appear. The term DJ, short for Disk Jockey, was initially coined to refer to the professionals that manipulated recorded music, in any media, by organizing the musical radio program. Later, Djs started to give artistic meaning to their work. With digital technology, audio could be easily accessed and manipulated from laptops and commercial softwares tailored for this purpose. However, digital media lacked the possibility of manipulation of analog machines, such as turntables. A computer typically has as input entry a mouse with two buttons and a keyboard. The technology developed before the digital media has far more intractability with human. The classical example is the turntable that was preserved by Djs up to now. As it happened before, when a system get too complex, it tends to follow two possible ways: 1) be fragmented and distributed, or 2) be extinct. In the case of the music media, as digital media helped tho boom the creation of recordings, the figure of a Djs shown up, to take care of its organization. As the system becae even more complex, Djs started to also to participate in the artistic creation. Today is common to see a Djs performing together with bands, as another musician. They manipulate music in its most solidified acoustic form, the recording. Similarly to what may have happened centuries ago, when music notation was initially developed. At that time, the interpreter was only a servant, in charge of bringing back to life the music embedded into the notation. As music developed, the interpreter started to take more part of the artistic action, until a time when they were revered as virtuosos and divas. We see it even today, classical and pop musicians that are taken as celebrities, often overshadowing the contribution of the composer into the music creation. For the history of music, Djs are certainly a recent phenomenon, but it is already possible to infer a correlation between them and the interpreter musicians from the past. They also have a technique that is new, the computer literacy, even performing live coding, as said before. This is comparable to the virtuoso with a keen sight-reading or sharp-clear fingering. It is almost astonishing to realize how many great musician from the old school are not able to understand the rudimentary steps of computer programming, or even its basic usage. Darwin is Alive Natural selection was initially proposed by Charles Darwin. It not only tossed suspicious on man's divine heritage but present a scientific model in the way by which nature solve problems without knowing all of its extension. Richard Dawkins describes its evolutionary process as the work of a blind watchmaker, crafting complexes devices without seen all their components. In theory, without the tight guidance of an intelligent designer, natural evolution was still able to self-organize all life forms. From this model, computer science brought the EC methodology, as previously introduced. In an EC system, there is a population of individual. Each one is a possible solution for a given problem. This problem usually is a very complex one, so much that it can not be reasoned by exact mathematical models. There is also another set of individuals, the Target set. They represent the environment conditioning. On the population set, individuals will participate of the processes of reproduction and selection. The selection process will determine the fitness criteria, according to the Target set individuals, that will eliminate all individuals within the population there are not enough fit to the environmental condition, expressed by the Target set. The reproduction will create new individuals within the population. From this point, there are a myriad of variations that are possiblr to be incorporated in a evolutionary system. Some of them are: Individuals with (or without) gender, New fitness functions, Synchronous (or asynchronous) generation steps, etc. In computer science, EC is normally used as a solving-problem technique. Nevertheless, natural selection, that inspired this method, does not seem to be interested in end results, but in the process itself. Nature doesn't seem to care whether a specie comes to extinction or if a forest is devastated in a natural firestorm. It is the never-stopping, dynamic, ongoing process, that seems to be the paramount of natural selection. No matter what is done, how many individuals or species disappear, natural selection always strive, showing its sentiency as new species are always formed, new forests are created and unexpected solutions are always surprising our scientists. Music is an art where the process is usually more important that the end result. This is especially truth in processual artworks. The EC methodology can be applied in music similarly as the natural selection process, above described. This was done in several models. The important distinction that need to be made here is that the sound resulting from an EC system is (still) not a piece of music but a sonification process, what we described before, as a soundscape. Creating human-like music, may be an impossibility to any kind of adaptive process as they lack the cognitive and, specially, affective responses of a human mind. As music is, in a way, communicating contextual information, there is still to be developed models in which this sort of information can be recorded and used by an autonomous computer system, even though it is inspired in nature. Evolution of Gestures When an artist manipulates its tools in order to accomplish an artwork, their movements are done with the intention and care of crafting an artistic object in a given specific media. In the case of music, it is seen during the expressive performance or when crafting new sounds in a recording studio. The set of actions and movements are then embodying the prosody of an artistic discourse. This is named here as the artistic gesture; a movement with an artistic intention. Lately, several technological interfaces have been developed to grasp the human gesture. They are named as gestural interfaces because they capture, normally in real-time, human movements and map them in computer as parametric controls. They are of prime importance for artists and musicians. As said before, computer technology tools have been lacking in presenting reliable gestural interfaces, as they existed along of the pre-computing history of art (a pencil, a paint-brush, a piano keyboard and pedals; they all are great gestural interfaces for their artistic media). Recently, we experienced with two types of gestural data. One from conceptual drawings and the other from body movements of dance. We collected these data and used them to create genotypes of individuals in an evolutionary system to create soundscapes. Here we briefly describe our experimentation. Gestures from Drawings We started with a large collection of conceptual drawings (over 200 sketches) that are very similar but, as they were hand-made, never identical to each other. They were all created through the repetition of a similar, back-and-forth gesture. This naturally creates a collection that resembles a biological population of individuals belonging to the same specie, although, its correspondent evolution only occurred during its artistic process of creation. Figure 1 shows 8 examples of this drawing collection. Figure 1. Eight examples of the conceptual drawings By using an EC method, it seemed possible to develop an installation in which characteristics of each drawing could be mapped into individuals genotype and then gathered into a population of an evolutionary system, where its continuing evolution creates a dynamic soundscape. Figure 2.Detail of the mapping of a conceptual drawing. The first step was to establish a method to map the drawing features into sonic features. Figure 2 shows, on the left, a detail of the digital image of an original drawing belonging to the collection. On the right side, it is shown the mapping of this image, done by an algorithm developed in Matlab. Note that the mapping collects several objects belonging to the same image. Each object has several features associated with it, and some of them are imprinted at the left side of each object. By analyzing these objects, we considered that they belong to three types that, altogether characterize the “individuality” of each drawing. Such graphical elements are found in all drawings. They are here named as: Cumulation, Repetitions and Fragments. Cumulation is the biggest object belonging, to the image so, there is only one cumulation per drawing. It is a concentration of paint at the bottom of the image, where the gesture initiated. Repetitions are objects with a stretched shape. They are quasi-parallel traces at the middle of the drawing, generated by the back-and-forth gesture. Fragments are small, detached and circular spots of paint dripped at the outlying parts of the drawing, due to the gesture intensity. Following that, we related each graphical element with a single sonic aspects that seems to synesthetically represent, in the acoustic domain, each graphical aspect of the drawings. We related the object Cumulation to stochastic low-frequency sonic features, steady and of long duration. Repetitions were related to tonal sounds, middle-range frequencies and time variation. Fragments were related to short-time variations and sparks of either stochastic or tonal sounds. Each image mapped generates several graphic objects, one being the cumulation and the others, fragments and repetitions. Each object has several features associated with it. They are mapped as the matrix M(6x100) with the genotypes for the initial individuals starting the evolutionary system. We use the projection of the objects shape in the coordinates to create a time series of 100 elements. For tonal sounds, we used its horizontal projection. For stochastic ones, it was used the vertical projection. The distortion was given by the difference between horizontal and vertical projections. Then, each projection was circularly shifted according to the distance of its object to the image origin. The tonal intensity curve is the blend of all horizontal projections modulated by each object eccentricity parameter. Tonal frequency curve is the blend of all vertical projections modulated by the respective objects normalized angle of orientation. Tonal distortion is the blend of the difference of projections modulated by the inversion of eccentricity. The stochastic intensity curve is the blend of all horizontal projections modulated by each object square of normalized area. The stochastic frequency is the blend of all vertical projections modulated by the respective objects normalized angle of orientation. Stochastic distortion is the blend of the difference of projections modulated by its eccentricity. Gestures from Dance Movements Rudolf Laban, a famous choreographer and movement theoretician, in his work, known as, the Laban Movement analysis [7] postulated eight types of Basic Movement that are the combination of three independent categories of Effort Actions (Space, Weight and Time). They are: Float, Punch, Glide, Slash, Dab, Wring, Flick, and Press. These actions have been used by some schools of acting and dance as movements embodying specific emotions. The InfoMus Lab, has developed the software EyesWeb, a multimodal interactive systems for the real-time analysis of movements and acquisition of expressive gesture [8]. Here at Unicamp, in a collaboration between NICS and the Interdisciplinary Group of Theater and Dance, a performance called Elementaridades was developed, inspired in the physical movement of particles of matter, and its application of Rudolf Laban´s principles of movement in dance [9]. In order to collect this movement data, we used as gestural interface two Wii remotes (Wiimote) and their accessory, the Nunchuck. Each one of the four units (2 Wiimotes and 2 Nunchucks) has embedded an accelerometer that transmit wirelessly, via bluetooth, the real-time acquisition of seven parameters. Three of them are named, in aviation terms, as: yaw, pitch and roll. They referred to the accelerometer rotation around each of its possible spatial axes [10]. The next four parameters transmitted are: x, y, z (for each axis rotation raw angle) and accel (raw acceleration movement data, disregarding its direction). The data was collected by a PD patch that we developed that recorded each movement in synchronism with the seven parameters of each of the four accelerometers (given a total of 28 time series) sampled at every 50 milliseconds. The accelerometers were attached at the dancer's knees and elbows. The resulting data was given as a text file, automatically created by the patch. Table 1 shows the body actions described by Rudolf Laban and its formant aspects. The movements were performed according to the premisses shown below. Table 1. Body Actions, as described by Rudolf Laban Action Space Weight Time Sliding Direct Light Slow Fluctuating Flexible Light Slow Punctuating Direct Light Rapid Shaking Flexible Light Rapid Pressing Direct Firm Slow Twisting Flexible Firm Slow Punching Direct Firm Rapid Whipping Flexible Firm Rapid These eight body movements were recorded and processed by the PD patch. The Figure 3 shows two random scenes, with image processing to pinpoint the movement trajectories, of the body actions recorded while the gestural data was collected in real-time by the wireless interfaces. The figure at the left side shows a moment were the dancer is less active, almost standing still. The figure at the right side depicts a moment were the dancer is very active, waiving her arms, where they almost disappear of the image. It is possible to see, as a detail, particularly in the left image, two of the four accelerometers attached at the dancer's thighs and elbows. accelerometers Figure 3. Scenes of the body actions recordings. With these interfaces, it was possible to collect gestural data out of the body movements, wirelessly and in real-time. Figure 4 shows a detail of the collected data, as time series, by one of the four accelerometers. It shows the 7 curves of: pitch, roll, yaw, acceleration, and raw coordinate angle data: x, y and z. These time series were then used to create the matrix M(6x100), corresponding to the individual genotypes that initiate the population of the evolutionary system. The six arrays compounding each genotype were fed with data processed from one specific body action recording. In the implementation, we translated the mean variation of the accelerometer parameters attached to the dancer's elbows to the tonal intensity and tonal frequency. Similarity, the ones attached to the thighs were translated to stochastic intensity and stochastic frequency. The tonal distortion was translated from the difference between tonal intensity and frequency, as well as the stochastic distortion was given by the difference between stochastic intensity and stochastic frequency. Figure 4. Implementation of the Individual as Pd subpatch. Live -> aLive The evolutionary sound synthesis, as originally proposed in [11] has a population of individuals, a Target set and two evolutionary processes: 1) reproduction and 2) selection. The Target set guides the evolution process, similarly to the environmental pressure in a biological populations. Selection applies a fitness function on the population individuals to find the best fitted one, according to the sonic characteristics, found in the Target set. Reproduction uses the genetic operators: crossover and mutation to create new individuals, offsprings of each individual population and its best individual. Here we took a slight different approach. We started our population with few individuals, which genotypes were mapped from a select group of drawings. Then, a variable-size population starts to be created. The output sound is given by the coexistence of all population individuals, which creates the dynamic soundscape. Figure 5 shows the implementation in PD of the reproduction process. This figure shows, on the top, twelve tables. On the left side, there are six tables. They belong to the genotype of the first individual. In the same way, on the right side, there are the correspondent six tables with data from the genotype of the second individual. The genotypes are mappings from the gestural data (drawings or movements) and stored as text files. These text files have the same organization. They are formed by seven lines, finished with a semicolon. The first line can be either the word “active” or “inactive”, that informs the evolutionary system whether this individual is active or not, where active means that this individual is “alive” and can be chosen by the abstraction shown in the Figure 5. The other six lines represent one of the six arrays of the individual genotype. Each line is a sequence of one hundred normalized real numbers (from -1 to +1). They receive the data from the gestural matrix M(6x100). Individuals are also implemented as a PD abstraction. Each individual is an instantiation of this abstraction which one numeric argument. By this argument, the instantiation reads the correspondent genotype text file. The initial arguments are used to pass its unique name to all six arrays belonging to each individual genotype. Using the ITD sound location technique, as described before, we emulate the individuals dynamic location, as if they were moving inside of a spatial position field. The casual encounter between individuals raises the chances of an offspring creation. This process entails to a varying-size population, different from the initial ESSynth method, were the population had a fixed size. Another distinction is that the output sound in ESSynth was given by the queue of best individuals of each population generation (audio samples of several ESSynth simulations are available at: www.nics.unicamp.br/~fornari). In this work, the sound output is given by all individuals coexisting at each moment with the variant population. This also creates the possibilities of population extinction, by the reducing of its number of individuals to zero, as well as to reach a super-population plateau, in which all computational resources of the machine, running this Pd patch, would be in jeopardy. We can set thresholds to avoid these two extreme scenarios but the natural variation of population size inside these limits is enticing and welcome for this artwork perspective. Figure 5 also shows that, the data from two groups of six tables on the top; the genotypes of two active individuals, are used by the genetic operators to create the group of six tables shown on the bottom; the genotype of the offspring individual. This is done by the genetic operators: crossover and mutation, implemented in the sub-patch “pd genetic operators”, as seen in this Figure. This subpatch receives two normalized scalar variables, from the vertical sliders. As labeled, they are the coefficients of the genetic operator rate. These parameters go from zero to one, meaning going from no to full genetic operation. They can be set on-the-fly by the user. Similar to the ESSynth original method, this implementation also embodies the paradigm of variant similarity. However, with the sound output resulting from a dynamic population formed by all active individuals generated by the reproduction process, a soundscape will be naturally selforganized. Figure 5. Implementation of the Reproduction process. Conclusions This article discussed what we perceive to be a possible next step in the evolution of Live Electronic Music, what we named here as aLive Music. This will take advantage of adaptive computational methods for sound synthesis, algorithmic music composition and generation of soundscapes. Here we presented our endeavors on this subject. We experimented with the implementation in PD of an evolutionary soundscape system that used as genotypes data from artistic gestures. In this work, we used two types of gestures; from the mappings of graphic objects within conceptual drawings and from the acquisition of body actions in dance movements. We found the results enticing (they can be accessed at the link: www.nics.unicamp.br/~fornari ) as they create an immersive sonic ambient by the variant similarity of individuals within the sonic population. As it can be seen (and listened), this system is still in its early stage of development. It can be extended in many forms and expanded in several directions. The goal is to develop a set of rules and structures to work as a selection process in the evolutionary ambient, so the sonification is not just immersive as it is now, but also musical. For that, we mean the ability of this dynamic soundscape to present a prosody that may turn to have cognitive and affective context for its listener. This is an great challenge that can bring unexpected results to the musical scenario. A system that is able to create musical content out of atomic rules is something that will certainly change the concept of what is a musical composer. That will come closer to the concept of a software programmer, or better, the system designer. Along music history, luthiers and musicians cyclically merged and dispersed, as technology advanced to new medias. Bach used the equaltemperament system, at his time still not formalized, to compose the well tempered clavier. Haydn and Beethoven helped in testing and suggesting changes into the design of the uprising new keyboard instrument, the Pianoforte (later known as Piano), while being developed by Broadwood. In the 1960s, Wendy Carlo, helped spreading the usage of electronic synthesizer genuinely as a musical instrument, by recording in a keyboard custom tailored by Robert Moog. Similarly, we may now be facing a historical moment alike, where programming design is merging to the art design. We see examples of open-source software that are free, multi-platform, developed by a great number of volunteers, and specialized into the design of real-time multimedia programming, such as: Processing, SuperCollider and PD, among others. In our opinion, PD seems to be the one that most comes closer to the philosophy of tailoring a truly new technological meta-notation score, as it is economic graphical interface is not an input of sequential lines of code but a visual programming architecture that emulates the parallel processing of multimedia. Science and Art seems to be only separated by a scaling factor in complexity. What can not be reasoned by analytical thinking may turn to become artistic, which can only be solved by intuition and creativity. Charles Sanders Peirce referred to that as the abductive thinking. Einstein also touched this point in his famous quote: “Imagination is more important than knowledge”. Both thinkers, among others, considered vastly more important the creative thinking than the analytical one, as creativity is the only way to increase system information. In an analogy, we may say that analysis build the puzzle with the pieces build by creativity. This is becoming more and more evident in computer science, as the number of problems to be solved tends to increase faster than the number of solutions. Distributing processing, linked by the internet, connects machines and people likewise, as synaptic connections of a collective brain. This may start to self-organize itself in a collective consciousness. Meanwhile, music is influenced by this process and start to show the melting of classical pinnacles such as the centralized unitary composer. After the wavetable synthesis, Djs now does what could be defined as musictable synthesis, by artistically manipulating music during performance. Now, adaptive method may show their usage in music creation. Some examples are already showing up, such as the impressive AtomSwarm, and several others academic tryouts, mostly presented in the EvoMusart workshops. Our approach takes a step up by experiencing with multimodal gestures as the embodiment of the artistic genesis. We hope this will open the doors for further research and artistic endeavor with this new way of making music and art. Acknowledgements The conceptual drawings shown here were made by Mariana Shellard. The dance movements were performed by Tatiana Benone. This project was funded by Faepex, at UNICAMP (University of Campinas) where the author is researcher. References [1] Tenenbaum, David (June 2000). "Neanderthal jam". The Why Files. University of Wisconsin, Board of Regents. http://whyfiles.org/114music/4.html. Retrieved on 14 March 2006. [2] Tübingische Berichte von gelehrten Sachen, XXX, July 1754, p. 395. [3] Glinsky, Albert, Theremin: Ether Music and Espionage. Urbana, Illinois: University of Illinois Press. 2000. [4] Serra, X. 'A System for Sound Analysis/Transformation/Synthesis based on Deterministic plus Stochastic Decomposition', p.12 (PhD Thesis 1989). [5] Martin Russ. Sound Synthesis and Sampling, Second Edition. (Music Technology). Focal Press. ISBN-13: 9780240516929. 2004 [6] W. Ross Ashby (1947), "Principles of the Self-Organizing Dynamic System", Journal of General Psychology Vol 37, pp. 125–128. [7] Pforsich J., Handbook for Laban Movement Analysis. Written and Compiled by Janis Pforsich. 1977. [8] Mancini, M., Castellano, G.. Real-time analysis and synthesis of emotional gesture expressivity, in Proc. of the Doctoral Consortium of 2nd International Conference on Affective Computing and Intelligent Interaction, Lisbon, September 2007. [9] Maia, A., Lopes, J., Manzolli, J., Valle, R. ELEMENTARIDADES Projeto de Composição Algorítmica e Arte do Movimento realizado entre o NICS (Núcleo Interdisciplinar de Comunicação Sonora) e o GITD (Grupo Interdisciplinar de Teatro e Dança) da UNICAMP baseado no modelo físico do movimento das partículas elementares da matéria. 2001. [10] LaValle, S., Planning Algorithms. Cambridge University Press. 2006. [11] Manzolli, J., Fornari, J., Maia Jr., A., Damiani F. The Evolutionary Sound Synthesis Method. Short-paper. ACM multimedia, ISBN:1-58113-394-4. USA. 2001. XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 Aplicações artísticas de ubimus MODALIDADE: PAINEL Desafios da pesquisa em música ubíqua José Fornari (Tuti) NICS / UNICAMP – e-mail: [email protected] Resumo: Ubimus, ou música ubíqua, trata da música computacional feita por diversos usuários, próximos ou remotamente localizados, cuja interatividade é propiciada e mediada pela tecnologia informacional, tais como os recursos oferecidos pela: internet, telefonia móvel e redes sociais do cyberspace. Este trabalho apresenta 7 frentes de pesquisa relacionadas ao ubimus que, apesar de distintas, se interseccionam e convergem no sentido de fomentar o desenvolvimento de aplicações artísticas para este específico e original tipo de arte sonora computacional. Palavras-chave: Música ubíqua. Arte sonora computacional. Interfaces gestuais, Síntese sonora Title of the Paper in English Challenges of the ubiquitous music research: ubimus artistic applications Abstract: Ubimus, or ubiquitous music, is the computer music made by many users, nearby or remotely located, whose interaction is fostered and mediated by information technology resources, such as the ones offered by: internet, mobile communication and the social networks of cyberspace. This paper presents 7 fields of research directly related to the ubimus that, although distinct from each other, intersect and converge toward the development of artistic applications for this specific and unique type of computational sound art. Keywords: Ubiquiotus music. Computational sound art. Gestural interfaces. Sound synthesis. 1. Introdução Música ubíqua, ou Ubimus (de Ubiquitous Music), pode ser definida como a música feita por múltiplos usuários, usando uma variedade de dispositivos tecnológicos, tanto fixos quanto portáteis [Keller 2009]. A idéia desta forma musical está relacionada à fusão entre a computação e o ambiente, tal como proposta por Mark Weiser no final dos anos 1980, que iniciou o trabalho em computação ubíqua [Weiser 1991]. Atualmente existem diversos grupos trabalhando em música móvel (por exemplo, a música criada com celulares e smartphones). Porém, até 2008, ao que se sabe, não existia qualquer proposta formal e sistemática de estudo e performance de música ubíqua. Este trabalho apresentará distintas linhas de pesquisa da música ubíqua, primando pelas suas aplicações artísticas e aspectos performáticos musicais. Tais linhas convergem para a Ubimus através da criação de métodos e modelos frequentemente utilizados em performances de música ubíqua. Neste trabalho, serão apresentadas as seguintes linhas de pesquisa: Métodos adaptativos; Descritores musicais; Interfaces gestuais; Arte sonora remota; Arte sonora interativa; Multimodalidade; e Música Auto-Organizada. XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 2. Métodos adaptativos Métodos adaptativos são modelos computacionais capazes de, até certo ponto, de modificarem sua estrutura algorítmica, de acordo com o comportamento de sua entrada. Um desses é a computação evolutiva, que é inspirados no processo de evolução das espécies, tal como inicialmente formulado por Darwin, e baseado nos processos de reprodução e seleção. Dentre estes modelos, destaca-se aqui a instalação multimidiática RePartitura. Este trabalho trata do mapeamento sinestésico de uma série de desenhos em objetos sonoros, que compõem uma paisagem sonora (soundscape). A imagem de um desenho é aqui vista não como um fim, mas como a representação de uma forma no decorrer do tempo. Esta por sua vez é o registro de um gesto, que é um movimento contendo uma intenção expressiva. O som, aqui visto como objeto sonoro, é uma unidade formadora de um sistema maior que evolui através de processos adaptativos na direção de uma paisagem sonora sintética auto-organizada. Repartitura foi um dos ganhadores do prêmio Itaú Cultural Rumos, na categoria: Arte Cibernética [Shellard 2009] Uma outra aplicação de computação evolutiva na criação de soundscapes é o “EvoPio”. Este é um algoritmo adaptativo que cria uma paisagem sonora artificial de cantos de pássaros dinâmica e interativa. Estes são criados através de um modelo físico de siringe. Não existem sons gravados neste modelo. A paisagem sonora criada jamais se repete, mas sempre mantém uma similaridade acústica. Os usuários podem inserir novos "pios" na população virtual através do Twitter. Basta enviar uma mensagem com a palavra "evopio" que esta será transformada em tempo-real num novo "indivíduos", ou seja, um canto de pássaro que fará parte dessa população artificial. Link: http://goo.gl/Kku7xZ. EvoPio foi apresentado durante o TEDxSummit de 2012, no Qatar; numa breve apresentação do autor, que pode ser assistida através do link: http://goo.gl/qVtAHF. 3. Descritores musicais Descritores musicais são algoritmos capazes de coletar informação de aspectos sonoros específicos, tal como a audição humana é capaz de realizar. A utilização destes descritores em Ubimus permite a criação de modelos mais alinhadas ao processo humano de percepção e cognição musical. O desenvolvimento de descritores vem da área de MIR (Music Information Retrieval); uma ciência interdisciplinar, iniciada no final da década de 1990, se dedicada a estudar e coletar aspectos musicais tais como são percebidos pela audição e identificados pela mente humana. A literatura de MIR define “descritor musical” como um modelo computacional capaz de predizer aspectos musicais emulando a capacidade perceptual e cognitiva humana. Um aspecto musical é uma característica única da informação musical XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 que é facilmente distinguida pela mente. Estes podem ser qualitativos (ex: gênero musical), ou quantitativos (ex: pulsação rítmica, complexidade harmônica). Descritores simbólicos predizem aspectos musicais pela coleta de dados paramétricos musicais, como os da notação musical (partituras) e de arquivos MIDI (Musical Interface Digital Instrument). Descritores acústicos coletam dados de arquivos de áudio. A música, como expressão artística, apresenta três áreas de atuação: Análise musical (o estudo da lógica de estruturação de uma peça musical), Composição (o processo de estruturação de uma criação musical) e Performance (a manifestação sônica da estrutura composicional). Este projeto deu prosseguimento à pesquisa do autor em seu PosDoc no projeto Europeu: Braintuning (www.braintuning.fi) onde desenvolveu algoritmos de aquisição de aspectos musicais que apresentaram grande eficiência, tais como em [Fornari 2008]. Este projeto tratou de estudar, classificar e desenvolver novos descritores musicais, afim de aplicá-los em processos de análise, performance e composição musical e foi financiado pela FAPESP, processo: 2010/06743-7. Utilizando o desenvlvimento dos descritores mencionados acima, [HIGUCHI 2010] desenvolveu um estudo sobre a distinção automática de performances pianísticas de cunho expressivo e de cunho técnico. Segundo a autora, estudos anteriores têm demonstrado uma forte correlação entre técnica e expressividade na execução pianística. Este trabalho objetivou entender melhor a influência da cognição e da emoção na expressividade musical. Para tanto, execuções pianísticas de nove interpretes, com atenção direcionada aos aspectos cognitivos, foram comparadas com execuções de outros 9 pianistas, porém com a atenção voltada aos aspectos emocionais. Para tanto foram utilizados dois descritores musicais. Estes demonstraram que as performances afetivas, apresentaram mais legatos e menor precisão rítmica, quando comparadas às cognitivas. Os resultados deste estudo apontaram para o fato de ser possível utilizar descritores musicais para auxiliar na classificação de performances pianísticas. [HIGUCHI 2010]. 4. Interfaces gestuais Interfaces gestuais são ferramentas essências nas performances de ubimus. Estas permitem coletar dados do movimento em tempo real e transmiti-los de modo a controlarem modelos computacionais de processamento ou síntese sonora. Dentre estas aplicações, destacamos aqui CybeRITMO. Esta é uma performance de arte interativa onde um grupo convidado de percussionistas irão realizar um evento performático com instrumentos musicais virtuais, desenvolvidos através de interfaces gestuais comerciais (Wiimotes) que se comunicam com patches de PD (PureData) e assim realizam em tempo real a síntese de diversos instrumentos musicais percussivos. Utilizam-se aqui diversas técnicas de síntese sonora, entre elas a Linear XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 Aditiva, a Karplus-Strong, a Wavetable, a Subtrativa e a de Filtragem, para a criação das formantes vogais (voz digital). Os instrumentos virtuais inicialmente se apresentam bastante parecidos com os instrumentos tradicionais (ex. um surdo, um chocalho, um berimbau, etc.) porém, estes podem realizar parametrizações extremas de suas propriedades pseudo-físicas, atingindo facilmente sonoridades impossíveis aos instrumentos tradicionais, desse modo possibilitando ao interprete a exploração intuitiva de recursos artísticos estendidos, que são fisicamente intangíveis. Este projeto foi finalista do Festiva Internacional de Linguagem Eletrônica de São Paulo, o FILE PRIX LUX 2010, na modalidade: Arte Interativa. [Fornari 2010] O Cyberitmo foi desenvolvido a partir da vivência proporcionada pelo projeto de extensão comunitára PREAC 2009, na Casa de Cultura Tainã (www.taina.org.br). Esta é uma entidade cultural e social sem fins lucrativos fundada em 1989 por moradores da Vila Castelo Branco e região de Campinas, SP. Sua missão é possibilitar o acesso à informação, fortalecendo a prática da cidadania e a formação da identidade cultural, visando contribuir para a formação de indivíduos conscientes e atuantes na comunidade, atendendo em média 450 crianças e adolescentes a cada mês e 1.350 pessoas indiretamente, através de atividades sociais, oficinas e shows, realizados dentro ou fora da entidade. Uma entrevista com o coordenador da Casa Tainã e uma performance musical com tais modelos computacionais, pode ser assistida no link: http://goo.gl/Zb3SL0. Estas interfaces gestuais também foram utilizadas por outras importantes ocasiões acadêmicas. Citando uma delas, tivamos a apresentação com o grupo da Monash University, liderada pelo Prof. Reiner (http://goo.gl/9WlfKQ), um professor associado de música, na universidade de Monash, Austrália. Em abril de 2010, ele e sua equipe visitaram a UNICAMP e também o NICS. Durante esta visita, apresentamos para ele diversas interfaces gestuais que havíamos desenvolvido para a criação de Ubimus. Ele, juntamente com o Prof. Jônatas Manzolli, coordenador do NICS, e seu aluno de doutorado, Adriano Monteiro, realizaram uma performance improvisacional utilizando estas interfaces gestuais, criadas a partir de acelerômetros que coletam movimentos em tempo real, transmitem estes dados por ondas digitais de rádio, em protocolo bluetooth, e controlam modelos computacionais de sínteses sonoras programados em Pd (www.puredata.info). O vídeo desta apresentação pode ser assistido através do link: http://goo.gl/latHsQ XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 5. Arte sonora remota A atividade performática em Ubimus se beneficia em muito através da utilização de recursos computacionais de comunicação remota em tempo real. Desse modo diversos usuários podem interagir musicalmente mesmo que distanciados geograficamente. Esta ideia culminou num projeto aprovado pelo CNPq Universal, processo 474012/2010-7. Este projeto criou um ambiente virtual, através do cyberspace da internet, para propiciar a interatividade musical remota, entre artistas localizados em diferentes localidades geográficas, mas que podem criar música juntos, em tempo-real, através do processamento de modelos computacionais que emulem instrumentos musicais virtuais através de métodos de síntese sonora que são controlados dinamicamente por dados gestuais dos participantes remotamente distribuídos. Com isso pretendeu-se tornar possível a exploração dinâmica e intuitiva de técnicas musicais contemporâneas de modelamento ecológico e música acusmática. Seguindo esta premissa, foi desenvolvida a performance de arte sonora remota "A Pedra". Esta explora a arte tecnológica contextual interativa, envolvendo a transversalidade entre: Poesia Digital, Paisagem Sonora Artificial, Gestualidade Livre e Sonoridade Improvisacional. Este projeto é inspirado no poema: "Havia uma pedra no meio do Caminho" de Carlos Drummond de Andrade, e na tradução do conto: "The Rock", de Neale D. Walsch. A primeira parte da narração é dada pela gravação original do poema "Havia uma pedra no meio do caminho" narrada pelo autor (Carlos Drummond de Andrade). Em seguida, tem-se a narração da tradução do conto "The Rock", pelo autor deste projeto. Através da câmera do laptop, o usuário (no caso, o autor) controla o deslocamentos de 3 figuras icônicas, que orbitam a grande esfera apresentada na animação interativa. Os deslocamentos dessas figuras também geram os objetos sonoros agregados à narração. Desse modo uma paisagem sonora é gerada através do controle gestual improvisado pelo usuário, agregando conteúdo e sendo influenciado pela transversalidade entre poesia digital e paisagem sonora artificial. Este trabalho foi selecionado para participar do FILE Mídia Arte que fez parte da exposição do FILE São Paulo 2012 - Festival Internacional de Linguagem Eletrônica, que aconteceu no Centro Cultural do SESI, localizado na Av. Paulista, 1313, na cidade de São Paulo, de 16 de julho a 19 de agosto de 2012. Uma performance pode ser assistida através do link: http://goo.gl/Uj4ZMZ XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 6. Arte sonora interativa Em termos de interatividade, tEIMAS foi uma bem-sucedida experiência performática em Ubimus. Esta é uma performance artística especialmente desenvolvida para o EIMAS. Trata-se de um modelo de síntese aditiva interativa escrita em Pd. Em tEIMAS, temse 10 colunas de geração de dados simbólicos de controle da notação musical. Estes são conectados com objetos de síntese sonora FM (frequency modulation) com randomização de dados paramétricos, de acordo com os dados simbólicos. Estes são inicialmente gerados por um objeto de análise de ataque sonoro (onset detection). Outro interessante exemplo foi o “Patch Preto e Branco”, ou PPB. Trata-se de um modelo computacional escrito na linguagem de programação de código-livre, especialmente projetada para o desenvolvimento de sistemas de performance de arte tecnológica; o PureData, ou Pd . Em Pd, um modelo computacional é desenvolvido em um ambiente visual de conexão de blocos de processamento de dados em tempo-real. Cada estrutura visual é chamada de “patch”. O nome “Patch em Preto e Branco” é uma alegoria às teclas do piano, ao pentagrama musical e ao ambiente visual do PD; todos estes são canvas “pretos e brancos” desenvolvidos para viabilizar a criação de estruturas artísticas e musicais. Neste trabalho, foi desenvolvida uma estrutura virtual de um octágono com nove retângulos de tamanho variável (nos oito lados do octágono e no seu centro). Cada retângulo é um objeto sonoro determinístico (tonal) e cada haste entre estes é um objeto sonoro estocástico (ruidoso). A figura abaixo mostra esta estrutura. Esta estrutura capta o som externo, pelo microfone do laptop, e calcula o seu pitch (altura muscal) para criar os objetos sonoros dos retângulos e das hastes. Neste trabalho, temse dois laptops rodando simultaneamente estes patches. Um latop preto, roda um patch branco e preto (como o da figura acima). O outro laptop roda um ptach com uma estrutura de cor invertida (retângulos e hastes brancas e fundo preto). O resultado parcial (sem interatividade, com um instrumento musical acústico e o segundo laptop) pode ser visto no link: http://goo.gl/iW8gu2. 7. Multimodalidade Multimodalidade trata da possibilidade de cooperação artística entre distintas formas artísticas. Considerando que o Brasil é um país extremamente rico em cultura popular, especialmente no que tange a criação de ritmos e suas respectivas danças. Ritmo e dança estão assim intrinsecamente relacionados no contexto do gesto corporal e sua interveniente correspondência musical. Se o movimento com intenção é o gesto, a dança pode ser definida como a arte do gesto. Do mesmo modo, a música é a arte dos sons, com intenção ou XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 significado. Sabe-se que os elementos que o compõe a música são: melodia, harmonia e ritmo. De todos, o ritmo é o elemento musical mais intimamente relacionado ao gesto corporal, seja referindo-se à ação corporal que gera o ritmo ou àquela que compõe a dança. Atualmente, novas tecnologias permitem resgatar o gesto à arte computacional, que havia sido relegada, frente à limitada capacidade de expressão oferecida pelas tradicionais interfaces computacionais, tais como: o teclado alfanumérico do computador e o mouse. Através da utilização de novas interfaces gestuais comerciais, como o Wii remote, é agora mais factível capturar os gestos de dança e ritmo e intercorrelaciona-los, de modo a criar uma interação sincrônica entre ambos, no contexto de uma didática coreográfica e musical. Este projeto foi elaborado com o título: "Interatividade Gestual Dinâmica entre Danças e Rítmos Brasileiros" desenvolvido na Casa de Cultura Tainã, em Campinas. Vídeos dessas atividades podem ser vistos nos links: Improviso coletivo com diversos modelos de música computacional interativa http://goo.gl/ipuQI2. Improviso da percussionista Glória Cunha com o coordenador da Casa de cultura Tainã , TC Silva, utilizando os modelos gestuais: Cyberitmos http://goo.gl/KMUuZl. 8. Música auto-organizada Por fim, foi explorara a possibilidade geracional de notação musical através de controle de modelos computacionais a partir de aspectos musicais de uma performance improvisacional. Este projeto foi posteriormente intitulado de: SOM (Self-Organized Music), que foi iniciado em cooperação entre o NICS e o CIDDIC. Este projeto foi aprovado pela FAEPEX, Linha extensão: Auxílio às atividades artísticas, científicas e culturais (Convênio: 519.292 Correntista: 722/10). Originalmente SOM propunha criar uma apresentação musical com a orquestra sinfônica da Unicamp, explorando o original conceito de música autoorganizada, chamada pelo autor deste projeto, pelo acronismo: SOM (Self-Organized Music). Através da utilização de modelos computacionais dinamicamente controlados por interfaces gestuais (equipamentos portáteis e sem-fio, de aquisição dinâmica de coleta de dados do gesto artístico), serão desenvolvidos para este projeto, algoritmos computacionais de criação musical dinâmica, de maneira que o gesto artístico passa a controlar a geração em tempo-real de notação musical, que é continuamente executada pela orquestra durante a performance artística. Em SOM, a performance musical da orquestra é realimentada pela contínua interação acústico-cognitivo-gestual, onde os músicos executam a partitura que está sendo dinamicamente criada pelo gesto. O resultado, após a performance, pretende ser uma partitura orquestral original, que foi criada enquanto era executada, pela primeira vez, durante a performance musical. XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014 No segundo semestre de 2012, o CIDDIC aprovou o SOM como participante do projeto PERFORMANCE, onde foram alocados 12 músicos da OSU (Orquestra Sinfônica da UNICAMP) e um saxofonista que desenvolvia uma tese de doutorado em Improvisação livre (Manuel Falleiros). O resultado foi registrado numa série de 4 vídeos que demonstram a partitura sendo gerado pelo modelo computacional. Estes vídeos podem ser vistos no segunite link: SOM - 1º Cordas (http://goo.gl/lqy2JB), 2º Madeiras (http://goo.gl/4lKom0), 3º Metais (http://goo.gl/MMC6NC), 4º Orquestra (http://goo.gl/Wl3GCH) 9. Referências bibliográficas WEISER, M. The Computer for the Twenty-First Century. Scientific American, v. 265, n. 3, p. 94-101, 1991. KELLER, D.; BARROS, A. E. B.; FARIAS, F. M.; NASCIMENTO, R. V.; PIMENTA, M. S.; FLORES, L. V.; MILETTO, E. M.; RADANOVITSCK, E. A. A.; SERAFINI, R. O.; BARRAZA, J. F. Música Ubíqua: Conceito e Motivação. In: CONGRESSO DA ANPPOM, 19., 2009, Curitiba. Anais... Curitiba: PPGM/UFPR, 539-542, 2009. SHELLARD, M., Fornari. A Imagem É o Som. Article and Presentation. XIX Congresso da ANPPOM. UFPR. Curitiba, PR. 24 - 28 de Agosto de 2009. FORNARI, J., T. Eerola. Prosody of Expressivity in Music and Speech. Expressivity in Music and Speech - EMUS. AGORA contemporary Music Festival. Paris, France. (2008). FORNARI, J., T. Eerola. The pursuit of happiness in music: retrieving valence with high-level musical descriptors. Computer Music Modeling and Retrieval - CMMR. Copenhagen, Denmark. (2008). FORNARI, J., T. Eerola. Automatic Estimation of Harmonic Complexity. Audio Engineering Society Brazil Section - AES Brasil. Sao Paulo, Brasil. (2008). FORNARI, J., T. Eerola. Estimating the Perception of Complexity in Musical Harmony. The 10th International Conference on Music Perception and Cognition - ICMPC 10. Sapporo, Japan. (2008). HIGUCHI, Márcia K., José Fornari, João Pereira Leite. A Influência da Técnica Pianística e da Expressividade na Articulação e Métrica da Execução Pianística. Trabalho escrito aprovado, Música e Interface - Cognição. ANAIS da Anppom pg. 757 - 762. XX Congresso da ANPPOM. Florianópolis - 23 a 27 de agosto de 2010. FORNARI, J., CyberRITMOs: Interfaces Gestuais Musicais Inspiradas em Percussões Brasileiras. Poster no III SIMTEC - Simpósio de Profissionais da Unicamp. de 25 e 26 de Maio de 2010, no Centro de Convenções da Unicamp. FORNARI, J., Interatividade Musical à Distância. 6o Encontro de Música e Mídia. 15 17 Setembro 2010. ECA - USP. Um Estudo Comparativo entre Leitura Textual e Musical Através da Audiação Maria Lucila Guimarães Junqueira IA - UNICAMP [email protected] José Fornari NICS - UNICAMP [email protected] Resumo: O som é o elemento comum tanto à música quanto à linguagem. Em ambas, a função do som é comunicar conceitos e incitar estados emocionais. Uma vez que estes fenômenos são complexos, com enorme diversidade de âmbitos e contextos, este artigo propõe estudar apenas alguns paralelos fundamentais entre a origem e o desenvolvimento da comunicação sonora na musica e na linguagem. Para isso, utiliza-se aqui a “audiação”; uma teoria de aprendizado musical baseada na compreensão do fenômeno sonoro, no sentido de identificar o seu significado essencial. Parte-se do processo cognitivo de leitura textual, onde se faz uma análise embasada em princípios da neurociência e da psicologia cognitiva, através de estudos referentes à identificação das bases neurais da aprendizagem. Levando-se em conta o consenso entre neurocientistas, de que os leitores, frente a um texto, acessam simultaneamente, as duas vias de leitura: a lexical e a fonológica, infere-se a possibilidade de utilização desta mesma estratégia na leitura musical. Palavras-chave: Música, Linguagem, Audiação. Title: A comparative study of textual and musical reading through audiation Abstract: Sound is a common element in music and language. Since these phenomena are complex, with great diversity of fields and contexts, this article proposes to study a few fundamental parallels between the origin and development of sound communication in music and language. For this, it was used “audiation”, a theory of musical learning based on understanding of phenomenon to identify its essential meaning. The research starts from the cognitive process f textual reading, by proceeding on analysis based on neuroscience and cognitive psychology principles referring studies on identification of the neural bases of learning. Considering the current consensus among neuroscientists, that establishes that facing a text readers access simultaneously two-way reading, one lexical and one phonological, this study infers the possibility of using this same strategy reading. Key-words: Language, Musical Learning, Audiation . 1. Música e Linguagem Desde os primórdios da humanidade, o som vem sendo utilizado e organizado ao longo do tempo de modo a criar tanto a música quanto a linguagem falada. É conhecida a frase de Pinker (1997, p. 524), que compara a música a algo inútil, mas extremamente sedutor; ao referir-se a esta como “auditory cheesecake”. Para Pinker, a atração que a música exerce sobre o ouvinte teria bases evolutivas semelhantes àquelas que tornam normalmente muito atraentes ao paladar alimentos gordurosos e doces (como o cheesecake), pois estaríamos geneticamente programados para apreciar, e a nos viciar, em alimentos muito calóricos. Do mesmo modo que o cheesecake é saboroso porque representa um hiperestímulo do paladar, para Pinker, a música é atraente ao ouvinte porque representa um hiperestímulo da cognição auditiva, desenvolvida ao longo da evolução especificamente para o entendimento da linguagem. Já para outros pesquisadores, como Daniel Levitin,1 a música não é um efeito colateral da evolução da linguagem humana, mas sua parceira, cumprindo uma função de apoio e colaboração ao processo de comunicação humana, onde apenas a informação semântica não basta. É também essencial para o entendimento de uma mensagem compreender o contexto emocional em que esta se baseia. Há muito tempo se questiona a maneira como a música é capaz de evocar emoções no ouvinte. Os antigos atribuíam duas funções à música: a mimesis, uma imitação ou transformação de uma realidade externa, e a catarse, a purificação da alma através de uma experiência afetiva. A primeira função é representativa e pode ser entendida como uma “teoria do conhecimento”; já a segunda função, considera o efeito que a música produz na mente do indivíduo. Como salientaram Juslin e Sloboda (1989, p.47), a catarse apontaria para o modo como a música interfere no estado emocional do ouvinte. Diversos autores afirmam que a música e a linguagem possuem numerosas características em comum, especialmente no que se diz respeito às suas estruturas e funções. Segundo Mithen (2005) e Patel (2008) é possível que enquanto a linguagem cumpre a função de criar estruturas sonoras com significado semântico, a música cumpriria a função complementar de incluir nesta comunicação, um significado emocional. Por isso, muitos afirmam que música e linguagem compartilham as mesmas origens ontogenética e filogenética, conforme é mencionado em Brown (2000). Música e linguagem são atividades sociais que servem para comunicar, compor e direcionar conceitos, comportamentos e emoções, de um membro de uma comunidade aos demais, (Molino, 2000; Cross e Tolbert, 2009). Sob outra ótica, Jackendoff e Lerdahal (2006) entenderam que se pode estudá-las como atividades individuais, mesmo que num plano abstrato como as habilidades cognitivas do indivíduo. As atividades sociais e individuais com a música e a linguagem têm raiz evolutiva. Seus meios de expressão e formação dependem de 1 Daniel Levitin https://www.youtube.com/watch?v=Sn45Z9X-vgg acesso em janeiro de 2014 uma série de conhecimentos, crenças, e hábitos; que cada indivíduo traz consigo, e que são manifestados, desenvolvidos e atualizados através de ações corporais, tanto sensoriais (psicoacústicas) quanto motoras (gestuais). É possível estabelecer paralelos com a origem e o desenvolvimento das competências musicais e linguísticas no indivíduo (ontogênese) e da sua comunidade (filogênese). Também estarão envolvidos outros componentes integrantes, tais como: o objeto sonoro, sua estruturação composicional e o seu significado. É relevante nesta comparação observar a existência de certos parâmetros em comum, entre a linguagem e a música, tais como a existência de: acento; duração; altura sonora; a constatação e a evocação de emoções; e o despertar das hipóteses e conclusões, no campo de seus significados (Igoa, 2010, p. 97). É importante estudar até que ponto a arquitetura neuro-cognitiva dos modelos mentais de processamento musical e linguístico compartilham de fato de uma mesma estrutura cerebral, bem como estudar quais seriam as suas características comuns, no âmbito de seus processos de representações sonoras Peretz & Coltheart (2003). 2. Leitura Textual A Linguagem escrita é uma aquisição recente no histórico humano e por isso ainda não dispõe de um aparato neurobiológico preestabelecido. Cosenza (2011, p. 101) pondera: “A linguagem escrita precisa ser ensinada, ou seja, é necessário o estabelecimento de circuitos cerebrais que sustentem o que se faz, por meio de dedicação e exercício”. A aprendizagem da leitura modifica os caminhos neurais do cérebro humano, inclusive fazendo com que ele reaja de forma diferente a estímulos linguísticos e visuais; bem como no modo como processa a linguagem falada. A tradição ocidental manteve por muito tempo a separação entre as ciências humanas (das comunidades) e as ciências biológicas (dos indivíduos). A partir de 1970, com a emergência das neurociências e dos progressos tecnológicos que permitiram um conhecimento mais aprofundado do cérebro humano, tornou-se possível iniciar o estudo da identificação das bases neurais de nosso psiquismo (Dehaene, 2012, p. 9). A leitura é um dos exemplos das muitas atividades culturais que a espécie humana criou num passado remoto. A capacidade de aprendizagem do cérebro permite tanto criar quanto incorporar as regras próprias de um idioma. Dehaene ressalta o conhecimento de que em todos os indivíduos, seja qual for a cultura, a mesma região cerebral é responsável pela decodificação de palavras escritas, o que implica na possível existência de uma base biológica para a leitura. Existe o modelo cerebral da “plasticidade generalizada”, a partir do qual, em termos de aprendizado, as estruturas neurais do cérebro seriam tão flexíveis e maleáveis que não restringiriam a amplitude das atividades humanas. Um “relativismo cultural” vem ainda possibilitando a alguns teóricos do século XX a proposição que a natureza humana não é imposta a nós, enquanto condição biológica, mas construída progressivamente, de modo maleável, por imersão, na cultura a que pertencemos (Dehaene 2012, p.20). De fato, não existe oposição dessas duas correntes ao modelo biológico, mas apresentam diferentes perspectivas na proposição de modelos explanatórios de um mesmo fenômeno, o que vem a incorporar, engrandecer e aprofundar o estudo dos processos de leitura. Contudo o modelo “Reciclagem neuronal” baseia-se na hipótese das Prérepresentações. Segundo, Dehaene, Nosso cérebro se adapta ao ambiente cultural, não absorvendo cegamente tudo que lhe é apresentado, em circuitos virgens hipotéticos, mas convertendo a outro uso as predisposições cerebrais já presentes. É um órgão fortemente estruturado que faz o novo com o velho. Para aprender novas competências, reciclamos nossos antigos circuitos cerebrais de primatas – na medida em que tolerem um mínimo de mudança. (Dehaene, 2012, p. 164-165). Ainda segundo Dehaene, “O cérebro não teve tempo para evoluir sob a pressão dos limites da escrita. Foi a escrita que evoluiu a fim de levar em conta os limites do nosso cérebro.” (p.21). O modelo de reciclagem neuronal explica, através da história da evolução da escrita, e justifica os traços de uma incessante manufatura evolutiva que adapta os objetos da escrita aos limites de nosso cérebro. Conforme se verifica, todas as escritas do mundo compartilham de similaridades que parecem refletir e adequarse aos limites de nossos circuitos visuais. O sistema nervoso central apresenta um processamento paralelo de informação neural, onde múltiplos elementos (neurônios) concomitantemente transmitem e efetuam operações simples, formando coalizões (redes neurais) que podem cooperar ou competir umas com as outras, criando processos neurais estimulantes ou inibidores (Dehaene, 2012, p. 59). As mediações de competições dessa ordem podem vir a contribuir ou a dificultar o processamento de tarefas automáticas, como a leitura. Dehaene explica que o processamento da escrita começa nos olhos. Somente o centro da retina humana (a fóvea) possui resolução de imagem suficiente para que se possa processar o reconhecimento e a discriminação dos detalhes dos caracteres das letras. Durante a leitura, deslocamos nosso olhar sobre a página, não em movimentos contínuos, mas em “sacadas” (diminutas pausas do movimento dos olhos, focando em específicas regiões do texto) o que permite identificar simultaneamente todos os caracteres de uma ou duas palavras. A informação contida nessa sequência de letras seria então desmembrada em milhares de fragmentos captados pelos neurônios fotorreceptores da retina e reconstituída e reconhecida pela mente para então extrair-se progressivamente, o conteúdo dos grafemas, sílabas, prefixos, sufixos e radicais das palavras. Por fim, entram em cena duas grandes vias paralelas de processamento cerebral: a fonológica e a lexical. A primeira permite converter a sequência de letras em sons da língua (os fonemas). A segunda acessa uma espécie de “dicionário mental”, onde são armazenados os significados semânticos das palavras (Dehaene, 2012, p.25). Pode-se perguntar: quando se pratica a leitura mental silenciosa, o leitor passa das palavras escritas ao seu significado sem acessar o aparato vocal da pronúncia, ou transforma as letras em objetos acústicos, e logo a seguir, em significado? Hoje há um consenso de que adultos acessam duas vias de leitura simultaneamente: a lexical e a fonológica, que funcionam, em mútua cooperação. ”Dispomos todos de uma via direta de acesso às palavras que nos evita pronuncialas mentalmente antes de compreendê-las”. (Dehaene, 2012, p.40). A leitura muda é uma etapa automática deste processo. Já na leitura verbal (em voz alta), as duas vias colaboram, cada uma contribuindo com a verbalização. (Dehaene, 2012, p. 124). O nosso genoma ainda não teve tempo evolutivo de se adaptar e assim desenvolver circuitos cerebrais intrínsecos e específicos para a leitura. Desse modo, é o cérebro humano que se adapta ao processo de leitura, valendo-se de circuitos neurais já desenvolvidos em passados ainda mais remotos. 3. Leitura Musical Segundo, Sloboda (2008, p.89) “a leitura musical requer a execução de uma resposta complexa, na qual há pouco espaço para desvios em tempo e qualidade”. A leitura musical é uma aptidão que pode ser desenvolvida com material e abordagem adequados. Segundo Hardy (1998), ela envolve habilidades psicomotoras (tátil), memória de curta duração, leitura e reconhecimento de padrões melódicos, rítmicos e harmônicos, além de capacidade de manter a pulsação, limiar de concentração e imagem auditiva. A leitura musical requer também conhecimentos específicos de notação musical, dedilhado, a topografia do seu instrumento musical em uso (se for o caso), conceitos de teoria e estrutura musical. É fundamental ainda no processo de leitura musical a inter-relação de cinco pontos essenciais, como a partitura, os olhos, os ouvidos, as mãos e o cérebro comandando, integrando e interpretando tudo. Segundo Louro (2012, p. 109), a ação de leitura musical envolve a capacidade de agrupar, associar e reproduzir figuras rítmicas, além da transformação da leitura em ação motora dado pelos gestos que compõem o ato de tocar um instrumento ou de cantar. A leitura musical exige também uma capacidade de abstração, um mecanismo cerebral que só opera a partir de associação, comparação, classificação e decodificação. A compreensão de um sinal como um sustenido, que eleva a nota musical em meio tom, exige a habilidade cerebral que aciona o senso de direção (algo que “subiu” ou “desceu”), a faculdade espacial de visualização é acionada ao imaginar uma movimentação ascendente da nota musical, e assim compreender o seu conceito e decodificar o significado deste sinal. A escrita musical é organizada em grupos de símbolos; para diferenciá-los é necessário ter-se a capacidade de classificar, só possível através de associação, sequenciação e comparação de elementos. Bucher (2009, p.9), salienta que as informações sensoriais são recebidas no cérebro, simultaneamente, em dois hemisférios (esquerdo e direito). Ambos são ligados por um feixe de fibras nervosas, denominado “corpo caloso”, que transmite informações neurais entre hemisférios, de tal modo que cada qual desenvolve e processa as informações de maneira específicas e distinta. O hemisfério esquerdo, muitas vezes referido como hemisfério lógico, funciona como um processador em série que calcula detalhes e símbolos, a linguagem. Sua forma de análise é linear, buscando diferenças, discriminando, separando, realizando a contagem de números e por isso responsável pela percepção do tempo. O hemisfério direito (o hemisfério da Gestalt) tem processamento paralelo e holístico. Este realiza funções como o reconhecimento de imagens, identificação de padrões rítmicos, constatação e evocação de emoções, localização espacial, entendimento de metáforas, interpretação da comunicação gestual, criatividade e intuição. Este hemisfério lida com o processamento de informações subjetivas, globais e, entre outras, artísticas. Em condições ideais, os dois hemisférios cerebrais funcionam de forma cooperativa, integrada e homogênea. No entanto, normalmente existe a predominância de um dos hemisférios em relação ao outro. Brito (2010, p. 177), por sua vez ressalta que “a música tem códigos de registro e notação que surgiram em virtude da necessidade de fixar as ideias musicais e, assim preservá-las”. A autora também chama atenção para o fato de que sendo uma forma temporal de expressão a música recebeu, na tradição ocidental, um tratamento notacional desenvolvido em coordenadas horizontal (dimensão temporal), e salienta ainda que os sinais de notação criados para representá-la são auxiliares da memória individual coletiva. As obras deixadas pelos pedagogos musicais do início do século XX prestaram uma valiosa contribuição para a renovação do desenvolvimento da Educação Musical. A compreensão do fenômeno sonoro, no sentido de apropriação do significado musical, parece ainda ser a incógnita que procuramos desvendar. Foi a partir do trabalho dos pedagogos da primeira metade do século XX que tais questionamentos, ainda que de ordem mais filosófica do que científica, fossem abordados. Como definir o conhecimento Musical? Qual o papel da Educação Musical no processo de desenvolvimento do indivíduo? (Mateiro, Ilari, 2011, p.9-12). Quatro pedagogos em especial, foram pioneiros no propósito do ensino e aprendizagem da leitura musical: Èmile Dalcroze, Zoltán Kodály, Edgar Willems e Edwin Gordon. Estes organizaram sua prática pedagógica a partir de um material composto de textos didáticos e exercícios, utilizando a música como um agente mobilizador de emoções para o ser humano, onde corpo e mente se integram no sentido de apropriarem-se da música, de forma global e consciente. Dalcroze desenvolveu um sistema de educação musical baseado no movimento, na escuta ativa, onde o aprendizado ocorre por meio da “música e pela música”, uma espécie de Musicalização corporal. Na Rítmica (sistema de educação denominado por Dalcroze) os elementos musicais são vivenciados diretamente no corpo através de movimentos numa interação: espaço-tempo-energia. Kodály apresenta uma proposta pedagógica primordiamente baseada no uso da voz. Ele acreditava que a voz era o principal meio de acesso à música, disponível a qualquer pessoa. A música seria assim entendida como uma parte integral da vida de todo ser humano que, ao apropriar-se dela, poderia passar a ler, escrever ou cantar qualquer obra musical escrita com a notação musical tradicional. Seu lema era: “Que a música pertença a todos”. (Kodály, apud Mateiro, Ilari 2011, p.57,58, 68). Para Willems a educação musical “não é apenas uma preparação para a vida; esta é em si mesma, uma manifestação permanente e harmoniosa da vida” (Willems, 1969, p 10). Tal concepção fundamenta-se no paralelismo que ele estabeleceu entre vida humana (cotidiana) e vida musical. (Mateiro, Ilari, 2011, p.91). Neste sentido, os três elementos fundamentais da música (ritmo, melodia, harmonia) são relacionados à três funções humanas. O ritmo é relacionado às funções fisiológicas (ação). A melodia é relacionada à vida afetiva (sensibilidade). A harmonia é relacionada às funções cognitivas (intelectuais, racionais). (Rocha, 1990, pp.16,19). Gordon, através de sua teoria da aprendizagem musical, apresentou uma versão atualizada da pedagogia da audição a qual denominou Audiação. Trata-se de toda uma fundamentação psicológica necessária para responder como e quando se aprende a ouvir música. Não basta ouvir para ser músico, assim como não é suficiente pronunciar corretamente as palavras para dominar as estruturas sintáticas de uma linguagem. A audiação trata da capacidade de ouvirmos internamente, e compreendermos, sons que podem estar, ou não, fisicamente presentes. 4. Audiação No campo de pesquisas em educação musical a notação musical não é, necessariamente, um objeto central. Trata-se de uma ferramenta oriunda da prática musical profissional, introduzida a partir da demanda do campo de trabalho específico da área, como também do processo pedagógico musical (Renard,C., 1982, p.128, apud, Brito,2010, p178). A criança, ao ouvir um evento sonoro de curta duração, muitas vezes intuitivamente realiza um gesto (movimento corporal com intenção), traduzindo assim o som escutado em expressão corporal. Segundo Brito, esta ação intuitiva é uma primeira forma de registro, que é traduzido corporalmente de forma espontânea, integrando o som ao movimento. Segundo a autora, a etapa seguinte para a criança é transformar os “gestos sonoros” em desenhos, trazendo para a representação gráfica aquilo que a percepção auditiva desta criança identificou, num processo sequencial que segue e respeita níveis de percepção, cognição e consciência (Brito 2010, p. 179). É fato que a maneira como se aprende e assimila música é um fator decisivo para o desenvolvimento das muitas qualidades de audição. Como lembrado em (Caspurro, 2013), é do mesmo modo fundamental trazer, ao plano da consciência, a atitude e a necessidade do ouvinte perante a música. Esta é uma variável que está além do mero fenômeno psicoacústico e que nos permite estabelecer e identificar as suas diferenças qualitativas e contextuais. Audiação é um termo criado por Edwin Gordon e refere ao processo cognitivo pelo qual a mente dá significado aos sons musicais. Desse modo, para Gordon audiação não é o mesmo que percepção auditiva, que trata apenas da recepção e do tratamento do som pelo sistema auditivo. A audiação trata da capacidade de ouvirmos internamente, com compreensão, sons que podem nem mesmo estar acusticamente presentes. Através do processo de audiação, ouvintes podem atribuir significado à música que escutam, executam, improvisam ou compõem2. Gordon dedicou boa parte de sua vida ao ensino musical e ao desenvolvimento da sua teoria de aprendizagem de música. Não se trata de uma metodologia específica para o ensino musical, mas de uma teoria sobre como as pessoas, e em especial as crianças, aprendem música. A grande questão não é saber como ensinar música, mas como esta é de fato aprendida. Em que momento 2 http://www.giml.org (acessado em janeiro de 2014) um adulto ou criança estariam preparados para assimilar essa competência e qual seria a melhor sequência de conteúdos didáticos apresentados. As experiências musicais que uma criança tem desde o nascimento até aproximadamente aos cinco anos têm um profundo impacto na forma como esta vai ser capaz de perceber, apreciar e compreender música como adulto. Esta teoria visa orientar os professores de música em tentar estabelecer para os alunos, desde a primeira infância até a fase adulta, objetivos curriculares sequenciais que desenvolvam a audiação rítmica e tonal. Gordon acreditava que a música é aprendida da mesma forma que se aprende a língua nativa. Desse modo, Gordon estabeleceu quatro etapas de aprendizagem musical: A primeira etapa é denominou “Aculturação” que abarca desde a vida uterina até os cinco anos, na qual o indivíduo está cercado pela língua nativa, absorvendo e se familiarizando com estes sons. A segunda fase é a da “Imitação”, onde a criança tenta imitar os sons que escuta e identifica. As fases três e quatro foram classificadas por Gordon como o momento da “Improvisação”. Na terceira fase inicia-se o processo onde a criança pensa através da linguagem, estabelecendo estruturas sintáticas correspondentes aos seus pensamentos. Nesta fase as palavras e as frases começam a ter significado. Na quarta fase a criança passa de fato a improvisar com as estruturas da linguagem, utilizando palavras aprendidas para formar suas próprias frases, com sentido, lógica e significado semântico. Para Gordon, a criança aprende a ler e a escrever em consequência da experiência que adquire ouvindo, imitando, pensando e improvisando com as palavras. Em entrevista concedida à musicóloga portuguesa Helena R. Caspurro, Gordon fala sobre os problemas que afetam a educação musical da atualidade, quer no âmbito do ensino de um instrumento, ou no âmbito da educação musical, no ensino genérico: No que concerne ao ensino de instrumentos, um dos problemas típicos é que se ensina apenas um instrumento: o instrumento físico que o aluno toca. A meu ver, ao invés de ensinar um instrumento, deveriam ser ensinados os dois: o que se está tocando e o outro aquele que está na mente do aluno. O instrumento por si só não tem boa afinação; o instrumento é apenas uma extensão do corpo humano. É uma extensão da capacidade de audiação do intérprete. Se este não possui uma boa audiação da qualidade do som que pretende retirar do instrumento, o instrumento por si só não poderá fornecê-lo. (Caspurro, 2013) Gordon postulava que um bom performer consegue uma execução com mais expressão, fluidez rítmica e afinação na medida em que desenvolve a capacidade de ouvir internamente os sons gerados pelo seu instrumento musical. O processo da construção de uma base sólida para fomentar a Audiação inicia com a exposição dos alunos a um ambiente musical rico e variado, com a preparação para sua posterior educação musical formal. Serão estimulados a ouvir, cantar e tocar “de ouvido” melodias em modos e métricas diferentes, enquanto desenvolvem as primeiras competências técnicas no seu instrumento musical. Através de atividades sequenciais de aprendizagem, os conteúdos musicais são apreendidos em doses pequenas de forma natural, com o intuito de facilitar a compreensão dos padrões tonais e rítmicos que constituem a literatura musical. Neste caso, a voz tem primazia e passa a ser o instrumento condutor principal utilizado pelo professor. A criança aprenderá a distinguir a voz cantada da voz falada e a desenvolver a sensação de cantar afinado, tendo como referência seu professor. Outro aspecto privilegiado por Gordon é o movimento. Ele postula que é fundamental “experenciar” as sensações de fluidez, peso e espaço, antes de vivenciar o tempo musical com o intuito de adquirir consciência corporal e rítmica. Para Gordon é fundamental que o performer tenha domínio sobre o relaxamento e a flexibilidade corporal, que agem como coadjuvantes do desenvolvimento musical. Os principais benefícios da aprendizagem de um instrumento musical dizem respeito à possibilidade do aluno executar com fluência melodias em várias métricas, tonalidades, e estilos; desenvolvendo capacidades intelectuais de alto nível, como: criatividade, improvisação e generalização. A leitura, a escrita e a percepção musical são habilidades mediadas pela cognição.3 5. Reflexão e Conclusão Este trabalho apresentou uma pesquisa teórica abordando as similaridades e as correspondências entre as leituras textuais e musicais, intermediadas pelo processo da audiação, tal como descrito por Gordon. Ambos os tipos de leitura se baseiam na decodificação mental de símbolos para o entendimento de um contexto e o processamento de uma ação. Isto se baseia no 3 http://www.giml.org (acessado em janeiro de 2014) fato de que a relação da mente humana com o mundo externo não é direta, mas mediada por instrumentos e símbolos. Instrumentos constituem as ferramentas que tornam uma ação concreta, controlando as ações sobre os objetos e sendo responsáveis por mudanças externas que ampliem a possibilidade de intervenção na natureza. Já os símbolos regulam as ações sobre a mente humana, agindo como um instrumento da atividade psicológica, constituindo significados de cunho semióticos específicos do mundo externo para a mente. (Rego, 1994, p. 50,51). Comunicação é um fator primordial para a sociedade humana, na qual indivíduos armazenam significados através de palavras, desenhos, gestos, números, padrões musicais e um grande número de outras formas simbólicas. (Gardner, 2007, p.145). Segundo Vygotski, “é no significado da palavra que o pensamento e a fala se unem em pensamento verbal. É nele que podemos encontrar as respostas às nossas questões sobre a relação entre pensamento e fala” (Vygotski, 2013, p. 5). Gardner nos lembra ainda que, dentre outras inteligências, a música é uma competência que permite às pessoas criar, comunicar e compreender significados compostos por sons. (Gardner, 1998, p.217). O processo de aprendizagem musical parece ser de fato análogo ao que ocorre no processo de aprendizado da linguagem verbal. Neste último, começase por aprender palavras soltas, antes de ser possível constituir frases inteiras, de modo a estabelecer uma conversação. Depois desta fase inicial, as crianças não se limitam a imitar aquilo que ouvem, mas se tornam capazes de formular as suas próprias questões, construindo frases próprias e usando as palavras de seu próprio vocabulário. Talvez fosse interessante que no ensino formal de música, este processo se tornasse mais explícito e consciente. É plausível imaginar uma fase inicial de ensino de padrões tonais e rítmicos às crianças, com os quais estas, em momento posterior, viessem a “conversar” através da música. Da mesma forma que não aprendemos poemas antes de nos tornarmos capazes de construir frases, em música talvez não devêssemos iniciar por tocar Mozart e Haydn antes de nos tornar capazes de usar um vocabulário musical básico já experimentado e assimilado, com o qual possamos construir, por improvisação, nossas próprias frases e composições musicais. Bucher salienta que o treinamento auditivo dos primeiros sons é fundamental para a formação da memória sonora do aluno e que ter referências bem estabelecidas é fundamental para o bom desenvolvimento do processo de leitura e solfejo musical. É nessa fase que o quadro mental é formado e a primeira impressão é a que se consolida, constituindo uma espécie de “endereço interno das notas musicais”. (Bucher, 2002, p.3). Vygotski, (2013, p. 123-125) admite que a linguagem escrita seja uma função linguística distinta da linguagem oral nos âmbitos da estrutura e do funcionamento. A criança quando aprende a escrever precisa se desligar do aspecto sensorial da fala e substituir palavras por uma simbolização de imagem sonora através de símbolos escritos. Ela tem que tomar conhecimento da estrutura sonora de cada palavra. O ato de escrever implica uma tradução a partir do que Vygotski chama da fala interior, ou seja, uma atividade intrapsíquica individual composta quase que exclusivamente de núcleos de significados onde as crianças estabelecem consigo um discurso interno voltado para o pensamento no sentido a solucionar determinadas operações mentais. A passagem da linguagem interior (uma fala compacta) para a linguagem oral (fala muito detalhada) exige uma ‘semântica deliberada; uma espécie de estruturação intencional de uma rede de significados. A linguagem escrita exige um trabalho consciente pois a sua relação com a fala interior é distinta da sua relação com a da linguagem oral. A metodologia tradicional de ensino musical em grande parte induz as crianças a lerem partituras antes de experimentarem a música que estas representam, sem que tenham chance de ouvir a música e tentar reproduzi-la, de forma criativa e intuitiva. A atual pesquisa em cognição tem demonstrado que a imitação sem a consciência do gesto musical pouco ensina. É preciso deixar que as crianças cantem e dancem antes de se tornarem capazes de tocar instrumentos musicais ou ler partituras. O entendimento do fenômeno sonoro, no sentido de apropriação do significado musical, parece ainda ser um mistério a ser desvendado. Segundo (Caspurro, 2013), esta é “uma variável que está além do mero fenômeno psicoacústico, e que permite estabelecer uma diferença qualitativa e contextual”. No exercício de introdução a leitura musical poderia ser incluída atividades com o propósito de despertar um senso rítmico sugerido por Dalcroze através de movimentos corporais; uma iniciativa com o canto e manusolfa propostas por Kodály; utilizando palavras, sílabas, um texto improvisado de forma a elaborar a consciência de cada elemento musical, ritmo, melodia, harmonia, trabalhando sempre com música envolvendo corpo e alma como um todo como faria Willems; e finalmente como Gordon idealizou, construindo a atitude de ouvir música através da audiação; acionando uma ressonância interna de forma que os estudantes possam ler e ouvir internamente antes de tocar, construindo uma imagem musical de cada partitura. Referências Brito, T. A.(2010). A Música na Educação Infantil. São Paulo: Ed. Petrópolis. Bucher, H.(2009). Leitura à primeira vista. Vitória: Copyright by Hannelore E. Bucher. Bucher, H (2002). Solfejo. Vitória: Copyright by Hannelore E. Bucher. Caspurro, H R. (n.d.). Audição e Audiação; Contributo epistemológico de Edwin Gordon para história da pedagogia da escrita. (http://goo.gl/VeAygC) acessado em 29/12/2013. Cosenza, R. M. (2011). Neurociência e Educação: Como o cérebro aprende, Porto Alegre: Ed. Artmed Cross. I. e Tolbert, E. (2009). Music and Meaning. En S. Hallam, I. Cross y M. Thaut (eds.), The Oxford Handbook of Music Psychology (pp.24-34). Oxford, R.U.: Oxford University Press. Dehaene, S. (2012). Os neurônios da leitura. Porto Alegre: Ed. Penso. Gardner, H. (1995). Inteligências Múltiplas: A teoria na Prática. Porto Alegre: Ed. Artmed. Gardner, H.(1998). Inteligências; Múltiplas Perspectivas. Porto Alger: Ed. Artmed. Gordon, E. E., (2001) Preparatory audiation; Audiation and music; learning theory; a handbook of comprehensive Music..Chicago: G. I. A. Gordon, E. (2012). Learning Sequences in Music: A Contemporary Music Learning Theory- Skill, content and patterns. Chicago: G. I. A. Publications. Hardy, Dianne. (1998) "Teaching Sight-Reading at the Piano: Methodology and Significance", Piano Pedagogy Forum Columbia: University of South Carolina School of Music 1 -2. Igor, M. J. (2010). Sobre las relaciones entre la Música y el Lenguaje. Revista Epistemus ISSN1853-0494 (Volume 1, PP 97-125). Buenos Aires: Sociedad Argentina para las Ciencias Cognitivas de la Música. Jackendoff, R. & Lerdahl, (2006). The capacity for music; What is it, and what’s special about it? Cognition (number 100 p.33-72): New York. Mateiro,T.; Ilari, B.(2011) Pedagogias em Educação Musical: Curitiba, Ed. IBPEX. Mithen, S. (2005). The Singing Neanderthals: the origins of music, Language, mind and body. London: Widenfeld and Nicholson. Molino, J. (2000). Towards an evolutionary theory of music and language: En N. Wallin, B. Patel, A. D.(2008). Music, Language and brain. Oxford, R. U.: Oxford University Press. Peretz, I. & Coltherart, M. (2003). Modularity of music processing: Nature Neuroscience. (6(7), p. 688-691). Pinker, S. (1997). How the Mind Works: W. W. Norton & Company. Rego, T. C.(1994) Vygotski. Um perspectivo sócio- cultural da educação: Petrópolis, Ed. Vozes. Rocha, Carmen M. Mettig. (1990). Educação Musical “Método Willems”; minha experiência pessoal: Salvador, Editado por Faculdade de Educação da Bahia- FEBA. Rodrigues, Iramar. (2014) CURSO DE EXTENÇÃO UNICAMP: Campinas, A Rítmica de Dalcroze. Renard, C. (1982). Le geste musical. Paris: Editions Hachette/ Van Del Velde. Sloboda, J.A. (1989a). Music as language. In F. Wilson and Roemann (Eds) Music and Child Development. (pp. 8-43). St Louis: Missouri MMB Inc. Vygotski. L.S. (2013) Pensamento e Linguagem. São Paulo: Ed. Martins Fontes. Willems, Edgar. (1969) Las Bases Psicológicas de la Educación Musical: Buenos Aires, Edit. Editorial Universitária de Buenos Aires. A Utilização de Princípios Gestálticos no Estudo da Música Armorial Gilber Cesar Souto Maior Unicamp/NICS [email protected] José Eduardo Fornari Novo Jr Unicamp/NICS [email protected] Resumo: Música Armorial é a vertente musical do Movimento Armorial, termo cunhado por Ariano Suassuna, que se refere ao fenômeno de origens e dimensões multiculturais, surgido na região Nordeste do Brasil e que promoveu a criação de um gênero musical singular. A busca por uma sonoridade nacional e erudita através da utilização de instrumentos populares com as principais influências contidas na colonização da região nordeste do nosso país, englobando particularmente as culturas: Ibérica, Africana e Indígena. Este gênero apresenta uma sonoridade única que pode ser identificada tanto pelo ouvinte leigo quanto analisada e catalogada pelo ouvinte perito. Antonio José Madureira, importante nome da Música Armorial, foi colaborador direto de Suassuna e também o fundador do Quinteto Armorial, na década de 1970, cujo principal intuito foi estabelecer este gênero, utilizando como base a instrumentação típica da região nordeste do Brasil. Neste trabalho apresentamos uma análise musical, apoiada em princípios gestálticos, da peça “Repente” do álbum (LP) “Do Romance ao Galope Nordestino” de 1974, onde são identificados os modos utilizados na peça, bem como seus motivos rítmicos e melódicos que serviram de referência nesta composição de Madureira. Palavras-chave: Movimento Armorial, Análise Musical, Gestalt, Música Brasileira. Title: Using Gestalt Principles in the Study of Armorial Music Abstract: Armorial Music is the musical branch of the Armorial Movement, a term coined by Ariano Suassuna, which refers to the phenomenon of multicultural origins and dimensions, appeared in northeastern Brazil that promoted the creation of this unique musical genre. The search for a national scholarly and sound through the use of folk instruments and the main contributions con tained in the colonization of the northeast region of our country, particularly encompassed many cultures, such as: Iberian, African and Indian. This genre has a unique sonority that can be identified by both the layman listener as well as analyzed and cataloged by the expert listener. Antonio José Madureira, an important name Armorial Music, and close collaborator of Suassuna, was the founder of “Armorial Quintet”, in the 1970s, whose main purpose was to establish this musical genre by using as a root basis, the typical Brazilian northeastern musical instruments. This work presents a musical analysis based on Gestalt principles, of the musical track "Repente" from the album (LP) "Do Romance ao Galope Nordestino" recorded in 1974, where we identify the musical modes used in the piece as well as its rhythmic and melodic motifs that served as reference for this iconic musical piece composed by Madureira . Key-words: Armorial Movement, Musical Analysis, Gestalt, Brazilian Music. 1. Introdução Assim como para um historiador, o tempo é o elemento que ordena os eventos históricos, compostos de: momentos, incidentes, episódios, épocas e eras; para o músico, uma obra musical, apesar de constituída por elementos sonoros isolados, é também composta pela organização estrutural de tais elementos ao longo do tempo. Os motivos, as frases, as passagens, as seções e os movimentos; são definidos pelos limites perceptuais da audição humana, bem como de suas interpretações psicológicas (TENNEY & POLANSKY, 1980, p.205). Neste contexto, a música armorial pode ser concebida como um estilo que representa o referencial histórico tratado pelo movimento armorial; termo cunhado por pelo intelectual Ariano Suassuna, que simboliza e representa as manifestações populares do Nordeste Brasileiro. Tais mani- festações, ou folguedos populares, possuem suas próprias características musicais, quer sejam expressos em características: rítmicas, melódicas, harmônicas ou timbrísticas; que o representam e o identificam. Segundo WOITOWICZ (2006), Antonio Madureira foi um importante contribuidor da música armorial. Madureira foi convidado em 1970 por Suassuna para integrar o Movimento Armorial. Consta que Suassuna estava satisfeito com a atuação musical de Madureira, que buscava alcançar uma sonoridade mais próxima e representativa da cultura popular desta região (MADUREIRA, 2012). Neste trabalho utilizamos os princípios da Gestalt para analisar dois trechos de uma peça musical composta por Madureira, considerado aqui um compositor fundamental do movimento armorial e cujo estilo é bastante ortodoxo aos princípios deste gênero. Considera-se aqui que os princípios gestálticos podem contribuir para um maior entendimento dos aspectos típicos da sonoridade da música armorial, traçando um paralelo entre os instrumentos musicais tradicionais utilizados neste gênero e as suas peculiares características composicionais. A teoria da Gestalt foi fundamentada por: Max Wertheimer (1880/1943); Wolfgang Kohler (1887/1967); e Kurt Koffka (1886/1941) e João Gomes Filho afirma: “De acordo com a Gestalt, a arte se funda no princípio da pregnância da forma. Ou seja, na formação de imagens, os fatores de equilíbrio, clareza e harmonia visual constituem para o ser humano uma necessidade, e por isso, considerados indispensáveis – seja numa obra de arte, num produto industrial, numa peça gráfica, num edifício, numa escultura ou em qualquer outro tipo de manifestação visual.” (2004, p.17) Os trechos musicais aqui analisados foram extraídos da peça “Repente”, de Madureira, gravada em 1974 pelo Quinteto Armorial, no seu primeiro álbum “Do romance ao galope nordestino” (disponível no link: http://goo.gl/7z9aws), que tem a seguinte instrumentação: 1) Marimbau1; 2) Violão; 3) Viola de 10 cordas; 4) Violino; e 5) Flauta transversal. 2. Princípios Gestálticos A teoria da Gestalt estabelece diversos princípios que procuram definir capacidade cognitiva automática da mente em associar diferentes e distintas partes a fim de formar um único todo. Os princípios da Gestalt aplicados à música, conforme definidos em (GOMES FILHO, 2004, p. 103 e 104), são: 1) Unidade: Capacidade de perceber os elementos constituintes de uma peça musical. Por exemplo, a unidade pode ser representada por uma determinada rítmica identificada numa específica voz ou timbre (instrumento musical), e que O Marimbau é um instrumento musical constituído por uma caixa de ressonância e 2 cordas de aço. Este é tocado com uma baqueta, que percute cordas, e com um vidrinho, que passeia pelo braço do instrumento. Considerado o instrumento mais original utilizado na música armorial, este foi inspirado no Berimbau (SANTOS, 2009, p.178). 1 poderá se repetir na mesma voz ou migrar para outras; 2) Segregação: Capacidade de discriminar as Unidades que constituem uma peça musical; 3) Continuidade: Capacidade de perceber uma sucessão coerente e contínua de distintas Unidades; 4) Semelhança: Capacidade de perceber a igualdade ou proximidade cognitiva entre distintas Unidades; 5) Unificação: Capacidade de perceber a semelhança contextual produzida por diferentes Unidades através da coesão sonora, ou harmônica, apesar da textura sonora ser eventualmente distinta, o que torna evidente a sua unificação num único todo; 6) Proximidade: Capacidade de perceber a distância temporal entre as ocorrências das Unidades. 7) Pregnância da forma: Capacidade de intuir a finalização de uma sucessão coerente de Unidades, como uma frase melódica ou rítmica. 3. Planos Sonoros Segundo Falcón (2010, p.2) o Plano Sonoro é constituído pelo conjunto de sons que é conscientemente percebido numa textura musical. Este pode ser representado pelo som gerado por um grupo de instrumentistas, ou parte deste todo sonoro que apresente um contexto único, tal como uma célula rítmica, uma escala melódica ou uma progressão harmônica. Definimos como Planos Sonoros (PS) cinco aspectos contextuais da obra musical analisada, que remetem à estruturas rítmicas e melódicas características da sonoridade da música armorial. “Repente”, alé do nome da peça analisada, é também a forma como são conhecidos os diversos tipos de cantoria, executada pelos cantadores populares do Nordeste. O termo refere-se à cantoria que é feita “de repente”, isto é, de improviso. No ambiente rural, o baião era normalmente executado entre dois violeiros que cantavam como se estivessem digladiando, um contra o outro, constituindo o que se chama de “canto de desafio” (MARCONDES, 2000, p. 61). Segundo Adolfo (1993, p.95) a composição instrumental do baião variou bastante com o passar dos anos, mas nos primórdios, além dos trios – formados por: acordeon, triângulo e o zabumba2 – era comum que as melodias também fossem executadas na rabeca e na viola de 10 cordas, imitando a a impostação típica da voz dos cantadores. O primeiro plano sonoro (PS1) é o baixo do violão, mostrado na Figura 1, que apresenta uma figuração rítmica tradicional de Baião, também muito utilizada no zabumba. Podemos perceber nessa marcação, feita pelo violão, duas subunidades. Nessa figura observase tais subunidades em destaque. Estas traçam um paralelo entre a rítmica do zabumba, feita 2 O zabumba é um instrumento usado em diversos ritmos, e no Nordeste brasileiro o encontramos numa das principais formações musicais de nosso país, os trios nordestinos, onde além dele tem o triângulo e o acordeon. pela maceta (baqueta que percute a membrana superior) pelo bacalhau (baqueta mais fina, que percute a membrana inferior do tambor), e pelos bordões3, deixando assim um padrão. Figura 1: PS1: Paralelo entre o Zabumba e o Violão. É possível perceber, através do princípio gestáltico da Semelhança, que a origem dessa rítmica é estabelecida pelo violão. Além disso, o princípio da Continuidade é aqui observado, já que este PS1 constitui um padrão regular, a partir da introdução da peça. O segundo plano sonoro (PS2) aparece no início da primeira parte dessa peça, com a flauta e o violino executando um crescendo4 utilizando notas longas em intervalos de quarta justa. Verificamos, através dos princípios gestáltico da Semelhança, uma coerência na forma melódica (constituída de mínimas ligadas), mas apresentando um contraste no timbre (característica dos próprios instrumentos musicais). Através do princípio da Unificação, a diferença intervalar entre as notas da melodia forma um intervalo harmônico que reforça a base feita pela viola nordestina, conforme observado na Figura 2: Figura 2: PS2: Semelhança na forma e a Unificação na harmonia da flauta e do violino na introdução da peça. As três cordas graves do violão, a saber: 4ª ré, 5ª lá e 6ª mi. As três cordas agudas são conhecidas como primas, e são elas: 3ª sol, 2ª si e 1ª mi. (ROCHA FILHO, s/d, p.13 e 15) 3 Termo musical de indicação de aumento de volume gradual de uma nota ou de uma passagem. (DOURADO, 2004, p.98) 4 O terceiro plano sonoro (PS3) está na estrutura rítmica do tema principal da peça musical. Para o bom entendimento desta rítmica, é necessário um conhecimento prévio das formas estruturais típicas das cantorias dos repentistas. Madureira criou o tema principal em forma de sextilha (uma estrofe contendo 6 versos). (FERREIRA, 2012, p.135). Através do princípio gestáltico da Pregnância da Forma, pode-se identificar e intuitivamente finalizar estas frases. Abaixo temos um exemplo, com as frases numeradas, desse tipo de cantoria, intitulada com o mesmo nome de sua forma, “Sextilhas”5: 1 - To sin-ti-no é mor-ma-ço / 2 - Que-ro o meu cor-po dá fim / 3 - E to-do o ca-lor do mundo / 4 - Jo-gou-se em ci-ma de mim / 5 - Num pen-sei que o Re-ci-fe / 6 - Fi-zes-se ca-lor assim. O PS3, representado pela melodia do tema principal, forma o padrão estrutural desta cantoria, conforme observado na Figura 3. Figura 3: PS3:Tema principal seguindo a estrutura de uma sextilha, executado no Marimbau. O quarto plano sonoro (PS4) é percebido na “ponte” da estrutura desta peça musical, e é bem definido através do princípio da segregação, onde é possível diferenciar a melodia da flauta e do violino dentro da estrutura da peça, executando intercaladamente. A flauta surge como contracanto6 do violino, executando a mesma unidade de maneira inversa, porém permitindo com que ambas texturas sonoras se complementem. Sextilhas é o título da faixa 1 do álbum (LP) independente “Pinto do Monteiro e Zé Pequeno: Acelerando nas Asas do Juízo”, interpretada pelos cantadores Pinto do Monteiro e Zé Pequeno. 5 6 Segundo GUEST, 1996, p.95, o contracanto é uma melodia que soa (combina) com um determinado canto dado. Figura 4: PS4: Ponte executada pelo violino e pela flauta, contendo as marcações de motivos, semifrases e frases. A figura apresenta assinalada a proximidade entre as frases desses instrumentos e sua segregação, pela distinção de seus timbres. No segundo tema dessa peça é apresentado o quinto plano sonoro (PS5) na forma de imitação, com o violão iniciando o tema e a viola repetindo um compasso depois. Muitos duos de melodias nordestinas utilizam essa forma de composição, muito usada no período Barroco. Esse tipo de imitação idêntica é conhecido como Resposta, que é uma imitação da melodia principal, conhecida como Proposta. (KOELLREUTTER, 1996, p.42) Observe na Figura 5 que, na metade do segundo tema, a melodia varia de modo, iniciando no Ré Mixolídio (alteração na sétima) e finalizando na descendente, em Ré Dórico com terça e sétima menor, fá natural e dó natural, eao mesmo tempo em que se constitui a imitação, gerando uma sensação harmônica, uma coesão sonora dessas duas vozes separadas por intervalos de terça. A proximidade é percebida através da repetição da melodia do violão pela viola. Para auxiliar essa unificação, tem-se o marimbau que serve como apoio para o que está sendo proposto pelas cordas dedilhadas, do violão e da viola nordestina. Figura 5: PS5: Segundo tema, com detalhes do cânone entre o Violão e a Viola, evidenciando e a proximidade entre ambos, enquanto são acompanhados pelo pedal do Marimbau. Conclusão Este trabalho trata da utilização dos princípios gestálticos para estudar alguns aspectos característicos e singulares da música armorial. Foi possível constatar que o conhecimento desses princípios abriram novas possibilidades de análise musical, possibilitando que o interprete possa apreciar esta peça musical não apenas de maneira técnica, mas também contextual, de modo que se valide a observação das características musicais que são indispensáveis pra estrutura de uma obra musical desse gênero, transcendendo a análise musical tradicional, dos modos e escalas musicais comumente utilizadas na música armorial. Para se entender a música armorial, é de grande importância conhecer seus aspectos culturais, também a fim de garantir para o músico a sua interpretação correta, principalmente no que diz respeito à criação melódica e rítmica, que é baseada numa história secular, trazida pelos colonizadores e por outros povos que também contribuíram culturalmente na formação do cenário folclórico de cada estado da região do Nordeste Brasileiro. O conhecimento de características da música vocal e instrumental nordestina, com o auxílio de princípios gestálticos, nos propiciou separar alguns dos elementos rítmicos, melódicos e timbrísticos que servem de base para as composições armoriais. Pretende-se dar prosseguimento a este estudo analisando o comportamento da sonoridade nordestina dos seus cantadores, onde será verificado, através de análises computacionais, o registro gráfico das características singulares desse gênero musical, que não podem ser grafadas em notação musical tradicional. Ao que sabemos, esta é uma pesquisa única que procura, além de resgatar este importante e pouco divulgado subconjunto da música brasileira, também estudar o comportamento sonoro peculiar de sua sonoridade. Para tanto, foi de fundamental importância o auxílio técnico, histórico e musical recebido do compositor Antonio José Madureira, fundador do Quinteto Armorial, responsável por auxiliar Ariano Suassuna a encontrar a sonoridade adequada que de fato caracterizasse este movimento. Assim como uma pintura representa um determinado período da história e técnica utilizada; onde os seus diferentes elementos (cores, traços e proporções) dão vida e compõem uma forma; na música – considerada aqui como a arte dos sons organizados – tanto uma nota musical quanto um ruído possuem características que podem ser analisadas separadamente mas que juntas, compõem um único contexto. Cada período musical, em termos do seu gênero, ou à uma forma de dança a este associada, possui seu próprio conjunto de elementos constituintes que o caracterizam onde a análise gestáltica permite alcançar, e assim, até certo ponto, entender e separar os elementos constituintes formados de unidades e padrões. Tal ferramenta mostrou ser de grande valia para se analisar a música armorial; tão rica em elementos diversos que representam uma grande, rica e fecunda miscigenação de comunidades e influências socioculturais. Referências FALCÓN, Jorge Alberto. (2013) Quatro critéios para a análise musical baseada na percepção auditiva. Dissertação de mestrado na UFPR, 2011. Disponível em:http://goo.gl/tWhiW9 (Acesso em: 08/06/2013). FALCÓN, Jorge Alberto.(2010) Aplicação das leis da Gestalt para a detecção de padrões rítmico-melódicos na música Kashmir de Led Zeppelin e seu uso como ferramenta analistica. Revista eletrônica de musicologia, Volume XIII. Janeiro. Disponível no link: http://goo.gl/6HbrqG (Acesso em 02/06/2013). FERREIRA, Maíra Soares. (2012) A rima na escola, o verso na história. São Paulo/SP; Boitempo. 2012. GOMES FILHO, João. (2004) Gestalt do Objeto: Sistema de leitura visual da forma. 6ª edição, São Paulo: Escrituras Editora. GUEST, Ian. Arranjo (1996) Método prático vol. 1 /. Rio de Janeiro/RJ: Editado por Almir Chediak. Lumiar Editora. KOELLREUTTER, Hans Joachim. (1996) Contraponto Modal do século XVI Palestrina /. Brasília, DF: Musimed Editora. MADUREIRA, Antonio José. Entrevista sobre o Movimento Armorial e seus significados. [26/07/2012]. Entrevista concedida a Gilber Cesar Souto Maior. Recife/PE. MONTEIRO, Pinto do; PEQUENO, (1980) Zé. Acelerando nas asas do juízo. Disco independente. ROCHA FILHO, Othon Gomes da. (s/d) Primeiros acordes ao violão. Irmãos Vitale Editora. TENNEY, James; POLANSKY, Larry (1980). Temporal Gestalt Perception in Music. Journal of Music Theory, Vol24, nº2. (Autumn 1980). WOITOWICZ, Karina Janz. "O som popular e erudito do Quarteto Romançal." Revista Internacional de Folkcomunicação (online). ISSN 1807-4960. Vol. 4, No 7 (2006) http://goo.gl/95NYce (acessado em março de 2014)