Baixar este arquivo PDF - NICS

Transcrição

Baixar este arquivo PDF - NICS
Editorial
Este é o oitavo número da revista online NICS Reports (NR), a terceira edição publicada no ano de 2014,
que traz uma seleção de cinco trabalhos de pesquisadores e alunos do Núcleo Interdisciplinar de Comunicação
Sonora (NICS). Como de costume, a NR divulga os trabalhos do NICS que já foram publicados em outros meios de
comunicação, tais como: simpósios, congressos e revistas indexadas. Neste número, apresentamos quatro artigos
divulgados em anais de eventos científicos nacionais (ANPPOM e SIMCAM10), e também um trabalho publicado
na revista PERCEPTA. Todos estes abordam temas relacionados à ciência e arte da produção e do entendimento
da música, em suas diferentes nuances, perspectivas a utilizações, tais como: a cognição musical, a musicologia,
as performances multimodais, a música computacional, a psicoacústica e a emoção musical.
Esperamos que os trabalhos aqui apresentados, no oitavo número do NICS Reports (NR8) sejam
interessantes e úteis a todos os leitores, e venham a contribuir para a divulgação e o desenvolvimento da pesquisa
em música, para todos aqueles que estudam aprofundadamente, ou simplismente se interessam pela fronteira da
música, entre a tecnologia e a arte.
Campinas, julho de 2014
Equipe Editorial da NR
NICS / UNICAMP
Paisagens Sonoras Sintéticas Dinamicamente
Geradas por Algoritmos Evolutivos
José Fornari1, Adolfo Maia Jr.1,2, Jônatas Manzolli1,3
1Núcleo Interdisciplinar de Comunicação Sonora – Universidade Estadual de Campinas (UNICAMP)
Caixa Postal 6166 – 13.091-970 – Campinas – SP – Brazil
2Departamento de Música, Instituto de Artes (DM/IA)
3Departamento de Matemática Aplicada (IMECC)
{fornari,adolfo,jonatas}@nics.unicamp.br
1. Introdução
Pare um momento onde você estiver. Se puder, feche os olhos, relaxe e apenas focalize a sua atenção na sua
audição. Esta informação acústica que seus ouvidos continuamente percebem e o seu cérebro interpreta como
som, nunca mais se repetirá. É a primeira e última vez que este fluxo de sons irá se manifestar na mesma
ordem, com as mesmas intensidades, durações e os mesmos componentes sonoros. Como diz a famosa frase
de Heráclito, é impossível entrar no mesmo rio duas vezes. Do mesmo modo é também impossível escutar
duas vezes o mesmo som. Mesmo em relação ao som gravado, a cada vez que o escutamos, estaremos
cercados por diferentes ruídos externos, apresentaremos distintos ruídos internos (batimento cardíaco,
respiração, movimentação) e também diferentes estados emocionais, o que influenciará na maneira como
interpretaremos a informação sonora. Entre outros compositores, John Cage foi um grande apaixonado pela
natureza sempre original dos sons naturais. Como ele não fazia distinção entre qualquer geração sonora e a
criação musical, para ele o som natural, como o de uma avenida movimentada ou de uma floresta, era uma
música mais original e criativa que uma sinfonia de Beethoven ou Mozart, pois, segundo ele, estas sempre
lhe pareciam iguais, enquanto que o som naturalmente gerado em ambientes não controlados é sempre novo.
Em sua controversa composição musical intitulada, 4'33'', onde o pianista (ou, dependendo da versão, todos
os componentes de uma orquestra) não produzem qualquer som com seus instrumentos musicais durante
quatro minutos e trinta a três segundos. A inovadora idéia composicional de Cage é que a música é assim
gerada pelos sons ambientais presentes no momento daquela grande pausa.
Pode-se, porém notar que o som gerado em um ambiente não-controlado, apesar de ter um comportamento
não repetitivo, na maior parte do tempo é similar o suficiente para que possamos reconhecê-lo prontamente.
Não só podemos reconhecer como também relembrar o som de uma praia deserta, de uma floresta tropical,
de uma tempestade, de uma multidão em um estádio lotado ou de um cão ladrando de madrugada. A esse tipo
de sonoridade espontaneamente auto-organizada foi dado o nome de Paisagem Sonora, ou Soundscape, em
Inglês.
A definição de paisagem sonora está ligada com o movimento ecológico através do trabalho de Murray
Schafer, compositor e ambientalista, criador do World Soundscape Project em 1960. Na música,
compositores como Barry Truax e Luc Ferrari utilizaram o conceito de paisagem sonora, seja na sua
utilização em processos de síntese sonora, ou como inspiração composicional. O estudo de paisagens sonoras
também vai além da criação musical. Atualmente diversas pesquisas na área de saúde e conforto ambiental
levam em consideração a paisagem sonora na qual o indivíduo está inserido no desenvolvimento de seus
estudos.
Vimos que uma paisagem sonora é um fenômeno natural. A sua criação depende da auto-organização de um
ambiente, mesmo que este tenha sido criado pelo ser humano. Gerar uma paisagem sonora artificial, ou seja,
uma paisagem sonora sintética, é uma tarefa dificilmente alcançada utilizando-se métodos tradicionais de
síntese sonora. Para se gerar uma paisagem sonora sintética, é necessária uma metodologia não
determinística, que emule a estratégia de adaptação dinâmica encontrada na biologia. Tal metodologia vem
da Inteligência Artificial e se chama Computação Evolutiva, algumas vezes também conhecida como
Evolução Artificial, ou EA, que é uma metodologia de otimização computacional inspirada na teoria
Darwiniana de evolução das espécies biológicas. Em EA, tem-se a busca automática da melhor solução para
um problema dentro de uma população dinâmica contendo onde os indivíduos são as soluções possíveis
[Koza,97]. Os métodos de EA não possuem uma condição inicial fixa. Em teoria, estes podem ser usados na
resolução de qualquer tipo de problema [Bäck,96], mas seu interesse cresce para a solução de problemas nãodeterminísticos, também chamados de NP-completos [Garey,79].
Em música e artes gráficas, onde tais problemas são abundantes, há vários estudos sobre aplicações de
computação evolutiva. [Miranda,03] investigou o potencial de algoritmos de "vida artificial" (Alife) para a
criatividade musical. [Soddu,02] usou algoritmos de vida artificial para gerar multiplicidades de possíveis
soluções de peças artísticas. [Garcia,00] usou algoritmos genéticos na automação de projetos de técnicas de
síntese sonora. [Gibbs,96] desenvolveu animações gráficas com figuras articuladas usando programação
genética. [Biles,94] usou algoritmos genéticos para criar o software GemJam, um programa que aprende e
toca improvisos de jazz em tempo-real. [Horner,93] desenvolveu um método evolutivo para a geração
automática de algoritmos de síntese FM.
O estudo aqui reportado vem se desenvolvendo desde 1999 no NICS. O primeiro projeto foi denominado
“VoxPopuli”, um ambiente evolutivo para gerar seqüênciais musicais através do protocolo MIDI (Musical
Instrument Digital Interface) [Moroni,00], posteriormente, baseado nos resultados do primeiro sistema foi
implementado o JaVOX, um sistema que ampliou as funcionalidades do primeiro e foi desenvolvido em
JAVA (http:/www.geocities.com/Artemis_Moroni/JaVox/). O uso de CE aplicada à síntese sonora,
denominado de Síntese Evolutiva de Segmentos Sonoros, iniciou-se com um método baseado em curvas
psicoacústicas [Fornari,01]. Criamos uma metodologia usando um sistema imunológico artificial apresentada
em [Caetano, 05].
Recentemente, estudamos a utilização de funções de localização sonora ITD (inter-aural time difference)
como um parâmetro de controle do genótipo sonoro [Fornari,07]. A motivação inicial para a inserção de
localização espacial sonora na SE foi que A utilização de localização espacial junto com a capacidade da
síntese evolutiva de gerar sons com similaridade variante mostrou-se uma abordagem para sua criação e
controle dinâmico de paisagens sonoras digitais.
Nas próximas seções apresentamos a idéia geral do método, destacando as conexões entre a Síntese
Evolutiva e o controle de parâmetros cognitivos. Depois apresentamos os modelos matemáticos
desenvolvido, seguidos da implementação em Pd. Os resultados são apresentamos e discutimos, onde
tentamos mostrar a possibilidade de uso desta metodologia em composição eletroacústica e outras aplicações
em computação musical.
2. Método: Síntese Evolutiva
Inicialmente, fazemos um breve resumo do processo de síntese que desenvolvemos. A seguir apresentamos o
novo modelo que utiliza a inclusão da localização espacial como fator de adequação do processo.
2.1 Síntese Evolutiva de Segmentos Sonoros (SE)
No método inicial Síntese Evolutiva (SE) descrito em [Fornari,01], segmentos sonoros digitais (waveforms)
são utilizados como indivíduos de uma população que evolui através de uma medida de adequação (fitness) à
um conjunto de outros segmentos sonoros o qual representa o fator condicionante do meio. O incremento
temporal desta evolução artificial é dado pela geração, equivalente à um ciclo computacional do processo
onde a população evolui, condicionada pelo conjunto. Os processos de seleção e reprodução agem na
população a cada geração. A seleção compara os indivíduos da população em relação à sua semelhança com
os indivíduos do conjunto alvo. Esta semelhança é dada pela função de adequação (fitness) que, a cada
geração da população, determina o individuo mais próximo ao alvo, o qual é chamado de melhor indivíduo.
A reprodução gera novos indivíduos na população através de dois operadores genéticos: crossover e
mutação, que, a cada geração, substituem todos os indivíduos da população por indivíduos descendentes dos
indivíduos substituídos (da geração anterior) e o melhor indivíduo da geração atual.
2.2 SE e Localização Espacial
Com a inclusão de localização espacial no processo, constatamos que o método de síntese poderia ser
expandido conceitualmente. A localização espacial utilizada como função de adequação permite a criação de
uma seqüência de amostras sonoras posicionados no espaço que apresentam uma similaridade convergente
como característica do próprio processo de síntese. Estes sons com posicionamento espacial acabam, ao
longo do tempo, compondo um ambiente sonoro que apesar de sempre original é reconhecido por sua
similaridade. Deste modo, supomos que este processo de síntese evolutiva poderia ser utilizado para a criação
do que chamamos de paisagens sonoras digitais.
2.3 Paisagem Sonora Sintética
O termo paisagem sonora se refere a um processo sonoro dinâmico, auto-organizado e complexo, onde a
informação sonora nunca se repete e, no entanto, é cognitivamente auto-similar, uma vez que este é
facilmente reconhecido pela audição humana. Murray Schafer, compositor, ambientalista e criador do World
Soundscape Project em 1960, define as bases de uma paisagem sonora. Segundo ele, os três principais
elementos são:
1) Tônicas sonoras (Keynote Sounds)
2) Sinais sonoros (Sound Signals)
3) Marcações sonoras (Soundmarks)
O conceito de tônicas sonoras é similar ao dos centros tonais na música tonal. Estes definem a "tonalidade"
da paisagem, mesmo quando não estão presentes, da mesma forma que a tônica define a tonalidade de uma
peça musical tonal mesmo não estando presente na estrutura melódica ou harmônica. São exemplos de
tônicas o som de insetos e pássaros na paisagem sonora de uma floresta, de ondas na paisagem de uma praia,
ou do transito, na paisagem de uma metrópole.
Sinais sonoros são os sons componentes de uma paisagem sonora que são conscientemente percebidos
quando presentes. Diferente das tônicas sonoras, estes só são percebidos conscientemente pois chamam a
atenção quando ocorrem. Exemplos de sinais sonoros são: som do apito do juiz na paisagem sonora de uma
partida de futebol, som de um trovão particularmente alto em uma tempestade, som do sinal de recreio na
paisagem sonora de uma sala de aulas.
Marcações sonoras, como o nome sugere, são os sinais sonoros que definem e demarcam uma paisagem
sonora, as caracterizando e distinguindo de outras. Assim, essas marcações sonoras são necessariamente
únicas a uma paisagem sonora, como descrito em [Murray,77 e Truax,78].
Estudamos a utilização de funções de localização sonora como um novo parâmetro do genótipo sonoro. Isso
nos levou a considerarmos a síntese evolutiva não apenas para a transformação dos fatores psicoacústicos,
mas também para a manipulação da interpretação do som, descrita por alguns aspectos relacionados a
cognição de estímulos sonoros.
Percebemos que o resultado sonoro da síntese evolutiva passava a se encaixar ao paradigma de soundscapes
especialmente no que tange à “similaridade variante” dos sons da população de formas de ondas, aspecto
característico da síntese evolutiva. A síntese evolutiva que desenvolvemos passou assim a ter uma aplicação
criativa: composição de soundscapes. A implementação em Pd permite que o usuário controle a criação de
soundscapes, não apenas pela manipulação dos parâmetros de síntese e do conjunto alvo, mas também
através de um arquivo de texto, chamado de score, que organiza o processo de composição.
3. Modelamento Matemático
Inicialmente foi necessário o desenvolvimento de uma representação de genótipo sonoro, ou seja, do
conjunto de parâmetros que caracterizam amostras sonoras num dado contexto musical, que não apenas
permitisse o reconhecimento e discriminação de sua natureza psicoacústica, mas que também fosse
computacionalmente viável. Iniciamos com o estudo de três modelos do genótipo sonoro descritos em
[Fornari,03]: 1) genótipo como forma de onda (waveform), 2) genótipo como um conjunto de curvas
psicoacústicas, e 3) genótipo como espectrograma sonoro e culminamos por descrever o genótipo através de
descritores cognitivos não-contextuais, os quais são descritos a seguir na seção 4.
3.1 Função ITD
Conforme descrito em [Murray,04] a função ITD simula o mecanismo pelo qual a audição percebe a
localização de uma fonte sonora pela diferença de tempo de recepção do som entre os ouvidos. Se não houver
atraso (se ambos os ouvidos receberem a mesma informação sonora simultaneamente) a localização da fonte
é percebida como estando em frente ao ouvinte, caso contrário, percebe-se a fonte Sonora deslocada
horizontalmente, num dado angulo de azimute. A função ITD emula esse efeito através da inserção de atraso
entre dois canais com a mesma informação sonora.
3.1.1 Sound-Marks no Campo de Localização Sonora
Sob o ponto de vista matemático, este modelo consiste de um espaço de triplas G={(W, I, L)}, chamado de
Espaço Genotípico, onde 0≤ I ≤1 é o fator de intensidade sonora, e 1≤ L≤1 é o fator de localização ITD, dado
pelo ângulo de azimute θ, onde L = (90o – θ)/ 90o e 0o  θ  180o. Para maiores detalhes, veja
[Fornari,06]. O conjunto de todos os possíveis valores do par (I,L) é chamado de “Campo de Localização
Sonora” (SLF). Em nosso modelo, este é descrito como um semicírculo, e o par (1,0) é associado com o som
de maior intensidade e localizado em frente ao ouvinte. A dispersão especial no SFL é caracterizada pela
distribuição dos conjuntos finitos de pares S = (I, L) conforme mostrado na Figura 1.
Definimos como População um sub-conjunto finito de elementos de G. Em nosso modelo iniciamos com
uma população P(0) e conjunto alvo T e, interativamente, construímos uma seqüência de um número R de
populações G(1), G(2),…, G(r), onde a k-ésima população é um sub-conjunto de G com N indivíduos
(elementos) G(k) = {G1(k) , G2(k) ,…, GN(k) } e os indivíduos são dados pelas triplas G i(k) = (Wi(k), Ii(k) ,
Li(k)). O conjunto alvo tem M indivíduos T= {t1, t2,…,tM } cujo j-ésimo indivíduo é dado por tj = (W j(T),
Ij(T), Lj(T)). A dispersão especial na SLF é caracterizada pela distribuição do conjunto de pares S i = (Ii, Li)
conforme mostra a Figura 1. Estes pares, onde os Operadores Genéticos são aplicados são chamados de
Genótipos de Espacialização Sonora (SSG). O conjunto alvo T = {Tk = (Ik, Lk), onde k=1,…,M} pode, em
principio, ser gerado por uma série de controladores gestuais associados a posição e movimento do usuário /
músico. Isto permite que impressões perceptuais guiem interativamente o processo evolutivo de distribuição
especial do som.
Uma vez que G(k) e T são subconjuntos de G nós definimos a distância entre estes dois como se segue:
d ij (G
(k )
(k )
(k )
(k )
(k )
1 Ii  I j
1 Li  L j
,T ) 

2
A
4
B
(1)
onde as constantes A e B são respectivamente dadas como os fatores máximos de intensidade e localização, e
cuja distância é normalizada dentro do intervalo [0,1]. A distância d k entre G(k) e T é definida por:
dk ≡d(G(k),T) =
min d (G ( k ) , T )
i, j
ij
(2)
onde i=1,…,N e j=1,2,…, M. Observe que a função de distância usa apenas dois fatores de SSG.
O melhor indivíduo da k-ésima população G(k), Gi*(k) = ( Wi*(k), Ii*(k) , Li*(k)) é aquele que apresenta a
distância dk ≡d(G(k), T). Este novo indivíduo (o melhor da população) pode ser usado pelo processo
evolutivo interativo, conforme descrito em 4. Para controlar a saída sonora nós usamos a distância descrita
acima para definir a Similaridade Espacial como segue:
Dado dois indivíduos da população Gi(k) , Gj(k) , eles são similares se d( Gi(k), Gj(k))   , onde  é um
número arbitrário e a distância d é definida pela Eq. (1).
Localização
do i-ésimo
indivíduo
Figura 1. Campo de localização sonoro
(SLF).
3.2. Operadores Genéticos e a Espacialização Sonora
3.2.1 Crossover
Dado o melhor indivíduo da k-ésima geração Gi*(k) = ( Wi*(k), Ii*(k), Li*(k)) e a taxa de crossover α, onde
0 ≤ α ≤ 1, os parâmetros de localização dos indivíduos da População serão transformados como se segue:
Ii(k+1) = α Ii*(k) + (1-α). Ii(k) , e
(3)
Li(k+1) = α. Li*(k) + (1-α). Li(k)
para 1 ≤ i ≤ N, e k= 0,1,…, R.
onde R é o número de interações.
3.2.2 Mutação
Similarmente, dado o melhor indivíduo da k-ésima geração Gi*(k) = ( Wi*(k) , Ii*(k) , Li*(k)) e a taxa de
mutação ß, onde 0 ≤ ß ≤ 1, a operação de mutação é definida como se segue:
Ii(k+1) = 1 . (rand) + (1-1). Ii(k) e
(4)
Li(k+1) =2 . (rand) + (1-2). Li(k)
para 1 ≤ i ≤ N, e k=0,1,…, r.
onde “rand” é o parâmetro randômico no intervalo [0,1] e as taxas 1 e 2 controlam o grau de
aleatoriedade da operação de mutação. Nesta implementação nós consideramos 1 = 2 por
simplicidade.
4. Implementação
A primeira implementação do SE utilizando a linguagem de programação Pd serviu para salientar os pontos
que deviam ser abordados pelo método inicial. Dos diversos aspectos percebidos, viu-se a necessidade de se
incorporar uma série de extensões ao método de modo que este se tornar mais semelhante à evolução
biológica. Entre eles, destacam-se as seguintes extensões.

Conceito de variação demográfica, dado pela implementação de uma população de tamanho variável
onde os indivíduos apresentam um determinado tempo de vida.

Conceito de reprodução sexuada, dado pela criação de indivíduos com gênero sexual.

Conceito de localização e mobilidade geográfica de indivíduos através da implementação de
genótipos com funções de localização espacial sonora.
Estas três extensões serviram para re-orientar não só o desenvolvimento do SE, mas também a sua aplicação.
Dada a sua crescente proximidade com modelos de evolução biológica, a SE passou a se aproximar da
geração de estruturas mais complexas, ou seja, ao invés da síntese de sons, a síntese de soundscapes.
4.1 Descritores da Percepção Sonora
No desenvolvimento da SE, a primeira e a terceira extensão descritas acima estão diretamente relacionadas à
síntese de soundscapes. Numa soundscape o número de fontes sonoras pode variar (população de tamanho
variável) bem como as fontes sonoras podem se deslocar no espaço (localização espacial). Apesar de não
relacionada diretamente à soundscapes, achamos interessante implementar também a segunda extensão
descrita acima: a reprodução sexuada. Para isso, criamos o conceito de gênero no indivíduo da síntese
evolutiva. Partindo do conceito de reprodução sexuada uma nova extensão do método da síntese evolutiva
que implementamos também foi o conceito de genes diplóides. Assim, em cada genótipo tem-se que cada
cromossomo é formado por genes dominantes e/ou recessivos, tal e qual na biologia.
Os genes são dados por descritores cognitivos não-conceituais, tal como explicados em [Leman,03]. Estes
descritores são considerados como unidimensionais correspondentes a uma dimensão da
multidimensionalidade que constitui o timbre sonoro. Existem diversas representações de descritores, tal
como ataque, harmonicidade, inharmonicidade, rugosidade, entropia, flutuação, etc. Para essa implementação
da SE, definimos quatro descritores: onsetness, loudness, pitchness a location. Estes descritores foram
definidos aqui neste trabalho com base em outros descritores já definidos em outros estudos como em
[Leman,04]. Suas escalas são normalizadas entre zero (nulidade ou ausência do descritor em questão) e um
(presença máxima do descritor). Assim definimos o descritor onsetness como aquele representando a
quantidade de ataque (onset) presente no som, sendo que onsetness é próximo de zero para sons que não
possuem ataque perceptual, tal como é o caso de sons da família das cordas friccionadas (não pizzicato).
Do mesmo modo, onsetness seria próximo de um para sons que sejam praticamente apenas o ataque, tal
como o som de um estalo (sem reverberação), ou um pulso unitário. O descritor pitchness representa o grau
de tonalidade de um som. Para sons ruidosos, que não apresentam qualquer definição perceptual de pitch,
tem-se pitchness=0. Para puramente melódicos, como o som de uma nota musical de um instrumento
melódico, sem qualquer presença de ruído (como o som de um diapasão) tem-se pitchness=1. O descritor
loudness determina o grau de percepção de intensidade sonora, lembrando-se que este não está unicamente
relacionado com a intensidade do sinal sonoro, mas também com o ataque, a freqüência do parcial
fundamental e a composição espectral do som em questão.
No processo de seleção existem quatro parâmetros correspondentes aos três descritores (definidos acima) e à
localização sonora. Estes definem a máxima distância permitida para cada descritor do genótipo do indivíduo
em relação ao alvo. Por exemplo, se num dado processo de seleção o parâmetro de distância de um dado
descritor for dd = 0,5 então será eliminado da população qualquer indivíduo cujo mesmo tipo de descritor d,
comparado aos seus correspondentes, no conjunto alvo satisfizer |d – da| >= dd a todos os genótipos do
conjunto alvo.
O processo de reprodução é aqui determinado por quatro fatores. Os dois primeiros são descritos no genótipo
do indivíduo: localização espacial e gênero. Apesar de não ser uma característica genotípica, por motivos de
conveniência computacional a localização do indivíduo é descrita no arquivo de texto que representa o
genótipo do indivíduo. Este é dado por duas variáveis normalizadas, I (intensidade) e L (angulo de azimute),
dada por I=[0,1] e L=[-1,1] (respectivamente correspondente aos ângulos de 0 e 180 ). Nesta
implementação definimos três tipos de gênero dos indivíduos: m (macho), f (fêmea), s (estéril) e b (ambos).
As únicas reproduções possíveis são as que obedecem às seguintes regras:
m&f m|f|b
[ m | f | b] & b = s (reprodução com b sempre gera indivíduos estéreis).
onde: & = AND, | = OR e x & y é a reprodução entre x e y.
4.2 Implementação em Pure Data
A saída de som da SE também foi expandida. Ao invés de ser apenas formada pelo melhor indivíduo de cada
geração, esta passou a ser definida pelo usuário através de dois parâmetros: m (melhores, ou mais próximos
do alvo) e p (piores, ou mais distantes do alvo) seguidos por uma variável [0,1] referente a porcentagem de
indivíduos na população. Exemplificando, m 0,3 corresponde à saída dada pela mistura de 30% dos
indivíduos da população ordenados do melhor ao pior. Note que m 1 é o mesmo que p 1 e m 0 equivale à
saída da implementação anterior, ou seja, o melhor indivíduo.
A implementação inicial foi feita na forma do arquivo PD, se00.pd (versão 0.0). A correção e melhoria desta
implementação inicial resultaram no se01.pd (versão 0.1), cuja figura abaixo mostra sua interface gráfica
(front-end):
Figura 2. Primeira implementação da Síntese Evolutiva em Pure Data.
Ao iniciar a síntese, o se01.pd vai inicialmente selecionar o individuo da população que é mais próximo dos
indivíduos do conjunto alvo. Este será o primeiro melhor indivíduo. Logo em seguida o processo de
reprodução modifica todos os 12 elementos do conjunto população através das operações genéticas entre
cada indivíduo da população e o melhor indivíduo escolhido anteriormente.
Na fase final da implementação em Pd, o método da síntese evolutiva foi remodelado com base nos novos
critérios apresentados na secção anterior e o sistema foi assim expandido para a síntese de soundscapes.
4.2.1 Arquivo de Controle Paramétrico
Tem-se agora um sistema mais complexo que pode ler um arquivo de texto, aqui chamado de score, com as
instruções ordenadas no tempo, para orientar a síntese do soundscape. Além do score, a SE é também
controlada pelos parâmetros contínuos das taxas dos operadores genéticos (crossover e mutação), a taxa de
proliferação populacional, bem como pela modificação dinâmica dos indivíduos do conjunto alvo pelo
usuário. No modelo de score que implementamos, tem-se toda a informação inicial e as linhas de comando
organizadas sob a forma de um arquivo de texto. Na Tabela 1 é dado um exemplo de score:
Tabela 1. Score usado no controle da Síntese Evolutiva.
Title
Title: o nome do score.
ParteTeste;
instructions: instruções da organização deste score que irão
aparecer ao usuário, sob a forma e comentário, na janela do
programa.
instructions
Esta eh a sintese evolutiva de \\
soundscapes com score ParteTeste\\
\\
Clique SPACE para prosseguir\\
\\
modos do score: \\
time selec onset loud pitch location \\
time repro gender proximity\\
output proxim x distant y all\\
num-pop: número inicial de indivíduos na população, que deve
estar em conformidade com o número de WAV files no arquivo
pop.
num-alvo: número inicial de indivíduos no conjunto alvo que,
igualmente, deve estar em conformidade com o número de
WAV files no arquivo alvo.
proli: valor inicial de proliferação da reprodução de indivíduos.
cros: valor inicial da taxa de crossover.
mut: valor inicial da taxa de mutação.
\\
global: selecao\\
step: reproducao\\
state: output\\
Logo em seguida, tem-se as linhas de comando, ou commandlines, dada em uma única linha encerrada por “;”. Estas são
ordenadas com as seguintes instruções:
;
num-pop 7;
num-alvo 3;
Time: tempo de atraso para a execução da linha, dado em
segundos.
proli .5;
cros .5;
mut .1;
Mode: determina o modo de operação: sel processo de
seleção, rep reprodução e out saída sonora.
00 sel .5 .5 .5 .5;
00 rep .5;
00 out p 1;
01 out p 5;
05 out l 1;
06 out a;
10 rep 0.1;
O genótipo é também dado por um arquivo de texto. Seguindo o padrão do objeto “textfile” do Pd, onde cada
linha é encerrada pelo símbolo “;”. A primeira linha do arquivo de texto do genótipo especifica a localização
espacial do indivíduo (location). Esta é dada através de dois parâmetros, Intensidade, que varia entre I =
[0,1], e ângulo de azimute que varia entre A = [-1,1] respectivamente correspondendo a uma variação de
ângulo entre [-180 , 0 ]. Um exemplo típico é dado abaixo:
location 1 -1;
lifespam 0;
Fonte Sonora
gender m;
I
onsetness d .5 r .5;
A
loudness d .1 r .9;
pitchness d .9 r .1;
180
Figura 3. Esquerda: Exemplo de um genótipo da SE, representado por um arquivo de texto. Direita: Localização do indivíduo da SE.
0

A segunda linha arquivo de texto do genótipo determina o “tempo de vida” (lifespam) deste indivíduo, ao
longo do processo evolutivo. Este tempo é dado em segundos. Depois de terminado este tempo préestabelecido, o indivíduo é automaticamente eliminado da população. Para representar indivíduos “imortais”
usa-se “zero” como parâmetro (conforme é mostrado no exemplo da figura 3).
A terceira linha determina o gênero do indivíduo (gender), podendo este ser: m (masculino), f (feminino), b
(ambos), s (estéril). Conforme foi mostrado, existem duas regras que determinam a reprodução
anteriormente, sendo que se o indivíduo for s não pode reproduzir e permanecerá na população até terminar
seu tempo de vida ou ser eliminado por distanciamento do conjunto alvo.
As próximas linhas do genótipo determinam os três descritores cognitivos escolhidos para representar o
genótipo em si. Estes formam o cromossomo diplóide do indivíduo onde existe o conceito de dominância e
recessividade. Então, em cada linha tem-se o valor para o gene dominante dado pelo parâmetro d, seguido de
seu valor numérico (entre [0,1]) seguido pelo gene recessivo, dado por r, seguido de seu valor normalizado.
Os conceitos de hereditariedade e caracterização fenotípica seguem as simples regras dispostas pela genética
de Gregor Mendel.
4.2.2 Interface Gráfica
O front-end da implementação da SE é visto na figura 4. Nesta janela inicial (figura 4, esquerda) o usuário é
convidado a digitar o nome de um score que este deseje utilizar para guiar o processo evolutivo. Conforme
falamos anteriormente, um score é um arquivo de texto com os parâmetros evolutivos ordenados no
temporalmente. Ao digitar o nome do score uma nova janela aparece, com o nome deste score no titulo e com
outros parâmetros evolutivos (figura 4, centro)
Caso não haja um score definido, a próxima janela que irá aparecer será similar aquela da figura, à direita.
Figura 4. Janela inicial (front-end) da interface do programa (esquerda). Janela com o nome
do score e os respectivos controles para a síntese evolutiva (centro). Janela da síntese
evolutiva feita sem a presença de um score (direita).
Como se percebe, não é necessária a utilização de um score na síntese evolutiva. Este funciona similar a uma
partitura musical que descreve as passagens de uma composição musical. Analogamente, a não utilização de
um score, se assemelha a improvisação musical, pois deixa a cargo do usuário o controle em tempo real de
todos os parâmetros.
5. Conclusão
Apresentamos a implementação do sintetizador evolutivo em Pd, com processamento e controle em temporeal. Esta implementação abre as portas para um novo conceito de processamento não-determinístico de
ambientes sonoros, ou soundscapes, uma vez que o método gera sons que se modificam adaptativamente,
convergindo com similaridade variante.
O projeto gráfico da SE também apresentou grande melhoria em relação à primeira versão implementada. No
entanto, o Pd não oferece grandes recursos gráficos em sua plataforma atual. Uma maneira de sanar esse
problema, no futuro, seria valer-se do fato que o Pd é na verdade formado por dois programas, o engine que
realiza o processamento e controle de áudio e a plataforma gráfica, que cria as janelas e objetos visuais.
Teoricamente, é possível utilizar apenas o engine processando em background controlado por uma
plataforma gráfica mais desenvolvida, por exemplo, em JAVA. Isto tornaria a visualização do programa mais
aprazível e protegeria o código do algoritmo.
Esperamos com isso que uma grande quantidade de pesquisadores desta área avaliem esta implementação,
suas amostras sonoras e emitam seus pareceres com relação à suas avaliações. É nosso intento que tenhamos
conseguido chegar a uma ferramenta musical interessante para o compositor de música eletroacústica.
Agradecimentos
José Fornari teve o apoio da FAPESP através de bolsa de pós-doutoramento desenvolvida no NICS, processo
04/00499-6R. Jônatas Manzolli e Adolfo Maia Jr. tem o apoio do CNPq através de bolsa de produtividade em
pesquisa PQ.
Referências
Koza, John R., “Genetic Programming”, Encyclopedia of Computer Science and Technology, 1997.
Bäck, T. “Evolutionary Algorithms in Theory and Practice: Evolution Strategies, Evolutionary Programming, Genetic
Algorithms”, Oxford Univ. Press. 1996.
Garey, M. and D. Johnson, “Computers and Intractability; A Guide to the Theory of NP-Completeness”. ISBN 0-7167-1045-5.
1979.
Miranda, E. R.. "On the evolution of music in a society of self-taught digital creatures." Digital Creativity, Vol. 14, No. 1, 29-42.
2003.
Soddu C. O. "A Generative Approach to Art and Design" Leonardo, 1 June 2002, vol. 35, no. 3, pp. 291-294. MIT Press. 2002.
Garcia, Ricardo A. "Automatic Generation of Sound Synthesis Techniques". Proposal for degree of Master of Science. MIT - Fall.
2000.
Gibbs, J. "Easy Inverse Kinematics using Genetic Programming". Genetic Programming 1996: Proceedings of the First Annual
Conference. MIT Press. http://www.red3d.com/cwr/evolve.html. 1996.
Biles, J. A., "Gen Jam: A Genetic Algorithm for Generating Jazz Solos", Proceedings of the 1994 International Computer Music
Conference, (ICMC'94), 131-137. http://www.it.rit.edu/~jab/GenJam.html. 1994.
Horner, A., Beauchamp, J., and Haken, L., "Machine Tongues.16. Genetic Algorithms and Their Application to FM Matching
Synthesis," Computer Music Journal, vol. 17, pp. 17-29. 1993.
Moroni, A., Manzolli, J., Von Zuben, F., Gudwin, R., "Vox Populi: An Interactive Evolutionary System for Algorithmic Music
Composition", Leonardo Music Journal, San Francisco, USA, MIT Press, Vol. 10. 2000.
Fornari, J., Manzolli, J., Maia Jr., A., Damiani F., "The Evolutionary Sound Synthesis Method". SCI conference. Orlando, USA.
2001.
Caetano, M. F., Manzolli, J., Von Zuben, F. J. "Application of an Artificial Immune System in a Compositional Timbre Design
Technique". In: Jacob, C., Pilat, M.L.,
Bentley, P.J., Timmis, J.. (Org.). Artificial Immune Systems, Lecture Notes in Computer Science. Berlin: Springer-Verlag, v. 3627,
p. 389-403. 2005.
Fornari, J., Manzolli, J., Maia Jr., A., Damiani F., "The Evolutionary Sound Synthesis Method". SCI conference. Orlando, USA.
2001.
R. Murray Schafer, M. (1977). “The Soundscape”. ISBN 0-89281-455-1.
Truax, B.. (1978) “Handbook for Acoustic Ecology”. ISBN 0-88985-011-9.
Fornari, José Eduardo. “Síntese Evolutiva de Segmentos Sonoros”. Dissertação de Doutoramento. DSIF/FEEC/UNICAMP. 2003.
Leman, M., Vermeulen, V., De Voogdt, L., Moelants, D., & Lesaffre, M. (2004). Correlation of Gestural Musical Audio Cues.
Gesture-Based Communication in Human-Computer Interaction:5th International Gesture Workshop, GW 2003, 40-54.
Murray, J. C., Erwin, H. R., and S. Wermter, "Robotic sound source localization using interaural time difference and crosscorrelation", presented at KI-2004, September 2004.
Fornari, J.; Maia Jr. A.; Manzolli, J.. “Generating Soundscapes Using Evolutionary Spatial Control”. In Proceedings of
EvoWorkshops, EvoMusarts, Spring-Verlag: Berlin. pg 517-526, Valencia. 2007.
Alive Music
Tuti Fornari
(José Fornari)
Núcleo Interdisciplinar de Comunicação Sonora- NICS
UNICAMP
[email protected]
Art was always related to technology. Among pre-historical musical instruments discovered in
excavations, perhaps (and arguably) one of the oldest ever found, it is a flute made of a bear femur,
that is dated of over 40,000 years old, and able to play four notes of the diatonic musical scale [1].
Percussion instruments are found in archaeological sites, and dated back to the paleolithic period.
Even animal species, such as some monkeys, are known to build rudimentary drum-like
instruments, playing with wood logs and branch sticks. In fact there is no registry of a human
civilization that did not have any form of musical expression. Along of the modern human history,
there have been a great deal of effort in developing technologies to perfect musical instruments. The
Kunsthistorisches museum in Vienna, has an impressive collection of ancient instruments, where it
is possible to follow the march of technological advances that families of musical instruments,
specially the Western ones, undergone along of the centuries. String, Plucked, Keyboard, Wind
instruments, all suffered large modifications in their material and mechanics. What we see now
performing in an Western musical orchestra is the result of an evolutive process of musical
technology, that preserved and perfected the best-fit solutions and abandoned the ones that were not
musically adequate.
In the 18th century, about a century after the physician William Gilbert coined the term “electricity”,
after his studies on electricity and magnetism, several musical instruments exploring its new media
were build, such as the Denis d'or, the first dated electrical musical instrument, invented by Václav
P. Diviš [2]. This was the first musical usage of electricity on records. It was a keyboard instrument
were electrified strings were struck and its vibration would create electro-magnetic oscillations, thus
corresponding to mechanical oscillation, (i.e. sounds).
In the early 20th century, the triode (later named as “valve”), the first device able to amplify a
current of electrons, invented by Lee de Forest, marked the begin of the electronic era. This was
followed by the creation of semiconductor technologies, in the 1950s, that allowed the
miniaturization of large number of transistors (the semiconductor equivalent of a triode) into
integrated circuits. Music technology already have started to use electronics to develop instruments,
such as the Theremin. This instrument generates a constant sine-wave that is independently
controlled in intensity and pitch by the player without contact of their hands, but only by its
proximity with two loop antennas [3]. With the advent of semiconductors, technology could use the
logic previously developed by George Boole in the 19th century, the Boolean logic, for the
development of digital circuits, which is regarded as one of the foundation of computer science.
Electronic and computing technologies helped to reshape some aesthetic principles of music. By
allowing musical recording and processing, music was no longer an evanescent form of art that
existed only in the form of music notation or as memory of a performance or a trace of cultural
heritage. Now, music gained a materiality and form, similar to the visual artworks. Manipulation of
music material, through electronics, let the artists to explore real-time sonic alterations, as seen in
the phase vocoder, that independently manipulates sound in its time and frequency domains [4].
Alongside, music synthesis were also vastly developed. Specially with computers, timbres never
heard before in nature, could now be created by different techniques, such as additive, frequency
modulation syntheses and sampling techniques such as wavetable [5].
Computer science also advanced towards the attempt of emulating the way nature (i.e. natural
selection) and the brain are able to solve problems that are not deterministic, meaning by that a
problem that can not entirely defined by an exact mathematical method. One of these bio-inspired
methods is Evolutionary Computation (EC), a branch of Artificial Intelligence that emulates the
natural selection process as defined by biological theory of evolution, in which the genetic material,
or genotype, of individuals within a population adapt to better fit dynamic and unpredictable
environmental conditions. As it happened before, music can take advantage of such adaptive
computer technologies to synthesize sounds and create music material in a way that was never done
before. With such methods sonic environments can be created, similar to what happens naturally, in
self-organized acoustic systems known as soundscapes. Self-organized systems are typical open
systems that autonomously increase their complexity and may present emergent properties [6]. A
soundscape is the acoustic correspondent of a visual landscape, and, as such, has the feature of
retaining a cognitive (and even affective) identity, although their formant acoustic material is
always being renewed, and never repeats itself. This creates the immersive sensation as a typical
emergent property featuring in any soundscape. Immersion generated by variant similarity
resembles the complex organization of a population of individuals, and it may also be seen as a selforganized system.
Undoubtedly, deterministic methods of computer technologies were foundamental on the creation of
real-time, on-the-fly music analysis, processing and synthesis, that underpin the concept of Live
Electronics from the 1960s, term coined by musicians members of Milton Cohen's Space Theater, in
Michigan, later passed to the Pop Electronic Music, in the 1970s, with the appearance of musicians
such as: Jean Michel Jarre, Vangelis and bands such as: Devo; expanding till nowadays.
Lately, as portable computer became more affordable and with the existence of several open-source
programming languages for music and video real-time performance, such as: ChucK, Csound,
SupperCollider, Processing and PD, musicians have adventured on the creation of programs during
musical performances. This is known as: Live Coding. This article deals with the possible next step
on the computer-assisted musical creation scenario; the usage of adaptive methods such as EC to
create a meta-composition ambient, in with the system takes over the process of music generation,
where the artist, metaphorically speaking, behind the curtains of musical performing time and
space, delineates the compositional structures and guide the creation of soundscapes.
DJ: Live
As the electronic music technology reached a certain level, recorded music could be easily accessed
and transmitted, specially by the radio stations. Musicians could now have their production
broadcasted to a greater audience then concert halls as their music could be recorded in
phonograms, and later in compact discs. A great deal of musical recording was naturally beginning
to pile up. To handle all this music production and organize music-lists that would be played by the
radio stations, a new profession started to appear. The term DJ, short for Disk Jockey, was initially
coined to refer to the professionals that manipulated recorded music, in any media, by organizing
the musical radio program. Later, Djs started to give artistic meaning to their work. With digital
technology, audio could be easily accessed and manipulated from laptops and commercial softwares
tailored for this purpose. However, digital media lacked the possibility of manipulation of analog
machines, such as turntables. A computer typically has as input entry a mouse with two buttons and
a keyboard. The technology developed before the digital media has far more intractability with
human. The classical example is the turntable that was preserved by Djs up to now.
As it happened before, when a system get too complex, it tends to follow two possible ways: 1) be
fragmented and distributed, or 2) be extinct. In the case of the music media, as digital media helped
tho boom the creation of recordings, the figure of a Djs shown up, to take care of its organization.
As the system becae even more complex, Djs started to also to participate in the artistic creation.
Today is common to see a Djs performing together with bands, as another musician. They
manipulate music in its most solidified acoustic form, the recording. Similarly to what may have
happened centuries ago, when music notation was initially developed. At that time, the interpreter
was only a servant, in charge of bringing back to life the music embedded into the notation. As
music developed, the interpreter started to take more part of the artistic action, until a time when
they were revered as virtuosos and divas. We see it even today, classical and pop musicians that are
taken as celebrities, often overshadowing the contribution of the composer into the music creation.
For the history of music, Djs are certainly a recent phenomenon, but it is already possible to infer a
correlation between them and the interpreter musicians from the past. They also have a technique
that is new, the computer literacy, even performing live coding, as said before. This is comparable
to the virtuoso with a keen sight-reading or sharp-clear fingering. It is almost astonishing to realize
how many great musician from the old school are not able to understand the rudimentary steps of
computer programming, or even its basic usage.
Darwin is Alive
Natural selection was initially proposed by Charles Darwin. It not only tossed suspicious on man's
divine heritage but present a scientific model in the way by which nature solve problems without
knowing all of its extension. Richard Dawkins describes its evolutionary process as the work of a
blind watchmaker, crafting complexes devices without seen all their components. In theory, without
the tight guidance of an intelligent designer, natural evolution was still able to self-organize all life
forms. From this model, computer science brought the EC methodology, as previously introduced.
In an EC system, there is a population of individual. Each one is a possible solution for a given
problem. This problem usually is a very complex one, so much that it can not be reasoned by exact
mathematical models. There is also another set of individuals, the Target set. They represent the
environment conditioning. On the population set, individuals will participate of the processes of
reproduction and selection. The selection process will determine the fitness criteria, according to the
Target set individuals, that will eliminate all individuals within the population there are not enough
fit to the environmental condition, expressed by the Target set. The reproduction will create new
individuals within the population. From this point, there are a myriad of variations that are possiblr
to be incorporated in a evolutionary system. Some of them are: Individuals with (or without)
gender, New fitness functions, Synchronous (or asynchronous) generation steps, etc.
In computer science, EC is normally used as a solving-problem technique. Nevertheless, natural
selection, that inspired this method, does not seem to be interested in end results, but in the process
itself. Nature doesn't seem to care whether a specie comes to extinction or if a forest is devastated in
a natural firestorm. It is the never-stopping, dynamic, ongoing process, that seems to be the
paramount of natural selection. No matter what is done, how many individuals or species disappear,
natural selection always strive, showing its sentiency as new species are always formed, new forests
are created and unexpected solutions are always surprising our scientists.
Music is an art where the process is usually more important that the end result. This is especially
truth in processual artworks. The EC methodology can be applied in music similarly as the natural
selection process, above described. This was done in several models. The important distinction that
need to be made here is that the sound resulting from an EC system is (still) not a piece of music but
a sonification process, what we described before, as a soundscape. Creating human-like music, may
be an impossibility to any kind of adaptive process as they lack the cognitive and, specially,
affective responses of a human mind. As music is, in a way, communicating contextual information,
there is still to be developed models in which this sort of information can be recorded and used by
an autonomous computer system, even though it is inspired in nature.
Evolution of Gestures
When an artist manipulates its tools in order to accomplish an artwork, their movements are done
with the intention and care of crafting an artistic object in a given specific media. In the case of
music, it is seen during the expressive performance or when crafting new sounds in a recording
studio. The set of actions and movements are then embodying the prosody of an artistic discourse.
This is named here as the artistic gesture; a movement with an artistic intention. Lately, several
technological interfaces have been developed to grasp the human gesture. They are named as
gestural interfaces because they capture, normally in real-time, human movements and map them in
computer as parametric controls. They are of prime importance for artists and musicians. As said
before, computer technology tools have been lacking in presenting reliable gestural interfaces, as
they existed along of the pre-computing history of art (a pencil, a paint-brush, a piano keyboard and
pedals; they all are great gestural interfaces for their artistic media).
Recently, we experienced with two types of gestural data. One from conceptual drawings and the
other from body movements of dance. We collected these data and used them to create genotypes of
individuals in an evolutionary system to create soundscapes. Here we briefly describe our
experimentation.
Gestures from Drawings
We started with a large collection of conceptual drawings (over 200 sketches) that are very similar
but, as they were hand-made, never identical to each other. They were all created through the
repetition of a similar, back-and-forth gesture. This naturally creates a collection that resembles a
biological population of individuals belonging to the same specie, although, its correspondent
evolution only occurred during its artistic process of creation. Figure 1 shows 8 examples of this
drawing collection.
Figure 1. Eight examples of the conceptual drawings
By using an EC method, it seemed possible to develop an installation in which characteristics of
each drawing could be mapped into individuals genotype and then gathered into a population of an
evolutionary system, where its continuing evolution creates a dynamic soundscape.
Figure 2.Detail of the mapping of a conceptual drawing.
The first step was to establish a method to map the drawing features into sonic features. Figure 2
shows, on the left, a detail of the digital image of an original drawing belonging to the collection.
On the right side, it is shown the mapping of this image, done by an algorithm developed in Matlab.
Note that the mapping collects several objects belonging to the same image. Each object has several
features associated with it, and some of them are imprinted at the left side of each object.
By analyzing these objects, we considered that they belong to three types that, altogether
characterize the “individuality” of each drawing. Such graphical elements are found in all drawings.
They are here named as: Cumulation, Repetitions and Fragments. Cumulation is the biggest object
belonging, to the image so, there is only one cumulation per drawing. It is a concentration of paint
at the bottom of the image, where the gesture initiated. Repetitions are objects with a stretched
shape. They are quasi-parallel traces at the middle of the drawing, generated by the back-and-forth
gesture. Fragments are small, detached and circular spots of paint dripped at the outlying parts of
the drawing, due to the gesture intensity. Following that, we related each graphical element with a
single sonic aspects that seems to synesthetically represent, in the acoustic domain, each graphical
aspect of the drawings. We related the object Cumulation to stochastic low-frequency sonic
features, steady and of long duration. Repetitions were related to tonal sounds, middle-range
frequencies and time variation. Fragments were related to short-time variations and sparks of either
stochastic or tonal sounds. Each image mapped generates several graphic objects, one being the
cumulation and the others, fragments and repetitions. Each object has several features associated
with it. They are mapped as the matrix M(6x100) with the genotypes for the initial individuals
starting the evolutionary system.
We use the projection of the objects shape in the coordinates to create a time series of 100 elements.
For tonal sounds, we used its horizontal projection. For stochastic ones, it was used the vertical
projection. The distortion was given by the difference between horizontal and vertical projections.
Then, each projection was circularly shifted according to the distance of its object to the image
origin. The tonal intensity curve is the blend of all horizontal projections modulated by each object
eccentricity parameter. Tonal frequency curve is the blend of all vertical projections modulated by
the respective objects normalized angle of orientation. Tonal distortion is the blend of the
difference of projections modulated by the inversion of eccentricity. The stochastic intensity curve
is the blend of all horizontal projections modulated by each object square of normalized area. The
stochastic frequency is the blend of all vertical projections modulated by the respective objects
normalized angle of orientation. Stochastic distortion is the blend of the difference of projections
modulated by its eccentricity.
Gestures from Dance Movements
Rudolf Laban, a famous choreographer and movement theoretician, in his work, known as, the
Laban Movement analysis [7] postulated eight types of Basic Movement that are the combination of
three independent categories of Effort Actions (Space, Weight and Time). They are: Float, Punch,
Glide, Slash, Dab, Wring, Flick, and Press. These actions have been used by some schools of acting
and dance as movements embodying specific emotions. The InfoMus Lab, has developed the
software EyesWeb, a multimodal interactive systems for the real-time analysis of movements and
acquisition of expressive gesture [8]. Here at Unicamp, in a collaboration between NICS and the
Interdisciplinary Group of Theater and Dance, a performance called Elementaridades was
developed, inspired in the physical movement of particles of matter, and its application of Rudolf
Laban´s principles of movement in dance [9].
In order to collect this movement data, we used as gestural interface two Wii remotes (Wiimote) and
their accessory, the Nunchuck. Each one of the four units (2 Wiimotes and 2 Nunchucks) has
embedded an accelerometer that transmit wirelessly, via bluetooth, the real-time acquisition of
seven parameters. Three of them are named, in aviation terms, as: yaw, pitch and roll. They referred
to the accelerometer rotation around each of its possible spatial axes [10]. The next four parameters
transmitted are: x, y, z (for each axis rotation raw angle) and accel (raw acceleration movement
data, disregarding its direction).
The data was collected by a PD patch that we developed that recorded each movement in
synchronism with the seven parameters of each of the four accelerometers (given a total of 28 time
series) sampled at every 50 milliseconds. The accelerometers were attached at the dancer's knees
and elbows. The resulting data was given as a text file, automatically created by the patch.
Table 1 shows the body actions described by Rudolf Laban and its formant aspects. The movements
were performed according to the premisses shown below.
Table 1. Body Actions, as described by Rudolf Laban
Action
Space
Weight
Time
Sliding
Direct
Light
Slow
Fluctuating
Flexible
Light
Slow
Punctuating
Direct
Light
Rapid
Shaking
Flexible
Light
Rapid
Pressing
Direct
Firm
Slow
Twisting
Flexible
Firm
Slow
Punching
Direct
Firm
Rapid
Whipping
Flexible
Firm
Rapid
These eight body movements were recorded and processed by the PD patch. The Figure 3 shows
two random scenes, with image processing to pinpoint the movement trajectories, of the body
actions recorded while the gestural data was collected in real-time by the wireless interfaces. The
figure at the left side shows a moment were the dancer is less active, almost standing still. The
figure at the right side depicts a moment were the dancer is very active, waiving her arms, where
they almost disappear of the image. It is possible to see, as a detail, particularly in the left image,
two of the four accelerometers attached at the dancer's thighs and elbows.
accelerometers
Figure 3. Scenes of the body actions recordings.
With these interfaces, it was possible to collect gestural data out of the body movements, wirelessly
and in real-time. Figure 4 shows a detail of the collected data, as time series, by one of the four
accelerometers. It shows the 7 curves of: pitch, roll, yaw, acceleration, and raw coordinate angle
data: x, y and z.
These time series were then used to create the matrix M(6x100), corresponding to the individual
genotypes that initiate the population of the evolutionary system. The six arrays compounding each
genotype were fed with data processed from one specific body action recording. In the
implementation, we translated the mean variation of the accelerometer parameters attached to the
dancer's elbows to the tonal intensity and tonal frequency. Similarity, the ones attached to the thighs
were translated to stochastic intensity and stochastic frequency. The tonal distortion was translated
from the difference between tonal intensity and frequency, as well as the stochastic distortion was
given by the difference between stochastic intensity and stochastic frequency.
Figure 4. Implementation of the Individual as Pd subpatch.
Live -> aLive
The evolutionary sound synthesis, as originally proposed in [11] has a population of individuals, a
Target set and two evolutionary processes: 1) reproduction and 2) selection. The Target set guides
the evolution process, similarly to the environmental pressure in a biological populations. Selection
applies a fitness function on the population individuals to find the best fitted one, according to the
sonic characteristics, found in the Target set. Reproduction uses the genetic operators: crossover and
mutation to create new individuals, offsprings of each individual population and its best individual.
Here we took a slight different approach. We started our population with few individuals, which
genotypes were mapped from a select group of drawings. Then, a variable-size population starts to
be created. The output sound is given by the coexistence of all population individuals, which creates
the dynamic soundscape. Figure 5 shows the implementation in PD of the reproduction process.
This figure shows, on the top, twelve tables. On the left side, there are six tables. They belong to the
genotype of the first individual. In the same way, on the right side, there are the correspondent six
tables with data from the genotype of the second individual. The genotypes are mappings from the
gestural data (drawings or movements) and stored as text files. These text files have the same
organization. They are formed by seven lines, finished with a semicolon. The first line can be either
the word “active” or “inactive”, that informs the evolutionary system whether this individual is
active or not, where active means that this individual is “alive” and can be chosen by the abstraction
shown in the Figure 5. The other six lines represent one of the six arrays of the individual genotype.
Each line is a sequence of one hundred normalized real numbers (from -1 to +1). They receive the
data from the gestural matrix M(6x100).
Individuals are also implemented as a PD abstraction. Each individual is an instantiation of this
abstraction which one numeric argument. By this argument, the instantiation reads the
correspondent genotype text file. The initial arguments are used to pass its unique name to all six
arrays belonging to each individual genotype. Using the ITD sound location technique, as described
before, we emulate the individuals dynamic location, as if they were moving inside of a spatial
position field. The casual encounter between individuals raises the chances of an offspring creation.
This process entails to a varying-size population, different from the initial ESSynth method, were
the population had a fixed size. Another distinction is that the output sound in ESSynth was given
by the queue of best individuals of each population generation (audio samples of several ESSynth
simulations are available at: www.nics.unicamp.br/~fornari). In this work, the sound output is
given by all individuals coexisting at each moment with the variant population. This also creates the
possibilities of population extinction, by the reducing of its number of individuals to zero, as well
as to reach a super-population plateau, in which all computational resources of the machine, running
this Pd patch, would be in jeopardy. We can set thresholds to avoid these two extreme scenarios but
the natural variation of population size inside these limits is enticing and welcome for this artwork
perspective.
Figure 5 also shows that, the data from two groups of six tables on the top; the genotypes of two
active individuals, are used by the genetic operators to create the group of six tables shown on the
bottom; the genotype of the offspring individual. This is done by the genetic operators: crossover
and mutation, implemented in the sub-patch “pd genetic operators”, as seen in this Figure. This subpatch receives two normalized scalar variables, from the vertical sliders. As labeled, they are the
coefficients of the genetic operator rate. These parameters go from zero to one, meaning going from
no to full genetic operation. They can be set on-the-fly by the user.
Similar to the ESSynth original method, this implementation also embodies the paradigm of variant
similarity. However, with the sound output resulting from a dynamic population formed by all
active individuals generated by the reproduction process, a soundscape will be naturally selforganized.
Figure 5. Implementation of the Reproduction process.
Conclusions
This article discussed what we perceive to be a possible next step in the evolution of Live
Electronic Music, what we named here as aLive Music. This will take advantage of adaptive
computational methods for sound synthesis, algorithmic music composition and generation of
soundscapes. Here we presented our endeavors on this subject. We experimented with the
implementation in PD of an evolutionary soundscape system that used as genotypes data from
artistic gestures. In this work, we used two types of gestures; from the mappings of graphic objects
within conceptual drawings and from the acquisition of body actions in dance movements. We
found the results enticing (they can be accessed at the link: www.nics.unicamp.br/~fornari ) as they
create an immersive sonic ambient by the variant similarity of individuals within the sonic
population. As it can be seen (and listened), this system is still in its early stage of development. It
can be extended in many forms and expanded in several directions. The goal is to develop a set of
rules and structures to work as a selection process in the evolutionary ambient, so the sonification is
not just immersive as it is now, but also musical. For that, we mean the ability of this dynamic
soundscape to present a prosody that may turn to have cognitive and affective context for its
listener. This is an great challenge that can bring unexpected results to the musical scenario. A
system that is able to create musical content out of atomic rules is something that will certainly
change the concept of what is a musical composer. That will come closer to the concept of a
software programmer, or better, the system designer. Along music history, luthiers and musicians
cyclically merged and dispersed, as technology advanced to new medias. Bach used the equaltemperament system, at his time still not formalized, to compose the well tempered clavier. Haydn
and Beethoven helped in testing and suggesting changes into the design of the uprising new
keyboard instrument, the Pianoforte (later known as Piano), while being developed by Broadwood.
In the 1960s, Wendy Carlo, helped spreading the usage of electronic synthesizer genuinely as a
musical instrument, by recording in a keyboard custom tailored by Robert Moog. Similarly, we may
now be facing a historical moment alike, where programming design is merging to the art design.
We see examples of open-source software that are free, multi-platform, developed by a great
number of volunteers, and specialized into the design of real-time multimedia programming, such
as: Processing, SuperCollider and PD, among others. In our opinion, PD seems to be the one that
most comes closer to the philosophy of tailoring a truly new technological meta-notation score, as it
is economic graphical interface is not an input of sequential lines of code but a visual programming
architecture that emulates the parallel processing of multimedia. Science and Art seems to be only
separated by a scaling factor in complexity. What can not be reasoned by analytical thinking may
turn to become artistic, which can only be solved by intuition and creativity. Charles Sanders Peirce
referred to that as the abductive thinking. Einstein also touched this point in his famous quote:
“Imagination is more important than knowledge”. Both thinkers, among others, considered vastly
more important the creative thinking than the analytical one, as creativity is the only way to
increase system information. In an analogy, we may say that analysis build the puzzle with the
pieces build by creativity. This is becoming more and more evident in computer science, as the
number of problems to be solved tends to increase faster than the number of solutions. Distributing
processing, linked by the internet, connects machines and people likewise, as synaptic connections
of a collective brain. This may start to self-organize itself in a collective consciousness. Meanwhile,
music is influenced by this process and start to show the melting of classical pinnacles such as the
centralized unitary composer. After the wavetable synthesis, Djs now does what could be defined as
musictable synthesis, by artistically manipulating music during performance. Now, adaptive method
may show their usage in music creation. Some examples are already showing up, such as the
impressive AtomSwarm, and several others academic tryouts, mostly presented in the EvoMusart
workshops. Our approach takes a step up by experiencing with multimodal gestures as the
embodiment of the artistic genesis. We hope this will open the doors for further research and artistic
endeavor with this new way of making music and art.
Acknowledgements
The conceptual drawings shown here were made by Mariana Shellard. The dance movements were
performed by Tatiana Benone. This project was funded by Faepex, at UNICAMP (University of
Campinas) where the author is researcher.
References
[1] Tenenbaum, David (June 2000). "Neanderthal jam". The Why Files. University of Wisconsin,
Board of Regents. http://whyfiles.org/114music/4.html. Retrieved on 14 March 2006.
[2] Tübingische Berichte von gelehrten Sachen, XXX, July 1754, p. 395.
[3] Glinsky, Albert, Theremin: Ether Music and Espionage. Urbana, Illinois: University of Illinois
Press. 2000.
[4] Serra, X. 'A System for Sound Analysis/Transformation/Synthesis based on Deterministic plus
Stochastic Decomposition', p.12 (PhD Thesis 1989).
[5] Martin Russ. Sound Synthesis and Sampling, Second Edition. (Music Technology). Focal Press.
ISBN-13: 9780240516929. 2004
[6] W. Ross Ashby (1947), "Principles of the Self-Organizing Dynamic System", Journal of General
Psychology Vol 37, pp. 125–128.
[7] Pforsich J., Handbook for Laban Movement Analysis. Written and Compiled by Janis Pforsich.
1977.
[8] Mancini, M., Castellano, G.. Real-time analysis and synthesis of emotional gesture expressivity,
in Proc. of the Doctoral Consortium of 2nd International Conference on Affective Computing and
Intelligent Interaction, Lisbon, September 2007.
[9] Maia, A., Lopes, J., Manzolli, J., Valle, R. ELEMENTARIDADES Projeto de Composição
Algorítmica e Arte do Movimento realizado entre o NICS (Núcleo Interdisciplinar de
Comunicação Sonora) e o GITD (Grupo Interdisciplinar de Teatro e Dança) da UNICAMP
baseado no modelo físico do movimento das partículas elementares da matéria. 2001.
[10] LaValle, S., Planning Algorithms. Cambridge University Press. 2006.
[11] Manzolli, J., Fornari, J., Maia Jr., A., Damiani F. The Evolutionary Sound Synthesis Method.
Short-paper. ACM multimedia, ISBN:1-58113-394-4. USA. 2001.
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
Aplicações artísticas de ubimus
MODALIDADE: PAINEL Desafios da pesquisa em música ubíqua
José Fornari (Tuti)
NICS / UNICAMP – e-mail: [email protected]
Resumo: Ubimus, ou música ubíqua, trata da música computacional feita por diversos usuários,
próximos ou remotamente localizados, cuja interatividade é propiciada e mediada pela tecnologia
informacional, tais como os recursos oferecidos pela: internet, telefonia móvel e redes sociais do
cyberspace. Este trabalho apresenta 7 frentes de pesquisa relacionadas ao ubimus que, apesar de
distintas, se interseccionam e convergem no sentido de fomentar o desenvolvimento de aplicações
artísticas para este específico e original tipo de arte sonora computacional.
Palavras-chave: Música ubíqua. Arte sonora computacional. Interfaces gestuais, Síntese sonora
Title of the Paper in English Challenges of the ubiquitous music research: ubimus artistic
applications
Abstract: Ubimus, or ubiquitous music, is the computer music made by many users, nearby or
remotely located, whose interaction is fostered and mediated by information technology resources,
such as the ones offered by: internet, mobile communication and the social networks of
cyberspace. This paper presents 7 fields of research directly related to the ubimus that, although
distinct from each other, intersect and converge toward the development of artistic applications for
this specific and unique type of computational sound art.
Keywords: Ubiquiotus music. Computational sound art. Gestural interfaces. Sound synthesis.
1. Introdução
Música ubíqua, ou Ubimus (de Ubiquitous Music), pode ser definida como a
música feita por múltiplos usuários, usando uma variedade de dispositivos tecnológicos, tanto
fixos quanto portáteis [Keller 2009]. A idéia desta forma musical está relacionada à fusão
entre a computação e o ambiente, tal como proposta por Mark Weiser no final dos anos 1980,
que iniciou o trabalho em computação ubíqua [Weiser 1991]. Atualmente existem diversos
grupos trabalhando em música móvel (por exemplo, a música criada com celulares e
smartphones). Porém, até 2008, ao que se sabe, não existia qualquer proposta formal e
sistemática de estudo e performance de música ubíqua.
Este trabalho apresentará distintas linhas de pesquisa da música ubíqua, primando
pelas suas aplicações artísticas e aspectos performáticos musicais. Tais linhas convergem para
a Ubimus através da criação de métodos e modelos frequentemente utilizados em
performances de música ubíqua. Neste trabalho, serão apresentadas as seguintes linhas de
pesquisa: Métodos adaptativos; Descritores musicais; Interfaces gestuais; Arte sonora remota;
Arte sonora interativa; Multimodalidade; e Música Auto-Organizada.
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
2. Métodos adaptativos
Métodos adaptativos são modelos computacionais capazes de, até certo ponto, de
modificarem sua estrutura algorítmica, de acordo com o comportamento de sua entrada. Um
desses é a computação evolutiva, que é inspirados no processo de evolução das espécies, tal
como inicialmente formulado por Darwin, e baseado nos processos de reprodução e seleção.
Dentre estes modelos, destaca-se aqui a instalação multimidiática RePartitura. Este trabalho
trata do mapeamento sinestésico de uma série de desenhos em objetos sonoros, que compõem
uma paisagem sonora (soundscape). A imagem de um desenho é aqui vista não como um fim,
mas como a representação de uma forma no decorrer do tempo. Esta por sua vez é o registro
de um gesto, que é um movimento contendo uma intenção expressiva. O som, aqui visto
como objeto sonoro, é uma unidade formadora de um sistema maior que evolui através de
processos adaptativos na direção de uma paisagem sonora sintética auto-organizada.
Repartitura foi um dos ganhadores do prêmio Itaú Cultural Rumos, na categoria: Arte
Cibernética [Shellard 2009]
Uma outra aplicação de computação evolutiva na criação de soundscapes é o
“EvoPio”. Este é um algoritmo adaptativo que cria uma paisagem sonora artificial de cantos
de pássaros dinâmica e interativa. Estes são criados através de um modelo físico de siringe.
Não existem sons gravados neste modelo. A paisagem sonora criada jamais se repete, mas
sempre mantém uma similaridade acústica. Os usuários podem inserir novos "pios" na
população virtual através do Twitter. Basta enviar uma mensagem com a palavra "evopio"
que esta será transformada em tempo-real num novo "indivíduos", ou seja, um canto de
pássaro que fará parte dessa população artificial. Link: http://goo.gl/Kku7xZ. EvoPio foi
apresentado durante o TEDxSummit de 2012, no Qatar; numa breve apresentação do autor,
que pode ser assistida através do link: http://goo.gl/qVtAHF.
3. Descritores musicais
Descritores musicais são algoritmos capazes de coletar informação de aspectos
sonoros específicos, tal como a audição humana é capaz de realizar. A utilização destes
descritores em Ubimus permite a criação de modelos mais alinhadas ao processo humano de
percepção e cognição musical. O desenvolvimento de descritores vem da área de MIR (Music
Information Retrieval); uma ciência interdisciplinar, iniciada no final da década de 1990, se
dedicada a estudar e coletar aspectos musicais tais como são percebidos pela audição e
identificados pela mente humana. A literatura de MIR define “descritor musical” como um
modelo computacional capaz de predizer aspectos musicais emulando a capacidade perceptual
e cognitiva humana. Um aspecto musical é uma característica única da informação musical
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
que é facilmente distinguida pela mente. Estes podem ser qualitativos (ex: gênero musical),
ou quantitativos (ex: pulsação rítmica, complexidade harmônica). Descritores simbólicos
predizem aspectos musicais pela coleta de dados paramétricos musicais, como os da notação
musical (partituras) e de arquivos MIDI (Musical Interface Digital Instrument). Descritores
acústicos coletam dados de arquivos de áudio. A música, como expressão artística, apresenta
três áreas de atuação: Análise musical (o estudo da lógica de estruturação de uma peça
musical), Composição (o processo de estruturação de uma criação musical) e Performance (a
manifestação sônica da estrutura composicional). Este projeto deu prosseguimento à pesquisa
do autor em seu PosDoc no projeto Europeu: Braintuning (www.braintuning.fi) onde
desenvolveu algoritmos de aquisição de aspectos musicais que apresentaram grande
eficiência, tais como em [Fornari 2008]. Este projeto tratou de estudar, classificar e
desenvolver novos descritores musicais, afim de aplicá-los em processos de análise,
performance e composição musical e foi financiado pela FAPESP, processo: 2010/06743-7.
Utilizando o desenvlvimento dos descritores mencionados acima, [HIGUCHI
2010] desenvolveu um estudo sobre a distinção automática de performances pianísticas de
cunho expressivo e de cunho técnico. Segundo a autora, estudos anteriores têm demonstrado
uma forte correlação entre técnica e expressividade na execução pianística. Este trabalho
objetivou entender melhor a influência da cognição e da emoção na expressividade musical.
Para tanto, execuções pianísticas de nove interpretes, com atenção direcionada aos aspectos
cognitivos, foram comparadas com execuções de outros 9 pianistas, porém com a atenção
voltada aos aspectos emocionais. Para tanto foram utilizados dois descritores musicais. Estes
demonstraram que as performances afetivas, apresentaram mais legatos e menor precisão
rítmica, quando comparadas às cognitivas. Os resultados deste estudo apontaram para o fato
de ser possível utilizar descritores musicais para auxiliar na classificação de performances
pianísticas. [HIGUCHI 2010].
4. Interfaces gestuais
Interfaces gestuais são ferramentas essências nas performances de ubimus. Estas permitem
coletar dados do movimento em tempo real e transmiti-los de modo a controlarem modelos
computacionais de processamento ou síntese sonora. Dentre estas aplicações, destacamos aqui
CybeRITMO. Esta é uma performance de arte interativa onde um grupo convidado de
percussionistas irão realizar um evento performático com instrumentos musicais virtuais,
desenvolvidos através de interfaces gestuais comerciais (Wiimotes) que se comunicam com
patches de PD (PureData) e assim realizam em tempo real a síntese de diversos instrumentos
musicais percussivos. Utilizam-se aqui diversas técnicas de síntese sonora, entre elas a Linear
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
Aditiva, a Karplus-Strong, a Wavetable, a Subtrativa e a de Filtragem, para a criação das
formantes vogais (voz digital). Os instrumentos virtuais inicialmente se apresentam bastante
parecidos com os instrumentos tradicionais (ex. um surdo, um chocalho, um berimbau, etc.)
porém, estes podem realizar parametrizações extremas de suas propriedades pseudo-físicas,
atingindo facilmente sonoridades impossíveis aos instrumentos tradicionais, desse modo
possibilitando ao interprete a exploração intuitiva de recursos artísticos estendidos, que são
fisicamente intangíveis. Este projeto foi finalista do Festiva Internacional de Linguagem
Eletrônica de São Paulo, o FILE PRIX LUX 2010, na modalidade: Arte Interativa. [Fornari
2010]
O Cyberitmo foi desenvolvido a partir da vivência proporcionada pelo projeto de
extensão comunitára PREAC 2009, na Casa de Cultura Tainã (www.taina.org.br). Esta é uma
entidade cultural e social sem fins lucrativos fundada em 1989 por moradores da Vila Castelo
Branco e região de Campinas, SP. Sua missão é possibilitar o acesso à informação,
fortalecendo a prática da cidadania e a formação da identidade cultural, visando contribuir
para a formação de indivíduos conscientes e atuantes na comunidade, atendendo em média
450 crianças e adolescentes a cada mês e 1.350 pessoas indiretamente, através de atividades
sociais, oficinas e shows, realizados dentro ou fora da entidade. Uma entrevista com o
coordenador da Casa Tainã e uma performance musical com tais modelos computacionais,
pode ser assistida no link: http://goo.gl/Zb3SL0.
Estas interfaces gestuais também foram utilizadas por outras importantes ocasiões
acadêmicas. Citando uma delas, tivamos a apresentação com o grupo da Monash University,
liderada pelo Prof. Reiner (http://goo.gl/9WlfKQ), um professor associado de música, na
universidade de Monash, Austrália. Em abril de 2010, ele e sua equipe visitaram a UNICAMP
e também o NICS. Durante esta visita, apresentamos para ele diversas interfaces gestuais que
havíamos desenvolvido para a criação de Ubimus. Ele, juntamente com o Prof. Jônatas
Manzolli, coordenador do NICS, e seu aluno de doutorado, Adriano Monteiro, realizaram
uma performance improvisacional utilizando estas interfaces gestuais, criadas a partir de
acelerômetros que coletam movimentos em tempo real, transmitem estes dados por ondas
digitais de rádio, em protocolo bluetooth, e controlam modelos computacionais de sínteses
sonoras programados em Pd (www.puredata.info). O vídeo desta apresentação pode ser
assistido através do link: http://goo.gl/latHsQ
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
5. Arte sonora remota
A atividade performática em Ubimus se beneficia em muito através da utilização
de recursos computacionais de comunicação remota em tempo real. Desse modo diversos
usuários podem interagir musicalmente mesmo que distanciados geograficamente. Esta ideia
culminou num projeto aprovado pelo CNPq Universal, processo 474012/2010-7. Este projeto
criou um ambiente virtual, através do cyberspace da internet, para propiciar a interatividade
musical remota, entre artistas localizados em diferentes localidades geográficas, mas que
podem criar música juntos, em tempo-real, através do processamento de modelos
computacionais que emulem instrumentos musicais virtuais através de métodos de síntese
sonora que são controlados dinamicamente por dados gestuais dos participantes remotamente
distribuídos. Com isso pretendeu-se tornar possível a exploração dinâmica e intuitiva de
técnicas musicais contemporâneas de modelamento ecológico e música acusmática.
Seguindo esta premissa, foi desenvolvida a performance de arte sonora remota "A
Pedra". Esta explora a arte tecnológica contextual interativa, envolvendo a transversalidade
entre: Poesia Digital, Paisagem Sonora Artificial, Gestualidade Livre e Sonoridade
Improvisacional. Este projeto é inspirado no poema: "Havia uma pedra no meio do Caminho"
de Carlos Drummond de Andrade, e na tradução do conto: "The Rock", de Neale D. Walsch.
A primeira parte da narração é dada pela gravação original do poema "Havia uma pedra no
meio do caminho" narrada pelo autor (Carlos Drummond de Andrade). Em seguida, tem-se a
narração da tradução do conto "The Rock", pelo autor deste projeto. Através da câmera do
laptop, o usuário (no caso, o autor) controla o deslocamentos de 3 figuras icônicas, que
orbitam a grande esfera apresentada na animação interativa. Os deslocamentos dessas figuras
também geram os objetos sonoros agregados à narração. Desse modo uma paisagem sonora é
gerada através do controle gestual improvisado pelo usuário, agregando conteúdo e sendo
influenciado pela transversalidade entre poesia digital e paisagem sonora artificial. Este
trabalho foi selecionado para participar do FILE Mídia Arte que fez parte da exposição do
FILE São Paulo 2012 - Festival Internacional de Linguagem Eletrônica, que aconteceu no
Centro Cultural do SESI, localizado na Av. Paulista, 1313, na cidade de São Paulo, de 16 de
julho a 19 de agosto de 2012. Uma performance pode ser assistida através do link:
http://goo.gl/Uj4ZMZ
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
6. Arte sonora interativa
Em termos de interatividade, tEIMAS foi uma bem-sucedida experiência
performática em Ubimus. Esta é uma performance artística especialmente desenvolvida para o
EIMAS. Trata-se de um modelo de síntese aditiva interativa escrita em Pd. Em tEIMAS, temse 10 colunas de geração de dados simbólicos de controle da notação musical. Estes são
conectados com objetos de síntese sonora FM (frequency modulation) com randomização de
dados paramétricos, de acordo com os dados simbólicos. Estes são inicialmente gerados por
um objeto de análise de ataque sonoro (onset detection).
Outro interessante exemplo foi o “Patch Preto e Branco”, ou PPB. Trata-se de um
modelo computacional escrito na linguagem de programação de código-livre, especialmente
projetada para o desenvolvimento
de sistemas de performance de arte tecnológica; o
PureData, ou Pd . Em Pd, um modelo computacional é desenvolvido em um ambiente visual
de conexão de blocos de processamento de dados em tempo-real. Cada estrutura visual é
chamada de “patch”. O nome “Patch em Preto e Branco” é uma alegoria às teclas do piano, ao
pentagrama musical e ao ambiente visual do PD; todos estes são canvas “pretos e brancos”
desenvolvidos para viabilizar a criação de estruturas artísticas e musicais. Neste trabalho, foi
desenvolvida uma estrutura virtual de um octágono com nove retângulos de tamanho variável
(nos oito lados do octágono e no seu centro). Cada retângulo é um objeto sonoro
determinístico (tonal) e cada haste entre estes é um objeto sonoro estocástico (ruidoso). A
figura abaixo mostra esta estrutura.
Esta estrutura capta o som externo, pelo microfone do laptop, e calcula o seu pitch
(altura muscal) para criar os objetos sonoros dos retângulos e das hastes. Neste trabalho, temse dois laptops rodando simultaneamente estes patches. Um latop preto, roda um patch branco
e preto (como o da figura acima). O outro laptop roda um ptach com uma estrutura de cor
invertida (retângulos e hastes brancas e fundo preto). O resultado parcial (sem interatividade,
com um instrumento musical acústico e o segundo laptop) pode ser visto no link:
http://goo.gl/iW8gu2.
7. Multimodalidade
Multimodalidade trata da possibilidade de cooperação artística entre distintas
formas artísticas. Considerando que o Brasil é um país extremamente rico em cultura popular,
especialmente no que tange a criação de ritmos e suas respectivas danças. Ritmo e dança estão
assim intrinsecamente relacionados no contexto do gesto corporal e sua interveniente
correspondência musical. Se o movimento com intenção é o gesto, a dança pode ser definida
como a arte do gesto. Do mesmo modo, a música é
a arte dos sons, com intenção ou
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
significado. Sabe-se que os elementos que o compõe a música são: melodia, harmonia e
ritmo. De todos, o ritmo é o elemento musical mais intimamente relacionado ao gesto
corporal, seja referindo-se à ação corporal que gera o ritmo ou àquela que compõe a dança.
Atualmente, novas tecnologias permitem resgatar o gesto à arte computacional,
que havia sido relegada, frente à limitada capacidade de expressão oferecida pelas tradicionais
interfaces computacionais, tais como: o teclado alfanumérico do computador e o mouse.
Através da utilização de novas interfaces gestuais comerciais, como o Wii remote, é agora
mais factível capturar os gestos de dança e ritmo e intercorrelaciona-los, de modo a criar uma
interação sincrônica entre ambos, no contexto de uma didática coreográfica e musical. Este
projeto foi elaborado com o título: "Interatividade Gestual Dinâmica entre Danças e Rítmos
Brasileiros" desenvolvido na Casa de Cultura Tainã, em Campinas. Vídeos dessas atividades
podem ser vistos nos links: Improviso coletivo com diversos modelos de música
computacional interativa http://goo.gl/ipuQI2. Improviso da percussionista Glória Cunha com
o coordenador da Casa de cultura Tainã , TC Silva, utilizando os modelos gestuais:
Cyberitmos http://goo.gl/KMUuZl.
8. Música auto-organizada
Por fim, foi explorara a possibilidade geracional de notação musical através de
controle de modelos computacionais a partir de aspectos musicais de uma performance
improvisacional. Este projeto foi posteriormente intitulado de: SOM (Self-Organized Music),
que foi iniciado em cooperação entre o NICS e o CIDDIC. Este projeto foi aprovado pela
FAEPEX, Linha extensão: Auxílio às atividades artísticas, científicas e culturais (Convênio:
519.292 Correntista: 722/10). Originalmente SOM propunha criar uma apresentação musical
com a orquestra sinfônica da Unicamp, explorando o original conceito de música autoorganizada, chamada pelo autor deste projeto, pelo acronismo: SOM (Self-Organized Music).
Através da utilização de modelos computacionais dinamicamente controlados por interfaces
gestuais (equipamentos portáteis e sem-fio, de aquisição dinâmica de coleta de dados do gesto
artístico), serão desenvolvidos para este projeto, algoritmos computacionais de criação
musical dinâmica, de maneira que o gesto artístico passa a controlar a geração em tempo-real
de notação musical, que é continuamente executada pela orquestra durante a performance
artística. Em SOM, a performance musical da orquestra é realimentada pela contínua
interação acústico-cognitivo-gestual, onde os músicos executam a partitura que está sendo
dinamicamente criada pelo gesto. O resultado, após a performance, pretende ser uma partitura
orquestral original, que foi criada enquanto era executada, pela primeira vez, durante a
performance musical.
XXIV Congresso da Associação Nacional de Pesquisa e Pós-Graduação em Música – São Paulo – 2014
No segundo semestre de 2012, o CIDDIC aprovou o SOM como participante do
projeto PERFORMANCE, onde foram alocados 12 músicos da OSU (Orquestra Sinfônica da
UNICAMP) e um saxofonista que desenvolvia uma tese de doutorado em Improvisação livre
(Manuel Falleiros). O resultado foi registrado numa série de 4 vídeos que demonstram a
partitura sendo gerado pelo modelo computacional. Estes vídeos podem ser vistos no segunite
link: SOM - 1º Cordas (http://goo.gl/lqy2JB), 2º Madeiras (http://goo.gl/4lKom0), 3º Metais
(http://goo.gl/MMC6NC), 4º Orquestra (http://goo.gl/Wl3GCH)
9. Referências bibliográficas
WEISER, M. The Computer for the Twenty-First Century. Scientific American, v. 265,
n. 3, p. 94-101, 1991.
KELLER, D.; BARROS, A. E. B.; FARIAS, F. M.; NASCIMENTO, R. V.; PIMENTA,
M. S.; FLORES, L. V.; MILETTO, E. M.; RADANOVITSCK, E. A. A.; SERAFINI, R. O.;
BARRAZA, J. F. Música Ubíqua: Conceito e Motivação. In: CONGRESSO DA ANPPOM,
19., 2009, Curitiba. Anais... Curitiba: PPGM/UFPR, 539-542, 2009.
SHELLARD, M., Fornari. A Imagem É o Som. Article and Presentation. XIX
Congresso da ANPPOM. UFPR. Curitiba, PR. 24 - 28 de Agosto de 2009.
FORNARI, J., T. Eerola. Prosody of Expressivity in Music and Speech. Expressivity in
Music and Speech - EMUS. AGORA contemporary Music Festival. Paris, France. (2008).
FORNARI, J., T. Eerola. The pursuit of happiness in music: retrieving valence with
high-level musical descriptors. Computer Music Modeling and Retrieval - CMMR.
Copenhagen, Denmark. (2008).
FORNARI, J., T. Eerola. Automatic Estimation of Harmonic Complexity. Audio
Engineering Society Brazil Section - AES Brasil. Sao Paulo, Brasil. (2008).
FORNARI, J., T. Eerola. Estimating the Perception of Complexity in Musical Harmony.
The 10th International Conference on Music Perception and Cognition - ICMPC 10. Sapporo,
Japan. (2008).
HIGUCHI, Márcia K., José Fornari, João Pereira Leite. A Influência da Técnica
Pianística e da Expressividade na Articulação e Métrica da Execução Pianística. Trabalho
escrito aprovado, Música e Interface - Cognição. ANAIS da Anppom pg. 757 - 762. XX
Congresso da ANPPOM. Florianópolis - 23 a 27 de agosto de 2010.
FORNARI, J., CyberRITMOs: Interfaces Gestuais Musicais Inspiradas em Percussões
Brasileiras. Poster no III SIMTEC - Simpósio de Profissionais da Unicamp. de 25 e 26 de
Maio de 2010, no Centro de Convenções da Unicamp.
FORNARI, J., Interatividade Musical à Distância. 6o Encontro de Música e Mídia. 15 17 Setembro 2010. ECA - USP.
Um Estudo Comparativo entre Leitura Textual e Musical
Através da Audiação
Maria Lucila Guimarães Junqueira
IA - UNICAMP
[email protected]
José Fornari
NICS - UNICAMP
[email protected]
Resumo: O som é o elemento comum tanto à música quanto à linguagem. Em ambas, a
função do som é comunicar conceitos e incitar estados emocionais. Uma vez que estes
fenômenos são complexos, com enorme diversidade de âmbitos e contextos, este artigo
propõe estudar apenas alguns paralelos fundamentais entre a origem e o desenvolvimento
da comunicação sonora na musica e na linguagem. Para isso, utiliza-se aqui a “audiação”;
uma teoria de aprendizado musical baseada na compreensão do fenômeno sonoro, no
sentido de identificar o seu significado essencial. Parte-se do processo cognitivo de leitura
textual, onde se faz uma análise embasada em princípios da neurociência e da psicologia
cognitiva, através de estudos referentes à identificação das bases neurais da aprendizagem.
Levando-se em conta o consenso entre neurocientistas, de que os leitores, frente a um texto,
acessam simultaneamente, as duas vias de leitura: a lexical e a fonológica, infere-se a
possibilidade de utilização desta mesma estratégia na leitura musical.
Palavras-chave: Música, Linguagem, Audiação.
Title: A comparative study of textual and musical reading through audiation
Abstract: Sound is a common element in music and language. Since these phenomena are
complex, with great diversity of fields and contexts, this article proposes to study a few
fundamental parallels between the origin and development of sound communication in
music and language. For this, it was used “audiation”, a theory of musical learning based on
understanding of phenomenon to identify its essential meaning. The research starts from the
cognitive process f textual reading, by proceeding on analysis based on neuroscience and
cognitive psychology principles referring studies on identification of the neural bases of
learning. Considering the current consensus among neuroscientists, that establishes that
facing a text readers access simultaneously two-way reading, one lexical and one
phonological, this study infers the possibility of using this same strategy reading.
Key-words: Language, Musical Learning, Audiation
.
1. Música e Linguagem
Desde os primórdios da humanidade, o som vem sendo utilizado e organizado ao
longo do tempo de modo a criar tanto a música quanto a linguagem falada. É
conhecida a frase de Pinker (1997, p. 524), que compara a música a algo inútil,
mas extremamente sedutor; ao referir-se a esta como “auditory cheesecake”. Para
Pinker, a atração que a música exerce sobre o ouvinte teria bases evolutivas
semelhantes àquelas que tornam normalmente muito atraentes ao paladar
alimentos gordurosos e doces (como o cheesecake), pois estaríamos
geneticamente programados para apreciar, e a nos viciar, em alimentos muito
calóricos. Do mesmo modo que o cheesecake é saboroso porque representa um
hiperestímulo do paladar, para Pinker, a música é atraente ao ouvinte porque
representa um hiperestímulo da cognição auditiva, desenvolvida ao longo da
evolução especificamente para o entendimento da linguagem. Já para outros
pesquisadores, como Daniel Levitin,1 a música não é um efeito colateral da
evolução da linguagem humana, mas sua parceira, cumprindo uma função de
apoio e colaboração ao processo de comunicação humana, onde apenas a
informação semântica não basta. É também essencial para o entendimento de uma
mensagem compreender o contexto emocional em que esta se baseia.
Há muito tempo se questiona a maneira como a música é capaz de evocar
emoções no ouvinte. Os antigos atribuíam duas funções à música: a mimesis, uma
imitação ou transformação de uma realidade externa, e a catarse, a purificação da
alma através de uma experiência afetiva. A primeira função é representativa e
pode ser entendida como uma “teoria do conhecimento”; já a segunda função,
considera o efeito que a música produz na mente do indivíduo. Como salientaram
Juslin e Sloboda (1989, p.47), a catarse apontaria para o modo como a música
interfere no estado emocional do ouvinte.
Diversos autores afirmam que a música e a linguagem possuem
numerosas características em comum, especialmente no que se diz respeito às suas
estruturas e funções. Segundo Mithen (2005) e Patel (2008) é possível que
enquanto a linguagem cumpre a função de criar estruturas sonoras com
significado semântico, a música cumpriria a função complementar de incluir nesta
comunicação, um significado emocional. Por isso, muitos afirmam que música e
linguagem compartilham as mesmas origens ontogenética e filogenética,
conforme é mencionado em Brown (2000).
Música e linguagem são atividades sociais que servem para comunicar,
compor e direcionar conceitos, comportamentos e emoções, de um membro de
uma comunidade aos demais, (Molino, 2000; Cross e Tolbert, 2009). Sob outra
ótica, Jackendoff e Lerdahal (2006) entenderam que se pode estudá-las como
atividades individuais, mesmo que num plano abstrato como as habilidades
cognitivas do indivíduo. As atividades sociais e individuais com a música e a
linguagem têm raiz evolutiva. Seus meios de expressão e formação dependem de
1
Daniel Levitin https://www.youtube.com/watch?v=Sn45Z9X-vgg acesso em janeiro de 2014
uma série de conhecimentos, crenças, e hábitos; que cada indivíduo traz consigo,
e que são manifestados, desenvolvidos e atualizados através de ações corporais,
tanto sensoriais (psicoacústicas) quanto motoras (gestuais).
É possível estabelecer paralelos com a origem e o desenvolvimento das
competências musicais e linguísticas no indivíduo (ontogênese) e da sua
comunidade (filogênese). Também estarão envolvidos outros componentes
integrantes, tais como: o objeto sonoro, sua estruturação composicional e o seu
significado. É relevante nesta comparação observar a existência de certos
parâmetros em comum, entre a linguagem e a música, tais como a existência de:
acento; duração; altura sonora; a constatação e a evocação de emoções; e o
despertar das hipóteses e conclusões, no campo de seus significados (Igoa, 2010,
p. 97). É importante estudar até que ponto a arquitetura neuro-cognitiva dos
modelos mentais de processamento musical e linguístico compartilham de fato de
uma mesma estrutura cerebral, bem como estudar quais seriam as suas
características comuns, no âmbito de seus processos de representações sonoras
Peretz & Coltheart (2003).
2. Leitura Textual
A Linguagem escrita é uma aquisição recente no histórico humano e por
isso ainda não dispõe de um aparato neurobiológico preestabelecido. Cosenza
(2011, p. 101) pondera: “A linguagem escrita precisa ser ensinada, ou seja, é
necessário o estabelecimento de circuitos cerebrais que sustentem o que se faz,
por meio de dedicação e exercício”. A aprendizagem da leitura modifica os
caminhos neurais do cérebro humano, inclusive fazendo com que ele reaja de
forma diferente a estímulos linguísticos e visuais; bem como no modo como
processa a linguagem falada.
A tradição ocidental manteve por muito tempo a separação entre as ciências
humanas (das comunidades) e as ciências biológicas (dos indivíduos). A partir de
1970, com a emergência das neurociências e dos progressos tecnológicos que
permitiram um conhecimento mais aprofundado do cérebro humano, tornou-se
possível iniciar o estudo da identificação das bases neurais de nosso psiquismo
(Dehaene, 2012, p. 9).
A leitura é um dos exemplos das muitas atividades culturais que a espécie
humana criou num passado remoto. A capacidade de aprendizagem do cérebro
permite tanto criar quanto incorporar as regras próprias de um idioma. Dehaene
ressalta o conhecimento de que em todos os indivíduos, seja qual for a cultura, a
mesma região cerebral é responsável pela decodificação de palavras escritas, o
que implica na possível existência de uma base biológica para a leitura. Existe o
modelo cerebral da “plasticidade generalizada”, a partir do qual, em termos de
aprendizado, as estruturas neurais do cérebro seriam tão flexíveis e maleáveis
que não restringiriam a amplitude das atividades humanas. Um “relativismo
cultural” vem ainda possibilitando a alguns teóricos do século XX a proposição
que a natureza humana não é imposta a nós, enquanto condição biológica, mas
construída progressivamente, de modo maleável, por imersão, na cultura a que
pertencemos (Dehaene 2012, p.20). De fato, não existe oposição dessas duas
correntes ao modelo biológico, mas apresentam diferentes perspectivas na
proposição de modelos explanatórios de um mesmo fenômeno, o que vem a
incorporar, engrandecer e aprofundar o estudo dos processos de leitura.
Contudo o modelo “Reciclagem neuronal” baseia-se na hipótese das Prérepresentações. Segundo, Dehaene,
Nosso cérebro se adapta ao ambiente cultural, não absorvendo cegamente tudo que lhe é
apresentado, em circuitos virgens hipotéticos, mas convertendo a outro uso as predisposições
cerebrais já presentes. É um órgão fortemente estruturado que faz o novo com o velho. Para
aprender novas competências, reciclamos nossos antigos circuitos cerebrais de primatas – na
medida em que tolerem um mínimo de mudança. (Dehaene, 2012, p. 164-165).
Ainda segundo Dehaene, “O cérebro não teve tempo para evoluir sob a
pressão dos limites da escrita. Foi a escrita que evoluiu a fim de levar em conta
os limites do nosso cérebro.” (p.21).
O modelo de reciclagem neuronal explica, através da história da evolução
da escrita, e justifica os traços de uma incessante manufatura evolutiva que adapta
os objetos da escrita aos limites de nosso cérebro. Conforme se verifica, todas as
escritas do mundo compartilham de similaridades que parecem refletir e adequarse aos limites de nossos circuitos visuais.
O sistema nervoso central apresenta um processamento paralelo de
informação neural, onde múltiplos elementos (neurônios) concomitantemente
transmitem e efetuam operações simples, formando coalizões (redes neurais) que
podem cooperar ou competir umas com as outras, criando processos neurais
estimulantes ou inibidores (Dehaene, 2012, p. 59). As mediações de competições
dessa ordem podem vir a contribuir ou a dificultar o processamento de tarefas
automáticas, como a leitura.
Dehaene explica que o processamento da escrita começa nos olhos.
Somente o centro da retina humana (a fóvea) possui resolução de imagem
suficiente para que se possa processar o reconhecimento e a discriminação dos
detalhes dos caracteres das letras. Durante a leitura, deslocamos nosso olhar sobre
a página, não em movimentos contínuos, mas em “sacadas” (diminutas pausas do
movimento dos olhos, focando em específicas regiões do texto) o que permite
identificar simultaneamente todos os caracteres de uma ou duas palavras. A
informação contida nessa sequência de letras seria então desmembrada em
milhares de fragmentos captados pelos neurônios fotorreceptores da retina e
reconstituída e reconhecida pela mente para então extrair-se progressivamente, o
conteúdo dos grafemas, sílabas, prefixos, sufixos e radicais das palavras. Por fim,
entram em cena duas grandes vias paralelas de processamento cerebral: a
fonológica e a lexical. A primeira permite converter a sequência de letras em sons
da língua (os fonemas). A segunda acessa uma espécie de “dicionário mental”,
onde são armazenados os significados semânticos das palavras (Dehaene, 2012,
p.25).
Pode-se perguntar: quando se pratica a leitura mental silenciosa, o leitor
passa das palavras escritas ao seu significado sem acessar o aparato vocal da
pronúncia, ou transforma as letras em objetos acústicos, e logo a seguir, em
significado? Hoje há um consenso de que adultos acessam duas vias de leitura
simultaneamente: a lexical e a fonológica, que funcionam, em mútua cooperação.
”Dispomos todos de uma via direta de acesso às palavras que nos evita pronuncialas mentalmente antes de compreendê-las”. (Dehaene, 2012, p.40). A leitura muda
é uma etapa automática deste processo. Já na leitura verbal (em voz alta), as duas
vias colaboram, cada uma contribuindo com a verbalização. (Dehaene, 2012, p.
124).
O nosso genoma ainda não teve tempo evolutivo de se adaptar e assim
desenvolver circuitos cerebrais intrínsecos e específicos para a leitura. Desse
modo, é o cérebro humano que se adapta ao processo de leitura, valendo-se de
circuitos neurais já desenvolvidos em passados ainda mais remotos.
3. Leitura Musical
Segundo, Sloboda (2008, p.89) “a leitura musical requer a execução de
uma resposta complexa, na qual há pouco espaço para desvios em tempo e
qualidade”. A leitura musical é uma aptidão que pode ser desenvolvida com
material e abordagem adequados. Segundo Hardy (1998), ela envolve habilidades
psicomotoras (tátil), memória de curta duração, leitura e reconhecimento de
padrões melódicos, rítmicos e harmônicos, além de capacidade de manter a
pulsação, limiar de concentração e imagem auditiva. A leitura musical requer
também conhecimentos específicos de notação musical, dedilhado, a topografia
do seu instrumento musical em uso (se for o caso), conceitos de teoria e estrutura
musical. É fundamental ainda no processo de leitura musical a inter-relação de
cinco pontos essenciais, como a partitura, os olhos, os ouvidos, as mãos e o
cérebro comandando, integrando e interpretando tudo.
Segundo Louro (2012, p. 109), a ação de leitura musical envolve a
capacidade de agrupar, associar e reproduzir figuras rítmicas, além da
transformação da leitura em ação motora dado pelos gestos que compõem o ato de
tocar um instrumento ou de cantar. A leitura musical exige também uma
capacidade de abstração, um mecanismo cerebral que só opera a partir de
associação, comparação, classificação e decodificação. A compreensão de um
sinal como um sustenido, que eleva a nota musical em meio tom, exige a
habilidade cerebral que aciona o senso de direção (algo que “subiu” ou “desceu”),
a faculdade espacial de visualização é acionada ao imaginar uma movimentação
ascendente da nota musical, e assim compreender o seu conceito e decodificar o
significado deste sinal. A escrita musical é organizada em grupos de símbolos;
para diferenciá-los é necessário ter-se a capacidade de classificar, só possível
através de associação, sequenciação e comparação de elementos.
Bucher (2009, p.9), salienta que as informações sensoriais são recebidas no
cérebro, simultaneamente, em dois hemisférios (esquerdo e direito). Ambos são
ligados por um feixe de fibras nervosas, denominado “corpo caloso”, que
transmite informações neurais entre hemisférios, de tal modo que cada qual
desenvolve e processa as informações de maneira específicas e distinta. O
hemisfério esquerdo, muitas vezes referido como hemisfério lógico, funciona
como um processador em série que calcula detalhes e símbolos, a linguagem. Sua
forma de análise é linear, buscando diferenças, discriminando, separando,
realizando a contagem de números e por isso responsável pela percepção do
tempo. O hemisfério direito (o hemisfério da Gestalt) tem processamento paralelo
e holístico. Este realiza funções como o reconhecimento de imagens, identificação
de padrões rítmicos, constatação e evocação de emoções, localização espacial,
entendimento de metáforas, interpretação da comunicação gestual, criatividade e
intuição. Este hemisfério lida com o processamento de informações subjetivas,
globais e, entre outras, artísticas. Em condições ideais, os dois hemisférios
cerebrais funcionam de forma cooperativa, integrada e homogênea. No entanto,
normalmente existe a predominância de um dos hemisférios em relação ao outro.
Brito (2010, p. 177), por sua vez ressalta que “a música tem códigos de
registro e notação que surgiram em virtude da necessidade de fixar as ideias
musicais e, assim preservá-las”. A autora também chama atenção para o fato de
que sendo uma forma temporal de expressão a música recebeu, na tradição
ocidental, um tratamento notacional desenvolvido em coordenadas horizontal
(dimensão temporal), e salienta ainda que os sinais de notação criados para
representá-la são auxiliares da memória individual coletiva.
As obras deixadas pelos pedagogos musicais do início do século XX
prestaram uma valiosa contribuição para a renovação do desenvolvimento da
Educação Musical. A compreensão do fenômeno sonoro, no sentido de
apropriação do significado musical, parece ainda ser a incógnita que procuramos
desvendar. Foi a partir do trabalho dos pedagogos da primeira metade do século
XX que tais questionamentos, ainda que de ordem mais filosófica do que
científica, fossem abordados. Como definir o conhecimento Musical? Qual o
papel da Educação Musical no processo de desenvolvimento do indivíduo?
(Mateiro, Ilari, 2011, p.9-12).
Quatro pedagogos em especial, foram pioneiros no propósito do ensino e
aprendizagem da leitura musical: Èmile Dalcroze, Zoltán Kodály, Edgar Willems
e Edwin Gordon. Estes organizaram sua prática pedagógica a partir de um
material composto de textos didáticos e exercícios, utilizando a música como um
agente mobilizador de emoções para o ser humano, onde corpo e mente se
integram no sentido de apropriarem-se da música, de forma global e consciente.
Dalcroze desenvolveu um sistema de educação musical baseado no movimento,
na escuta ativa, onde o aprendizado ocorre por meio da “música e pela música”,
uma espécie de Musicalização corporal. Na Rítmica (sistema de educação
denominado por Dalcroze) os elementos musicais são vivenciados diretamente no
corpo através de movimentos numa interação: espaço-tempo-energia. Kodály
apresenta uma proposta pedagógica primordiamente baseada no uso da voz. Ele
acreditava que a voz era o principal meio de acesso à música, disponível a
qualquer pessoa. A música seria assim entendida como uma parte integral da vida
de todo ser humano que, ao apropriar-se dela, poderia passar a ler, escrever ou
cantar qualquer obra musical escrita com a notação musical tradicional. Seu lema
era: “Que a música pertença a todos”. (Kodály, apud Mateiro, Ilari 2011, p.57,58,
68). Para Willems a educação musical “não é apenas uma preparação para a vida;
esta é em si mesma, uma manifestação permanente e harmoniosa da vida”
(Willems, 1969, p 10). Tal concepção fundamenta-se no paralelismo que ele
estabeleceu entre vida humana (cotidiana) e vida musical. (Mateiro, Ilari, 2011,
p.91). Neste sentido, os três elementos fundamentais da música (ritmo, melodia,
harmonia) são relacionados à três funções humanas. O ritmo é relacionado às
funções fisiológicas (ação). A melodia é relacionada à vida afetiva (sensibilidade).
A harmonia é relacionada às funções cognitivas (intelectuais, racionais). (Rocha,
1990, pp.16,19). Gordon, através de sua teoria da aprendizagem musical,
apresentou uma versão atualizada da pedagogia da audição a qual denominou
Audiação. Trata-se de toda uma fundamentação psicológica necessária para
responder como e quando se aprende a ouvir música. Não basta ouvir para ser
músico, assim como não é suficiente pronunciar corretamente as palavras para
dominar as estruturas sintáticas de uma linguagem. A audiação trata da
capacidade de ouvirmos internamente, e compreendermos, sons que podem estar,
ou não, fisicamente presentes.
4. Audiação
No campo de pesquisas em educação musical a notação musical não é,
necessariamente, um objeto central. Trata-se de uma ferramenta oriunda da
prática musical profissional, introduzida a partir da demanda do campo de
trabalho específico da área, como também do processo pedagógico musical
(Renard,C., 1982, p.128, apud, Brito,2010, p178). A criança, ao ouvir um evento
sonoro de curta duração, muitas vezes intuitivamente realiza um gesto
(movimento corporal com intenção), traduzindo assim o som escutado em
expressão corporal. Segundo Brito, esta ação intuitiva é uma primeira forma de
registro, que é traduzido corporalmente de forma espontânea, integrando o som ao
movimento. Segundo a autora, a etapa seguinte para a criança é transformar os
“gestos sonoros” em desenhos, trazendo para a representação gráfica aquilo que a
percepção auditiva desta criança identificou, num processo sequencial que segue e
respeita níveis de percepção, cognição e consciência (Brito 2010, p. 179).
É fato que a maneira como se aprende e assimila música é um fator
decisivo para o desenvolvimento das muitas qualidades de audição. Como
lembrado em (Caspurro, 2013), é do mesmo modo fundamental trazer, ao plano
da consciência, a atitude e a necessidade do ouvinte perante a música. Esta é uma
variável que está além do mero fenômeno psicoacústico e que nos permite
estabelecer e identificar as suas diferenças qualitativas e contextuais.
Audiação é um termo criado por Edwin Gordon e refere ao processo
cognitivo pelo qual a mente dá significado aos sons musicais. Desse modo, para
Gordon audiação não é o mesmo que percepção auditiva, que trata apenas da
recepção e do tratamento do som pelo sistema auditivo. A audiação trata da
capacidade de ouvirmos internamente, com compreensão, sons que podem nem
mesmo estar acusticamente presentes. Através do processo de audiação, ouvintes
podem atribuir significado à música que escutam, executam, improvisam ou
compõem2.
Gordon dedicou boa parte de sua vida ao ensino musical e ao
desenvolvimento da sua teoria de aprendizagem de música. Não se trata de uma
metodologia específica para o ensino musical, mas de uma teoria sobre como as
pessoas, e em especial as crianças, aprendem música. A grande questão não é
saber como ensinar música, mas como esta é de fato aprendida. Em que momento
2
http://www.giml.org (acessado em janeiro de 2014)
um adulto ou criança estariam preparados para assimilar essa competência e qual
seria a melhor sequência de conteúdos didáticos apresentados. As experiências
musicais que uma criança tem desde o nascimento até aproximadamente aos cinco
anos têm um profundo impacto na forma como esta vai ser capaz de perceber,
apreciar e compreender música como adulto.
Esta teoria visa orientar os professores de música em tentar estabelecer para
os alunos, desde a primeira infância até a fase adulta, objetivos curriculares
sequenciais que desenvolvam a audiação rítmica e tonal. Gordon acreditava que a
música é aprendida da mesma forma que se aprende a língua nativa. Desse modo,
Gordon estabeleceu quatro etapas de aprendizagem musical: A primeira etapa é
denominou “Aculturação” que abarca desde a vida uterina até os cinco anos, na
qual o indivíduo está cercado pela língua nativa, absorvendo e se familiarizando
com estes sons. A segunda fase é a da “Imitação”, onde a criança tenta imitar os
sons que escuta e identifica. As fases três e quatro foram classificadas por Gordon
como o momento da “Improvisação”. Na terceira fase inicia-se o processo onde a
criança pensa através da linguagem, estabelecendo estruturas sintáticas
correspondentes aos seus pensamentos. Nesta fase as palavras e as frases
começam a ter significado. Na quarta fase a criança passa de fato a improvisar
com as estruturas da linguagem, utilizando palavras aprendidas para formar suas
próprias frases, com sentido, lógica e significado semântico. Para Gordon, a
criança aprende a ler e a escrever em consequência da experiência que adquire
ouvindo, imitando, pensando e improvisando com as palavras.
Em entrevista concedida à musicóloga portuguesa Helena R. Caspurro,
Gordon fala sobre os problemas que afetam a educação musical da atualidade,
quer no âmbito do ensino de um instrumento, ou no âmbito da educação musical,
no ensino genérico:
No que concerne ao ensino de instrumentos, um dos problemas típicos é que se ensina apenas um
instrumento: o instrumento físico que o aluno toca. A meu ver, ao invés de ensinar um instrumento,
deveriam ser ensinados os dois: o que se está tocando e o outro aquele que está na mente do aluno. O
instrumento por si só não tem boa afinação; o instrumento é apenas uma extensão do corpo humano.
É uma extensão da capacidade de audiação do intérprete. Se este não possui uma boa audiação da
qualidade do som que pretende retirar do instrumento, o instrumento por si só não poderá fornecê-lo.
(Caspurro, 2013)
Gordon postulava que um bom performer consegue uma execução com
mais expressão, fluidez rítmica e afinação na medida em que desenvolve a
capacidade de ouvir internamente os sons gerados pelo seu instrumento musical.
O processo da construção de uma base sólida para fomentar a Audiação
inicia com a exposição dos alunos a um ambiente musical rico e variado, com a
preparação para sua posterior educação musical formal. Serão estimulados a
ouvir, cantar e tocar “de ouvido” melodias em modos e métricas diferentes,
enquanto desenvolvem as primeiras competências técnicas no seu instrumento
musical. Através de atividades sequenciais de aprendizagem, os conteúdos
musicais são apreendidos em doses pequenas de forma natural, com o intuito de
facilitar a compreensão dos padrões tonais e rítmicos que constituem a literatura
musical. Neste caso, a voz tem primazia e passa a ser o instrumento condutor
principal utilizado pelo professor. A criança aprenderá a distinguir a voz cantada
da voz falada e a desenvolver a sensação de cantar afinado, tendo como
referência seu professor. Outro aspecto privilegiado por Gordon é o movimento.
Ele postula que é fundamental “experenciar” as sensações de fluidez, peso e
espaço, antes de vivenciar o tempo musical com o intuito de adquirir consciência
corporal e rítmica. Para Gordon é fundamental que o performer tenha domínio
sobre o relaxamento e a flexibilidade corporal, que agem como coadjuvantes do
desenvolvimento musical.
Os principais benefícios da aprendizagem de um instrumento musical
dizem respeito à possibilidade do aluno executar com fluência melodias em
várias métricas, tonalidades, e estilos; desenvolvendo capacidades intelectuais de
alto nível, como: criatividade, improvisação e generalização. A leitura, a escrita
e a percepção musical são habilidades mediadas pela cognição.3
5. Reflexão e Conclusão
Este trabalho apresentou uma pesquisa teórica abordando as
similaridades e as correspondências entre as leituras textuais e musicais,
intermediadas pelo processo da audiação, tal como descrito por Gordon. Ambos
os tipos de leitura se baseiam na decodificação mental de símbolos para o
entendimento de um contexto e o processamento de uma ação. Isto se baseia no
3
http://www.giml.org (acessado em janeiro de 2014)
fato de que a relação da mente humana com o mundo externo não é direta, mas
mediada por instrumentos e símbolos. Instrumentos constituem as ferramentas
que tornam uma ação concreta, controlando as ações sobre os objetos e sendo
responsáveis por mudanças externas que ampliem a possibilidade de intervenção
na natureza. Já os símbolos regulam as ações sobre a mente humana, agindo
como um instrumento da atividade psicológica, constituindo significados de
cunho semióticos específicos do mundo externo para a mente. (Rego, 1994, p.
50,51). Comunicação é um fator primordial para a sociedade humana, na qual
indivíduos armazenam significados através de palavras, desenhos, gestos,
números, padrões musicais e um grande número de outras formas simbólicas.
(Gardner, 2007, p.145). Segundo Vygotski, “é no significado da palavra que o
pensamento e a fala se unem em pensamento verbal. É nele que podemos
encontrar as respostas às nossas questões sobre a relação entre pensamento e
fala” (Vygotski, 2013, p. 5). Gardner nos lembra ainda que, dentre outras
inteligências, a música é uma competência que permite às pessoas criar,
comunicar e compreender significados compostos por sons. (Gardner, 1998,
p.217).
O processo de aprendizagem musical parece ser de fato análogo ao que
ocorre no processo de aprendizado da linguagem verbal. Neste último, começase por aprender palavras soltas, antes de ser possível constituir frases inteiras, de
modo a estabelecer uma conversação. Depois desta fase inicial, as crianças não
se limitam a imitar aquilo que ouvem, mas se tornam capazes de formular as
suas próprias questões, construindo frases próprias e usando as palavras de seu
próprio vocabulário. Talvez fosse interessante que no ensino formal de música,
este processo se tornasse mais explícito e consciente. É plausível imaginar uma
fase inicial de ensino de padrões tonais e rítmicos às crianças, com os quais
estas, em momento posterior, viessem a “conversar” através da música. Da
mesma forma que não aprendemos poemas antes de nos tornarmos capazes de
construir frases, em música talvez não devêssemos iniciar por tocar Mozart e
Haydn antes de nos tornar capazes de usar um vocabulário musical básico já
experimentado e assimilado, com o qual possamos construir, por improvisação,
nossas próprias frases e composições musicais. Bucher salienta que o
treinamento auditivo dos primeiros sons é fundamental para a formação da
memória sonora do aluno e que ter referências bem estabelecidas é fundamental
para o bom desenvolvimento do processo de leitura e solfejo musical. É nessa
fase que o quadro mental é formado e a primeira impressão é a que se consolida,
constituindo uma espécie de “endereço interno das notas musicais”. (Bucher,
2002, p.3).
Vygotski, (2013, p. 123-125) admite que a linguagem escrita seja uma
função linguística distinta da linguagem oral nos âmbitos da estrutura e do
funcionamento. A criança quando aprende a escrever precisa se desligar do
aspecto sensorial da fala e substituir palavras por uma simbolização de imagem
sonora através de símbolos escritos. Ela tem que tomar conhecimento da
estrutura sonora de cada palavra. O ato de escrever implica uma tradução a partir
do que Vygotski chama da fala interior, ou seja, uma atividade intrapsíquica
individual composta quase que exclusivamente de núcleos de significados onde
as crianças estabelecem consigo um discurso interno voltado para o pensamento
no sentido a solucionar determinadas operações mentais. A passagem da
linguagem interior (uma fala compacta) para a linguagem oral (fala muito
detalhada) exige uma ‘semântica deliberada; uma espécie de estruturação
intencional de uma rede de significados. A linguagem escrita exige um trabalho
consciente pois a sua relação com a fala interior é distinta da sua relação com a
da linguagem oral.
A metodologia tradicional de ensino musical em grande parte induz as
crianças a lerem partituras antes de experimentarem a música que estas
representam, sem que tenham chance de ouvir a música e tentar reproduzi-la, de
forma criativa e intuitiva. A atual pesquisa em cognição tem demonstrado que a
imitação sem a consciência do gesto musical pouco ensina. É preciso deixar que
as crianças cantem e dancem antes de se tornarem capazes de tocar instrumentos
musicais ou ler partituras. O entendimento do fenômeno sonoro, no sentido de
apropriação do significado musical, parece ainda ser um mistério a ser
desvendado. Segundo (Caspurro, 2013), esta é “uma variável que está além do
mero fenômeno psicoacústico, e que permite estabelecer uma diferença qualitativa
e contextual”.
No exercício de introdução a leitura musical poderia ser incluída
atividades com o propósito de despertar um senso rítmico sugerido por Dalcroze
através de movimentos corporais; uma iniciativa com o canto e manusolfa
propostas por Kodály; utilizando palavras, sílabas, um texto improvisado de forma
a elaborar a consciência de cada elemento musical, ritmo, melodia, harmonia,
trabalhando sempre com música envolvendo corpo e alma como um todo como
faria Willems; e finalmente como Gordon idealizou, construindo a atitude de
ouvir música através da audiação; acionando uma ressonância interna de forma
que os estudantes possam ler e ouvir internamente antes de tocar, construindo uma
imagem musical de cada partitura.
Referências
Brito, T. A.(2010). A Música na Educação Infantil. São Paulo: Ed. Petrópolis.
Bucher, H.(2009). Leitura à primeira vista. Vitória: Copyright by Hannelore E. Bucher.
Bucher, H (2002). Solfejo. Vitória: Copyright by Hannelore E. Bucher.
Caspurro, H R. (n.d.). Audição e Audiação; Contributo epistemológico de Edwin
Gordon para história da pedagogia da escrita. (http://goo.gl/VeAygC) acessado em
29/12/2013.
Cosenza, R. M. (2011). Neurociência e Educação: Como o cérebro aprende, Porto
Alegre: Ed. Artmed
Cross. I. e Tolbert, E. (2009). Music and Meaning. En S. Hallam, I. Cross y M. Thaut
(eds.), The Oxford Handbook of Music Psychology (pp.24-34). Oxford, R.U.:
Oxford University Press.
Dehaene, S. (2012). Os neurônios da leitura. Porto Alegre: Ed. Penso.
Gardner, H. (1995). Inteligências Múltiplas: A teoria na Prática. Porto Alegre: Ed.
Artmed.
Gardner, H.(1998). Inteligências; Múltiplas Perspectivas. Porto Alger: Ed. Artmed.
Gordon, E. E., (2001) Preparatory audiation; Audiation and music; learning theory; a
handbook of comprehensive Music..Chicago: G. I. A.
Gordon, E. (2012). Learning Sequences in Music: A Contemporary Music Learning
Theory- Skill, content and patterns. Chicago: G. I. A. Publications.
Hardy, Dianne. (1998) "Teaching Sight-Reading at the Piano: Methodology and Significance", Piano Pedagogy Forum Columbia: University of South Carolina School
of Music 1 -2.
Igor, M. J. (2010). Sobre las relaciones entre la Música y el Lenguaje. Revista Epistemus ISSN1853-0494 (Volume 1, PP 97-125). Buenos Aires: Sociedad Argentina
para las Ciencias Cognitivas de la Música.
Jackendoff, R. & Lerdahl, (2006). The capacity for music; What is it, and what’s
special about it? Cognition (number 100 p.33-72): New York.
Mateiro,T.; Ilari, B.(2011) Pedagogias em Educação Musical: Curitiba, Ed. IBPEX.
Mithen, S. (2005). The Singing Neanderthals: the origins of music, Language, mind and
body. London: Widenfeld and Nicholson.
Molino, J. (2000). Towards an evolutionary theory of music and language: En N.
Wallin, B.
Patel, A. D.(2008). Music, Language and brain. Oxford, R. U.: Oxford University
Press.
Peretz, I. & Coltherart, M. (2003). Modularity of music processing: Nature
Neuroscience. (6(7), p. 688-691).
Pinker, S. (1997). How the Mind Works: W. W. Norton & Company.
Rego, T. C.(1994) Vygotski. Um perspectivo sócio- cultural da educação: Petrópolis,
Ed. Vozes.
Rocha, Carmen M. Mettig. (1990). Educação Musical “Método Willems”; minha experiência pessoal: Salvador, Editado por Faculdade de Educação da Bahia- FEBA.
Rodrigues, Iramar. (2014) CURSO DE EXTENÇÃO UNICAMP: Campinas, A Rítmica
de Dalcroze.
Renard, C. (1982). Le geste musical. Paris: Editions Hachette/ Van Del Velde.
Sloboda, J.A. (1989a). Music as language. In F. Wilson and Roemann (Eds) Music and
Child Development. (pp. 8-43). St Louis: Missouri MMB Inc.
Vygotski. L.S. (2013) Pensamento e Linguagem. São Paulo: Ed. Martins Fontes.
Willems, Edgar. (1969) Las Bases Psicológicas de la Educación Musical: Buenos Aires,
Edit. Editorial Universitária de Buenos Aires.
A Utilização de Princípios Gestálticos no Estudo da Música Armorial
Gilber Cesar Souto Maior
Unicamp/NICS
[email protected]
José Eduardo Fornari Novo Jr
Unicamp/NICS
[email protected]
Resumo: Música Armorial é a vertente musical do Movimento Armorial, termo cunhado por Ariano
Suassuna, que se refere ao fenômeno de origens e dimensões multiculturais, surgido na região Nordeste do
Brasil e que promoveu a criação de um gênero musical singular. A busca por uma sonoridade nacional e erudita
através da utilização de instrumentos populares com as principais influências contidas na colonização da região
nordeste do nosso país, englobando particularmente as culturas: Ibérica, Africana e Indígena. Este gênero
apresenta uma sonoridade única que pode ser identificada tanto pelo ouvinte leigo quanto analisada e
catalogada pelo ouvinte perito. Antonio José Madureira, importante nome da Música Armorial, foi colaborador
direto de Suassuna e também o fundador do Quinteto Armorial, na década de 1970, cujo principal intuito foi
estabelecer este gênero, utilizando como base a instrumentação típica da região nordeste do Brasil. Neste
trabalho apresentamos uma análise musical, apoiada em princípios gestálticos, da peça “Repente” do álbum
(LP) “Do Romance ao Galope Nordestino” de 1974, onde são identificados os modos utilizados na peça, bem
como seus motivos rítmicos e melódicos que serviram de referência nesta composição de Madureira.
Palavras-chave: Movimento Armorial, Análise Musical, Gestalt, Música Brasileira.
Title: Using Gestalt Principles in the Study of Armorial Music
Abstract: Armorial Music is the musical branch of the Armorial Movement, a term coined by
Ariano Suassuna, which refers to the phenomenon of multicultural origins and dimensions, appeared in northeastern Brazil that promoted the creation of this unique musical genre. The search for a
national scholarly and sound through the use of folk instruments and the main contributions con tained in the colonization of the northeast region of our country, particularly encompassed many
cultures, such as: Iberian, African and Indian. This genre has a unique sonority that can be identified by both the layman listener as well as analyzed and cataloged by the expert listener. Antonio
José Madureira, an important name Armorial Music, and close collaborator of Suassuna, was the
founder of “Armorial Quintet”, in the 1970s, whose main purpose was to establish this musical
genre by using as a root basis, the typical Brazilian northeastern musical instruments. This work
presents a musical analysis based on Gestalt principles, of the musical track "Repente" from the album (LP) "Do Romance ao Galope Nordestino" recorded in 1974, where we identify the musical
modes used in the piece as well as its rhythmic and melodic motifs that served as reference for this
iconic musical piece composed by Madureira .
Key-words: Armorial Movement, Musical Analysis, Gestalt, Brazilian Music.
1. Introdução
Assim como para um historiador, o tempo é o elemento que ordena os eventos históricos, compostos de: momentos, incidentes, episódios, épocas e eras; para o músico, uma obra
musical, apesar de constituída por elementos sonoros isolados, é também composta pela organização estrutural de tais elementos ao longo do tempo. Os motivos, as frases, as passagens,
as seções e os movimentos; são definidos pelos limites perceptuais da audição humana, bem
como de suas interpretações psicológicas (TENNEY & POLANSKY, 1980, p.205). Neste
contexto, a música armorial pode ser concebida como um estilo que representa o referencial
histórico tratado pelo movimento armorial; termo cunhado por pelo intelectual Ariano Suassuna, que simboliza e representa as manifestações populares do Nordeste Brasileiro. Tais mani-
festações, ou folguedos populares, possuem suas próprias características musicais, quer sejam
expressos em características: rítmicas, melódicas, harmônicas ou timbrísticas; que o representam e o identificam. Segundo WOITOWICZ (2006), Antonio Madureira foi um importante
contribuidor da música armorial. Madureira foi convidado em 1970 por Suassuna para integrar o Movimento Armorial. Consta que Suassuna estava satisfeito com a atuação musical de
Madureira, que buscava alcançar uma sonoridade mais próxima e representativa da cultura
popular desta região (MADUREIRA, 2012).
Neste trabalho utilizamos os princípios da Gestalt para analisar dois trechos de uma
peça musical composta por Madureira, considerado aqui um compositor fundamental do movimento armorial e cujo estilo é bastante ortodoxo aos princípios deste gênero. Considera-se
aqui que os princípios gestálticos podem contribuir para um maior entendimento dos aspectos
típicos da sonoridade da música armorial, traçando um paralelo entre os instrumentos musicais tradicionais utilizados neste gênero e as suas peculiares características composicionais. A
teoria da Gestalt foi fundamentada por: Max Wertheimer (1880/1943); Wolfgang Kohler
(1887/1967); e Kurt Koffka (1886/1941) e João Gomes Filho afirma:
“De acordo com a Gestalt, a arte se funda no princípio da pregnância da forma. Ou
seja, na formação de imagens, os fatores de equilíbrio, clareza e harmonia visual
constituem para o ser humano uma necessidade, e por isso, considerados indispensáveis – seja numa obra de arte, num produto industrial, numa peça gráfica, num edifício, numa escultura ou em qualquer outro tipo de manifestação visual.” (2004, p.17)
Os trechos musicais aqui analisados foram extraídos da peça “Repente”, de Madureira,
gravada em 1974 pelo Quinteto Armorial, no seu primeiro álbum “Do romance ao galope
nordestino” (disponível no link: http://goo.gl/7z9aws), que tem a seguinte instrumentação: 1)
Marimbau1; 2) Violão; 3) Viola de 10 cordas; 4) Violino; e 5) Flauta transversal.
2. Princípios Gestálticos
A teoria da Gestalt estabelece diversos princípios que procuram definir capacidade
cognitiva automática da mente em associar diferentes e distintas partes a fim de formar um
único todo. Os princípios da Gestalt aplicados à música, conforme definidos em (GOMES
FILHO, 2004, p. 103 e 104), são: 1) Unidade: Capacidade de perceber os elementos
constituintes de uma peça musical. Por exemplo, a unidade pode ser representada por uma
determinada rítmica identificada numa específica voz ou timbre (instrumento musical), e que
O Marimbau é um instrumento musical constituído por uma caixa de ressonância e 2 cordas de aço. Este é
tocado com uma baqueta, que percute cordas, e com um vidrinho, que passeia pelo braço do instrumento.
Considerado o instrumento mais original utilizado na música armorial, este foi inspirado no Berimbau
(SANTOS, 2009, p.178).
1
poderá se repetir na mesma voz ou migrar para outras; 2) Segregação: Capacidade de
discriminar as Unidades que constituem uma peça musical; 3) Continuidade: Capacidade de
perceber uma sucessão coerente e contínua de distintas Unidades; 4) Semelhança: Capacidade
de perceber a igualdade ou proximidade cognitiva entre distintas Unidades; 5) Unificação:
Capacidade de perceber a semelhança contextual produzida por diferentes Unidades através
da coesão sonora, ou harmônica, apesar da textura sonora ser eventualmente distinta, o que
torna evidente a sua unificação num único todo; 6) Proximidade: Capacidade de perceber a
distância temporal entre as ocorrências das Unidades. 7) Pregnância da forma: Capacidade de
intuir a finalização de uma sucessão coerente de Unidades, como uma frase melódica ou
rítmica.
3. Planos Sonoros
Segundo Falcón (2010, p.2) o Plano Sonoro é constituído pelo conjunto de sons que é
conscientemente percebido numa textura musical. Este pode ser representado pelo som gerado
por um grupo de instrumentistas, ou parte deste todo sonoro que apresente um contexto único,
tal como uma célula rítmica, uma escala melódica ou uma progressão harmônica.
Definimos como Planos Sonoros (PS) cinco aspectos contextuais da obra musical analisada, que remetem à estruturas rítmicas e melódicas características da sonoridade da música
armorial. “Repente”, alé do nome da peça analisada, é também a forma como são conhecidos
os diversos tipos de cantoria, executada pelos cantadores populares do Nordeste. O termo refere-se à cantoria que é feita “de repente”, isto é, de improviso. No ambiente rural, o baião era
normalmente executado entre dois violeiros que cantavam como se estivessem digladiando,
um contra o outro, constituindo o que se chama de “canto de desafio” (MARCONDES, 2000,
p. 61). Segundo Adolfo (1993, p.95) a composição instrumental do baião variou bastante com
o passar dos anos, mas nos primórdios, além dos trios – formados por: acordeon, triângulo e o
zabumba2 – era comum que as melodias também fossem executadas na rabeca e na viola de
10 cordas, imitando a a impostação típica da voz dos cantadores.
O primeiro plano sonoro (PS1) é o baixo do violão, mostrado na Figura 1, que
apresenta uma figuração rítmica tradicional de Baião, também muito utilizada no zabumba.
Podemos perceber nessa marcação, feita pelo violão, duas subunidades. Nessa figura observase tais subunidades em destaque. Estas traçam um paralelo entre a rítmica do zabumba, feita
2
O zabumba é um instrumento usado em diversos ritmos, e no Nordeste brasileiro o encontramos numa
das principais formações musicais de nosso país, os trios nordestinos, onde além dele tem o triângulo e o
acordeon.
pela maceta (baqueta que percute a membrana superior) pelo bacalhau (baqueta mais fina,
que percute a membrana inferior do tambor), e pelos bordões3, deixando assim um padrão.
Figura 1: PS1: Paralelo entre o Zabumba e o Violão.
É possível perceber, através do princípio gestáltico da Semelhança, que a origem dessa
rítmica é estabelecida pelo violão. Além disso, o princípio da Continuidade é aqui observado,
já que este PS1 constitui um padrão regular, a partir da introdução da peça.
O segundo plano sonoro (PS2) aparece no início da primeira parte dessa peça, com a
flauta e o violino executando um crescendo4 utilizando notas longas em intervalos de quarta
justa. Verificamos, através dos princípios gestáltico da Semelhança, uma coerência na forma
melódica (constituída de mínimas ligadas), mas apresentando um contraste no timbre
(característica dos próprios instrumentos musicais). Através do princípio da Unificação, a
diferença intervalar entre as notas da melodia forma um intervalo harmônico que reforça a
base feita pela viola nordestina, conforme observado na Figura 2:
Figura 2: PS2: Semelhança na forma e a Unificação na harmonia da flauta e do violino na introdução
da peça.
As três cordas graves do violão, a saber: 4ª ré, 5ª lá e 6ª mi. As três cordas agudas são conhecidas como
primas, e são elas: 3ª sol, 2ª si e 1ª mi. (ROCHA FILHO, s/d, p.13 e 15)
3
Termo musical de indicação de aumento de volume gradual de uma nota ou de uma passagem. (DOURADO,
2004, p.98)
4
O terceiro plano sonoro (PS3) está na estrutura rítmica do tema principal da peça
musical. Para o bom entendimento desta rítmica, é necessário um conhecimento prévio das
formas estruturais típicas das cantorias dos repentistas. Madureira criou o tema principal em
forma de sextilha (uma estrofe contendo 6 versos). (FERREIRA, 2012, p.135). Através do
princípio gestáltico da Pregnância da Forma, pode-se identificar e intuitivamente finalizar
estas frases. Abaixo temos um exemplo, com as frases numeradas, desse tipo de cantoria,
intitulada com o mesmo nome de sua forma, “Sextilhas”5:
1 - To sin-ti-no é mor-ma-ço / 2 - Que-ro o meu cor-po dá fim / 3 - E to-do o ca-lor do mundo / 4 - Jo-gou-se em ci-ma de mim / 5 - Num pen-sei que o Re-ci-fe / 6 - Fi-zes-se ca-lor assim.
O PS3, representado pela melodia do tema principal, forma o padrão estrutural desta
cantoria, conforme observado na Figura 3.
Figura 3: PS3:Tema principal seguindo a estrutura de uma sextilha, executado no Marimbau.
O quarto plano sonoro (PS4) é percebido na “ponte” da estrutura desta peça musical, e
é bem definido através do princípio da segregação, onde é possível diferenciar a melodia da
flauta e do violino dentro da estrutura da peça, executando intercaladamente. A flauta surge
como contracanto6 do violino, executando a mesma unidade de maneira inversa, porém
permitindo com que ambas texturas sonoras se complementem.
Sextilhas é o título da faixa 1 do álbum (LP) independente “Pinto do Monteiro e Zé Pequeno: Acelerando nas
Asas do Juízo”, interpretada pelos cantadores Pinto do Monteiro e Zé Pequeno.
5
6
Segundo GUEST, 1996, p.95, o contracanto é uma melodia que soa (combina) com um determinado canto dado.
Figura 4: PS4: Ponte executada pelo violino e pela flauta, contendo as marcações de motivos, semifrases e frases. A figura apresenta assinalada a proximidade entre as frases desses instrumentos e sua
segregação, pela distinção de seus timbres.
No segundo tema dessa peça é apresentado o quinto plano sonoro (PS5) na forma de
imitação, com o violão iniciando o tema e a viola repetindo um compasso depois. Muitos
duos de melodias nordestinas utilizam essa forma de composição, muito usada no período
Barroco. Esse tipo de imitação idêntica é conhecido como Resposta, que é uma imitação da
melodia principal, conhecida como Proposta. (KOELLREUTTER, 1996, p.42)
Observe na Figura 5 que, na metade do segundo tema, a melodia varia de modo,
iniciando no Ré Mixolídio (alteração na sétima) e finalizando na descendente, em Ré Dórico
com terça e sétima menor, fá natural e dó natural, eao mesmo tempo em que se constitui a
imitação, gerando uma sensação harmônica, uma coesão sonora dessas duas vozes separadas
por intervalos de terça. A proximidade é percebida através da repetição da melodia do violão
pela viola. Para auxiliar essa unificação, tem-se o marimbau que serve como apoio para o que
está sendo proposto pelas cordas dedilhadas, do violão e da viola nordestina.
Figura 5: PS5: Segundo tema, com detalhes do cânone entre o Violão e a Viola, evidenciando e a
proximidade entre ambos, enquanto são acompanhados pelo pedal do Marimbau.
Conclusão
Este trabalho trata da utilização dos princípios gestálticos para estudar alguns aspectos
característicos e singulares da música armorial. Foi possível constatar que o conhecimento
desses princípios abriram novas possibilidades de análise musical, possibilitando que o interprete possa apreciar esta peça musical não apenas de maneira técnica, mas também contextual, de modo que se valide a observação das características musicais que são indispensáveis pra
estrutura de uma obra musical desse gênero, transcendendo a análise musical tradicional, dos
modos e escalas musicais comumente utilizadas na música armorial.
Para se entender a música armorial, é de grande importância conhecer seus aspectos
culturais, também a fim de garantir para o músico a sua interpretação correta, principalmente
no que diz respeito à criação melódica e rítmica, que é baseada numa história secular, trazida
pelos colonizadores e por outros povos que também contribuíram culturalmente na formação
do cenário folclórico de cada estado da região do Nordeste Brasileiro. O conhecimento de características da música vocal e instrumental nordestina, com o auxílio de princípios gestálticos, nos propiciou separar alguns dos elementos rítmicos, melódicos e timbrísticos que servem de base para as composições armoriais.
Pretende-se dar prosseguimento a este estudo analisando o comportamento da sonoridade nordestina dos seus cantadores, onde será verificado, através de análises computacionais,
o registro gráfico das características singulares desse gênero musical, que não podem ser grafadas em notação musical tradicional. Ao que sabemos, esta é uma pesquisa única que procura, além de resgatar este importante e pouco divulgado subconjunto da música brasileira, também estudar o comportamento sonoro peculiar de sua sonoridade. Para tanto, foi de fundamental importância o auxílio técnico, histórico e musical recebido do compositor Antonio
José Madureira, fundador do Quinteto Armorial, responsável por auxiliar Ariano Suassuna a
encontrar a sonoridade adequada que de fato caracterizasse este movimento.
Assim como uma pintura representa um determinado período da história e técnica utilizada; onde os seus diferentes elementos (cores, traços e proporções) dão vida e compõem
uma forma; na música – considerada aqui como a arte dos sons organizados – tanto uma nota
musical quanto um ruído possuem características que podem ser analisadas separadamente
mas que juntas, compõem um único contexto. Cada período musical, em termos do seu gênero, ou à uma forma de dança a este associada, possui seu próprio conjunto de elementos constituintes que o caracterizam onde a análise gestáltica permite alcançar, e assim, até certo ponto, entender e separar os elementos constituintes formados de unidades e padrões. Tal ferramenta mostrou ser de grande valia para se analisar a música armorial; tão rica em elementos
diversos que representam uma grande, rica e fecunda miscigenação de comunidades e influências socioculturais.
Referências
FALCÓN, Jorge Alberto. (2013) Quatro critéios para a análise musical baseada na
percepção
auditiva.
Dissertação
de
mestrado
na
UFPR,
2011.
Disponível
em:http://goo.gl/tWhiW9 (Acesso em: 08/06/2013).
FALCÓN, Jorge Alberto.(2010) Aplicação das leis da Gestalt para a detecção de padrões
rítmico-melódicos na música Kashmir de Led Zeppelin e seu uso como ferramenta
analistica. Revista eletrônica de musicologia, Volume XIII. Janeiro. Disponível no link:
http://goo.gl/6HbrqG (Acesso em 02/06/2013).
FERREIRA, Maíra Soares. (2012) A rima na escola, o verso na história. São Paulo/SP;
Boitempo. 2012.
GOMES FILHO, João. (2004) Gestalt do Objeto: Sistema de leitura visual da forma. 6ª
edição, São Paulo: Escrituras Editora.
GUEST, Ian. Arranjo (1996) Método prático vol. 1 /. Rio de Janeiro/RJ: Editado por Almir
Chediak. Lumiar Editora.
KOELLREUTTER, Hans Joachim. (1996) Contraponto Modal do século XVI Palestrina /.
Brasília, DF: Musimed Editora.
MADUREIRA, Antonio José. Entrevista sobre o Movimento Armorial e seus significados.
[26/07/2012]. Entrevista concedida a Gilber Cesar Souto Maior. Recife/PE.
MONTEIRO, Pinto do; PEQUENO, (1980) Zé. Acelerando nas asas do juízo. Disco
independente.
ROCHA FILHO, Othon Gomes da. (s/d) Primeiros acordes ao violão. Irmãos Vitale Editora.
TENNEY, James; POLANSKY, Larry (1980). Temporal Gestalt Perception in Music. Journal
of Music Theory, Vol24, nº2. (Autumn 1980).
WOITOWICZ, Karina Janz. "O som popular e erudito do Quarteto Romançal." Revista
Internacional de Folkcomunicação (online). ISSN 1807-4960. Vol. 4, No 7 (2006)
http://goo.gl/95NYce (acessado em março de 2014)

Documentos relacionados