wxWidget barra de ferramentas
Transcrição
wxWidget barra de ferramentas
Prof. Lawrence Shum Teoria Básica de Áudio Digital Audacity – Software livre editor e multipista O que é som? Midi & Áudio Os elementos básicos do som Audacity – Software livre editor e multipista Dentre os diversos programas de áudio, sugerimos o Audacity pelos seguintes motivos: - É um software livre e, portanto, gratuito. Funciona em Windows (98, ME, 2000, & XP), Mac OS X 10.1 ou superior, Linux e Unix. - Oferece as principais ferramentas de edição e efeitos para processamento de áudio. Além de editor, é multipista para mixagem de músicas, locuções e efeitos sonoros. - Grava automação de volume. Importa e exporta arquivos WAV, AIFF, Ogg Vorbis e MP3. - Tem um número ilimitado de Undos. Apresenta suporte multilíngue para a interface. - É amigável e intuitivo. Embora não possa ser considerado um software hi-end, certamente é útil e honesto (não abre pop-ups chatos com mensagens comerciais e nem apresenta restrições quanto ao uso de determinadas funções). É resultado do trabalho de uma equipe de programadores voluntários em C e C++, através do conjunto de ferramentas wxWidgets (http://wxwidgets.org). O código fonte do programa está disponível por meio de GNU General Public Licence (http://www.gnu.org/copyleft/gpl.html). Isso quer dizer que você pode modificar o código à vontade, desde que disponibilize publicamente as alterações que fizer. O código está no endereço http://sourceforge.net/index.php e programa pode ser baixado a partir de http://audacity.sourceforge.net/. É recomendável que, periodicamente, visite a home do programa para checar novas implementações como VU meters e multi-file export, prometidas para o final de agosto de 2004. Neste curso, exemplificamos conceitos teóricos através de diversas telas do Audacity e, em alguns casos, do Sound Forge, da SONY. 1 Prof. Lawrence Shum O que é som? Midi & Áudio Através de arquivos MIDI ou arquivos de áudio é possível inserir músicas em websites ou aplicativos multimídia. No entanto, eles são completamente diferentes. Neste tópico veremos quais as características, aplicações, prós e contras de cada um. MIDI - O que é? MIDI é uma sigla que significa Musical Instrument Digital Interface. Trata-se de um protocolo que permite que instrumentos musicais eletrônicos (como teclados e sintetizadores) se comuniquem com computadores. Funciona mais ou menos assim: Digamos que você possua um teclado. Cada uma das notas musicais está associada a um circuito eletrônico. Assim, quando você toca uma nota qualquer, o circuito eletrônico correspondente é ativado e envia um sinal elétrico ao chip (o "cérebro" de seu teclado). Em seguida, o chip manda o sinal para a interface MIDI de seu teclado (MIDI Out). Essa interface transforma o sinal em mensagens MIDI e as envia para a interface MIDI de seu computador (MIDI In). A interface MIDI In transforma as mensagens MIDI em códigos binários que o computador é capaz de interpretar. Veja a ilustração: Mas o que são exatamente as mensagens MIDI? Mensagens MIDI são informações sobre a música executada. Se uma determinada nota musical foi tocada ou não (mensagem Note On); qual (ais) nota (s) foi (foram) tocada (s) – os nomes das notas são representados por números – e qual a intensidade com que foi (foram) pressionada (s) – MIDI Velocity. Vamos ver um exemplo: Você tocou o Dó central do seu teclado. Então, uma mensagem Note On é enviada à Interface MIDI do computador (MIDI In), informando que o Dó central foi pressionado. Uma outra mensagem, contendo o número 60 (o número do Dó central), é, em seguida, encaminhada ao computador. Finalmente, outra mensagem contendo um número entre 1 e 127, diz ao computador a intensidade com que a nota foi tocada (1 é muito suave, enquanto 127 é bastante intenso). Existem muitos outros tipos de mensagens MIDI. Elas definem vários parâmetros da execução musical, como os 2 Prof. Lawrence Shum instrumentos utilizados, qual a afinação desses instrumentos, as variações de tonalidade, a duração das notas, etc. Assim, uma vez gravadas essas informações, no computador, ele pode executá-las de modo que a música seja reproduzida exatamente como foi tocada. Observe que os arquivos MIDI não contêm sons, mas instruções de como eles devem soar. Fazendo uma analogia, é como se o arquivo MIDI fosse uma partitura com informações sobre quais instrumentos, como e em que momentos devem tocar. Mas, se o arquivo MIDI não possui sons, como podemos ouvi-los? É simples! Os sons dos instrumentos estão armazenados na memória do teclado ou na do computador. Ou seja, a "partitura" é o arquivo MIDI e a "orquestra", o chip que pode estar tanto no teclado (quando ele tem saída de áudio), quanto na placa de som do computador. Nas placas de som mais comuns (como a Sound Blaster, por exemplo), há duas maneiras dos arquivos MIDI serem executados: através de síntese por FM ou por wavetable. Síntese por FM Mais comum nas placas on board (placas de som integradas à própria motherboard do computador), e nas mais baratas, "imita" os sons dos instrumentos musicais, através de modulações de ondas sonoras. Como os sons são gerados a partir de cálculos matemáticos, esse tipo de síntese possui uma sonoridade artificial. É o chamado "som de joguinho" ou "som de plástico". Além disso, como as diferentes placas de som (de fabricantes diversos) apresentam sonoridades distintas, nunca se sabe como exatamente vão soar. O que acontece é que os timbres têm enorme variação de sonoridade de uma placa para outra. Assim, uma mesma mixagem (processo de mistura de sons de instrumentos na finalização de uma música) pode parecer razoável em uma determinada placa e absolutamente terrível em outra! Isso sem falar que a configuração do computador do usuário pode fazer com que a bateria fique com som de piano. É horroroso... Acredite! O que se pode fazer para minimizar o problema é: - - Adotar um modelo de placa, preparar os arquivos MIDI para este modelo e ignorar os demais. Esta prática, conhecida como "seja o que Deus quiser", não é a mais recomendável. Utilizar emuladores de timbres como o QuickTime. A partir da versão 4, o QuickTime oferece um conjunto de timbres que são executados com arquivos MIDI, independentemente da placa de som do usuário. Assim, é possível fazer com que todos ouçam "a mesma coisa". A desvantagem, porém, é que o QuickTime exige que o usuário de PCs faça o download do programa. A versão 4 exige, inclusive, que a instalação seja feita on-line. Além disso, as placas de som, com síntese por FM, equipam os computadores de menor custo. Assim, são adquiridas, com mais freqüência, por usuários com acesso à Internet através de conexões discadas (as mais lentas). Síntese por Wavetable Forma de síntese mais sofisticada, apresenta pequenas amostras de sons reais de instrumentos para a execução dos arquivos MIDI. A coisa funciona assim: um conjunto de amostras é gravado em memória ROM (memória de somente leitura) da placa de som e, cada vez que um arquivo MIDI é executado, são essas amostras que servem de base para que a música possa tocar. A sonoridade deste tipo de síntese costuma ser superior à feita 3 Prof. Lawrence Shum por FM. Há, porém, grande variedade de preços (e de qualidade!!!) entre os equipamentos que utilizam esta tecnologia. Existem desde as placas de som de baixo custo, passando por outras com preços mais elevados e pelos teclados eletrônicos populares, até os módulos de timbre e sintetizadores mais complexos que chegam a custar mais de cinco mil dólares. Atualmente, um grande número de computadores já vem equipado com placas de som com síntese wavetable. Isso facilita a vida do produtor de som. No entanto, não entraremos em detalhes sobre a produção de arquivos MIDI, pois a criação e edição desse tipo de arquivo exige conhecimentos musicais (que não estão entre os pré-requisitos deste curso), além de software seqüenciador, cabos MIDI e teclado, pelo menos. Prós e contras do uso de arquivos MIDI - A vantagem do uso dos arquivos MIDI é que eles possuem tamanho extremamente reduzido. Enquanto um arquivo de som (como veremos adiante) com qualidade de CD ocupa cerca de 10 MB de espaço em disco por minuto, um arquivo MIDI "pesa" poucos kilobytes. Isso faz com que o usuário possa ouvir a música imediatamente. - A desvantagem dos arquivos MIDI é a dificuldade de controle sobre o que de fato o usuário irá ouvir. Além disso, no formato MIDI, a utilização de vocais gravados, locuções ou efeitos sonoros não é possível. Resumindo: Um arquivo MIDI não contém sons propriamente ditos mas, sim, informações sobre a execução de uma determinada música. 4 Prof. Lawrence Shum Áudio Digital - O que é? Para entender o que é áudio digital é importante que você entenda, antes, o que é áudio analógico. Por exemplo, quando você grava sua voz com um microfone numa fita cassete, o que exatamente está acontecendo? Primeiro, a sua voz (som) provoca, no ar, uma série de pequenas variações de pressão. Essas variações de pressão se comportam como ondas que se propagam no ar. O microfone, então, capta essas ondas (na verdade, o microfone funciona como se fosse um "ouvido" eletrônico) e essas ondas fazem o diafragma do microfone vibrar, acompanhando o mesmo ritmo de suas variações. Em seguida, o diafragma transforma as variações de pressão (provocadas pela sua voz) em variações de impulsos elétricos. A variação de impulsos elétricos é, depois, amplificada e enviada para cabeça de gravação do equipamento cassete. Finalmente, a cabeça de gravação registra o sinal vindo do microfone e o transforma em um fluxo contínuo de variações magnéticas que são registradas na fita. No momento em que você decide ouvir o que gravou, o processo inverso acontece. A cabeça de leitura do gravador recebe o fluxo de variações magnéticas registradas na fita e o converte num sinal elétrico. Este sinal é levado para o amplificador e, deste, para os alto-falantes (caixas acústicas) que, ao se movimentarem para frente e para trás, reproduzem a variação de pressão no ar (ondas sonoras) provocada originalmente pela sua voz, no momento da gravação. Observe a ilustração: Nos sistemas de gravação digital, o processo é diferente. Ao invés de ser transformado em impulsos elétricos, o som (variações de pressão no ar) é convertido em código binário (seqüência de zeros e uns que o computador utiliza como linguagem), através do conversor AD (analógico-digital) da placa de som, instalada no computador. Depois, para se ouvir o que foi gravado, os dados (código binário) são transformados em sinais elétricos, através do conversor DA (digital-analógico) da placa de som, instalada no computador. Finalmente, os sinais elétricos são amplificados e transformados novamente em variações de pressão no ar (som) por meio dos alto-falantes. Observe: 5 Prof. Lawrence Shum Os elementos básicos do som Agora vamos falar mais detalhadamente sobre os elementos básicos do som e suas características. São eles: amplitude (volume), freqüência, timbre, duração e dinâmica. Amplitude Amplitude é aquilo que, no dia a dia, costumamos chamar de volume. Quando alguém pede para "abaixar o volume", está se referindo à amplitude do som. Tecnicamente falando, amplitude é a quantidade de energia produzida por um som qualquer ao longo do tempo. Esta energia é medida em decibéis. Mas o que é decibel? Decibel é a unidade básica de medições de níveis de sinais de áudio. Foi criado em 1928 com o objetivo de se aferir a perda de sinal, através de linhas telefônicas, de forma análoga ao comportamento do ouvido humano. O desafio das companhias telefônicas da época era fazer com que a voz de uma pessoa chegasse até a outra com quem estivesse falando, de modo que a perda de volume ao longo da linha fosse compensada de alguma forma. O decibel, ao contrário de outras medidas, não é uma unidade com valor absoluto. Um metro, por exemplo, equivale sempre a cem centímetros, quer estejamos em S. Paulo, na Patagônia, em Hong Kong ou em Nova Iorque. Já o decibel depende da referência à qual estiver sendo medido. Esta referência pode ser níveis de pressão sonora (como na medição de ruídos de máquinas industriais ou de casas noturnas!), níveis de voltagem em equipamentos de som e níveis de potência em sistemas de sonorização ao vivo, entre outros. Em cada uma dessas referências, o decibel assume diferentes escalas, valores e notações. Mas, relaxe! Aqui não entraremos nas notações matemáticas. O importante é que você saiba que em gravações digitais de som, a amplitude (volume) não pode ultrapassar 0 (zero) dB. Para que isto fique mais claro, usando o Audacity, abra o arquivo Niveis_de_amplitude.wav a partir do caminho Audios_exemplos\Amplitude. 6 Prof. Lawrence Shum Você verá um gráfico similar a este: Agora, para ouvir o arquivo, toque uma vez na barra de espaço do teclado de seu computador ou, com o botão esquerdo do mouse clique no botão play da barra de transporte do Audacity. Depois que você ouvir o trecho Voz com amplitude máxima em 0 dB, clique com o botão esquerdo no mouse no botão pause da barra de transporte. O som será interrompido. Observe: Você deve ter notado que o cursor do Audacity se move da esquerda para a direita na janela de dados, acompanhando o eixo do tempo. A janela de dados é a área azul claro do programa, onde é possível visualizar a onda sonora gravada. O primeiro trecho de locução (Voz com amplitude máxima em 0 dB) tem seu valor máximo de amplitude (pico) em 0 dB. Mas, atenção: o gráfico do Audacity não apresenta sua escala em dB. Por isso, lembre-se que o limite de o dB é representado pelas bordas horizontais superior e inferior da janela de dados. Observe como os picos da onda sonora estão próximos à borda inferior da janela de dados. 7 Prof. Lawrence Shum Agora, clique com o botão esquerdo do mouse imediatamente à esquerda do início da onda sonora logo acima da legenda (label) intitulada Voz com amplitude máxima acima de 0 dB. Em seguida, toque uma vez na barra de espaço do teclado de seu computador ou clique com o botão esquerdo do mouse no botão play da barra de transporte do Audacity. Você vai ouvir o segundo trecho gravado. Você deve ter ouvido a locução com mais amplitude (volume), porém, com distorção. Veja, no gráfico abaixo, que o segundo trecho (Voz com amplitude máxima acima de 0 dB) ficou com seu valor máximo de amplitude acima de 0 dB, provocando o fenômeno conhecido com clip. Clip é aquilo que acontece quando um determinado sinal de áudio ultrapassa o limite de 0 dB em sistemas de gravação digital. Os extremos da onda sonora ficam cortados. É o que acontece quando alguém diz que "a onda ficou quadrada". Veja: 8 Prof. Lawrence Shum Dica: Para alterar o zoom na visualização da onda sonora no Audacity, você pode utilizar as combinações de teclas Ctrl + 1 (Zoom In), Ctrl + 2 (Zoom Normal) e Ctrl + 3 (Zoom Out). Com elas, é possível alterar os níveis de zoom horizontal. Outro jeito de fazer isso é utilizar as pequenas lupas na barra de ferramentas de edição (Edit Tool Bar) do Audacity. Dica: Caso você tenha alterado muito o nível de zoom da onda sonora e queira recuperar, rapidamente, o nível de visualização padrão, é só clicar em Fit Project in Window na barra de ferramentas de edição (Edit Tool Bar). 9 Prof. Lawrence Shum Você pode ainda ajustar a seleção para que ocupe toda a janela de dados, clicando em Fit Selection in Window. 10 Prof. Lawrence Shum Para ajustar os níveis de zoom vertical, basta levar o ponteiro do mouse até o ponto 0,0 na escala à direita de janela de dados. O ponteiro do mouse se transforma em um sinal de + (Zoom In) ou de – (Zoom Out), se a tecla Shift for pressionada simultaneamente. Em seguida, clique com o botão esquerdo. O mesmo arquivo com Zoom In vertical (à esquerda) e Zoom Out vertical (à direita) Para que você entenda mais claramente o que é uma onda sonora, vamos fazer uma analogia simples. Lembra-se daquela brincadeira de crianças de se prender, a copos de papel, as duas extremidades de um pedaço de linha, simulando um walk-talk? A coisa funciona mais ou menos assim: uma criança fala com a boca direcionada para o interior de um dos copos de papel que se comporta como um microfone. As vibrações da voz no copo de papel se propagam pela linha e, do outro lado, a segunda criança ouve o que a primeira disse. As vibrações fazem com que copo de papel da segunda criança trabalhe como se fosse um alto-falante. Se fosse possível congelar os movimentos da linha e, em seguida, ampliá-los (fazendo um zoom), você seria capaz de ver as vibrações da voz da primeira criança na linha. A aparência dessas vibrações seria similar à da onda sonora abaixo. Veja: 11 Prof. Lawrence Shum Representação da onda sonora no Audacity Como você pode ver, a onda sonora apresenta movimentos para cima e para baixo, como uma linha vibrante. Representação da onda sonora no Sound Forge Alguns softwares, como o Sound Forge da SONY, apresentam uma linha chamada zero axis (eixo zero) no centro horizontal do gráfico. Esta linha representa o ponto de uma onda sonora onde não há vibrações (ou sons). Seria algo equivalente ao estado de repouso da linha. Quando a onda sonora se move acima ou abaixo deste eixo, vibrações ocorrem e, conseqüentemente, há som. O valor da amplitude (volume) do som em um determinado 12 Prof. Lawrence Shum instante depende do quão distante, acima e / ou abaixo, do zero axis (eixo zero), a onda sonora se encontre. Note que a janela de dados de ambos os programas representa um gráfico cartesiano. No eixo X (horizontal) encontra-se a variável tempo; no eixo Y (vertical), a amplitude. O Sound Forge possui ainda um terceiro eixo, o zero axis (eixo zero) que se situa no centro horizontal da janela de dados. 13 Prof. Lawrence Shum Freqüência Freqüência é aquilo que determina nossa percepção de que um som é mais grave ou agudo. Tecnicamente, é o número de ciclos de 360º que uma onda sonora completa em um segundo. Observe no gráfico, que no ciclo de 360º, 180º estão acima do zero axis (eixo zero) e os outros 180º, abaixo. Na ilustração abaixo, as ondas sonoras têm suas freqüências dobradas sucessivamente. Observe: 14 Prof. Lawrence Shum 15 Prof. Lawrence Shum O número de ciclos por segundo é o que chamamos de Hz. Assim, uma freqüência de 40 Hz, por exemplo, possui 40 ciclos por segundo. Teoricamente, o ser humano á capaz de ouvir freqüências entre 20 Hz e 20.000 Hz (20 kHz). Na prática, porém, isso varia de pessoa para pessoa. Além disso, após os 40 anos de idade, especialmente no caso dos homens, inicia-se uma perda gradual de audição das freqüências mais altas (as mais agudas). Isso pode ser minimizado com um estilo de vida saudável: boa alimentação, quantidade e qualidade de sono e prática de atividades físicas. Além disso, não são todos os equipamentos, placas de áudio e caixas acústicas que conseguem uma resposta full-range, ou seja, de todas as freqüências. Os equipamentos profissionais de maior qualidade (ver apêndice A) têm o que chamamos de "resposta plana". Isso quer dizer: de todas as freqüências de maneira proporcional. Na média, os equipamentos respondem com mais ou menos eficácia a grupos específicos de freqüências. O radinho de pilha do "futebol", por exemplo, não tem graves, nem agudos; apenas uma faixa estreita de médios. Mas como se dividem as faixas de freqüências (graves, médios e agudos)? Essa é uma questão que pode gerar alguma polêmica. Alguns especialistas classificam assim: graves entre 20 Hz e 200 Hz, médios entre 200 Hz e 6,3 kHz (6.300 Hz) e agudos entre 6,3 kHz e 20 kHz. Pode-se ainda por sub-dividir a faixa dos médios em médios-graves (entre 200 Hz e 630 Hz), médios-médios (entre 630 Hz e 2 kHz) e médios-agudos (entre 2 kHz e 6,3 kHz). Isso faz sentido porque a faixa dos médios é onde se encontram as freqüências fundamentais da maioria dos instrumentos musicais. A freqüência fundamental de um instrumento ou de qualquer outro som é a primeira de todas as freqüências que compõem seu espectro harmônico (veja adiante em Timbre). A faixa dos médios é também a que mais facilmente conseguimos ouvir. É justamente nela que se concentram as vozes humanas. Por isso, é que mesmo ao telefone, que possui uma faixa estreita de freqüências entre 350 Hz e 3,5 kHz (3.500 Hz), nós conseguimos perceber, com um simples "alô", quem é que está falando, quando somos íntimos da pessoa do outro lado da linha. As freqüências abaixo de 20 Hz são chamadas de infra-sons. Essas freqüências não são audíveis, mas podem causar danos à saúde por causa de suas vibrações. Costumam ocorrer em instalações industriais. Já as freqüências acima de 20 kHz são conhecidas como ultrasons. São amplamente utilizadas na medicina. Alguns animais, como os cachorros, por exemplo, são capazes de escutá-las. 16 Prof. Lawrence Shum Há também outra forma, mais simples e prática, de classificar freqüências: Para ouvir as freqüências isoladamente, vamos fazer uma atividade prática. Leve o ponteiro do mouse até o menu Generate e escolha a opção Tone. Aparecerá a tela: 17 Prof. Lawrence Shum Esta caixa apresenta as funções Waveform, Frequency / Hz e Amplitude (0-1). Vamos conhecê-las: - - Waveform é o tipo de onda a ser criada. As opções que o Audacity oferece são Sine (senóide), Square (quadrada) e Sawtooth (serrote). Frequency é a freqüência. Experimente uma freqüência entre 80 Hz e 200 Hz. Depois, repita o processo com outras freqüências que quiser ouvir. Você pode criar várias freqüências em uma mesma pista ou criar uma nova pista para cada freqüência. Também é possível inserir a nova freqüência em um lugar qualquer do arquivo. Para isso, o cursor do mouse deverá ter sido colocado previamente na posição desejada, dentro da janela de dados. Amplitude é o volume para cada nova freqüência a ser gerada. O valor padrão 1.00 equivale a 0 dB, o volume máximo sem distorção no âmbito digital. Dica: Experimente também ouvir os arquivos de varreduras entre freqüências variadas. Para localizá-los, siga o caminho: Audios_exemplos\Frequencias. 18 Prof. Lawrence Shum Timbre Como na natureza (e nos instrumentos musicais!!) não existem sons feitos com freqüências únicas, é o timbre, com seu conteúdo harmônico (de freqüências distintas), que caracteriza a sonoridade de cada instrumento ou voz. O timbre é a "marca registrada", a "impressão digital" de um som. Para que isso fique mais claro, abra (pelo Audacity) o arquivo Timbre.wav. Para localizá-lo, siga o caminho: Audios_exemplos\Timbre. Este arquivo contém a mesma nota A4 (LA 4) tocada por três instrumentos: um piano, um trompete e um violão. Ouça-os. Observe no gráfico que cada instrumento tem um "desenho" diferente. Este "desenho" é o que chamamos de envelope. O envelope é composto pelo attack (ataque), decay (decaimento), sustain (sustentação), e release (finalização). Note que cada um dos instrumentos têm características completamente distintas. Enquanto o trompete tem um ataque rápido, um decaimento de curtíssima duração, uma sustentação extremamente uniforme e prolongada e uma finalização breve, nos outros dois instrumentos, o ataque também é rápido, mas o decaimento é bem mais pronunciado (especialmente no violão), a sustentação tem menor duração (com mais oscilação no violão) e a finalização é mais gradual. O envelope nos informa a respeito da evolução de um som ao longo do tempo. Suas características são resultado da interação entre os elementos que compõem um timbre. 19 Prof. Lawrence Shum - São eles: Onda fundamental (a primeira de todas as freqüências de um som) - Número de harmônicos (múltiplos inteiros da onda fundamental) Distribuição dos harmônicos - Intensidade relativa de cada harmônico Inarmônicos das parciais (freqüências não harmônicas) - Intensidade total das partes somadas à fundamental Vamos ver um exemplo: As notas de um piano estão afinadas de acordo com a tradição da música tonal. Elas vão do A0 (LA 0), cuja freqüência é de 27,5 Hz até o C8 (Dó 8), com freqüência de 4.168,01 Hz. Se esta faixa entre 27,5 Hz e 4.168,01 Hz fosse a única a ser considerada, não seriam necessários equipamentos capazes de reproduzir freqüências acima de 4.168,01 Hz para se ouvir bem um piano. Mas justamente, porque o timbre de um instrumento é composto também por seus harmônicos e inarmônicos, é que as freqüências a serem consideradas atingem valores bem elevados. Vamos exemplificar: Como dissemos a pouco, harmônicos são múltiplos inteiros da fundamental. Assim, um instrumento com a fundamental em 3 kHz, inclui vários harmônicos misturados à fundamental de forma particular, criando sua sonoridade própria. Os primeiros harmônicos de uma fundamental de 3 kHz estão em 6 kHz, 9 kHz, 12 kHz, 15 kHz, 18 kHz, 21 kHz e assim por diante (2 X 3 kHz, 3 X 3 kHz, 4 X 3 kHz). Além disso, o fato do ser humano ser incapaz de ouvir freqüências acima de 20 kHz não implica na inexistência de harmônicos e inarmônicos acima deste valor. Eles existem e se combinam à fundamental de maneira que afetam o timbre que ouvimos. 20 Prof. Lawrence Shum Duração A duração de um determinado som também tem influência na maneira como o percebemos. Tecnicamente, trata-se do tempo de vibração de um objeto qualquer em decorrência de uma única excitação. Mas, vamos ouvir o que isso exatamente quer dizer. Abra o arquivo Duracao_01.wav. Ele está em Audios_exemplos\Duracao. Nele há a nota F4 (FA 4) de um piano gravada duas vezes; a primeira sem o efeito de sustain (pedal de sustentação) e a segunda com o efeito. Ouça a diferença. Note como o efeito de sustain também afeta o envelope do som. 21 Prof. Lawrence Shum Agora, abra o arquivo Duracao_02.wav. Ele está em Audios_exemplos\Duracao. Aqui foi gravada uma onda pura de 200 Hz com duração de 10 milisegundos e, depois, a mesma freqüência com 5 segundos de duração. Ouça e compare! 22 Prof. Lawrence Shum Dinâmica Dinâmica nada mais é do que variações de amplitude (volume) ao longo do tempo. Em linguagem musical, há as seguintes possibilidades: pp pianíssimo (muito suave) p piano (suave) mp mezzo piano (moderadamente suave) mf mezzo forte (moderadamente forte) f forte (forte) ff fortíssimo (muito forte) Agora, abra o arquivo Dinamica.wav. Ele está em Audios_exemplos\Amplitude. Aqui, há dois trechos musicais de curta duração. O primeiro tem grande variação de dinâmica; o segundo tem uma variação menor. Ouça e compare! A variação de dinâmica pode ser facilmente visualizada no gráfico. 23 Prof. Lawrence Shum No próximo capítulo você conhecerá mais profundamente as diferenças entre som analógico e som digital. Conversaremos sobre fatores importantes como Sampling Rate e Sampling Resolution (Bit-Depth) e faremos diversas atividades práticas no Audacity. Até lá! Bibliografia ARTIST PRO. Curso de áudio on line. www.artistpro.com. AUDACITY. Website dos desenvolvedores: http://audacity.sourceforge.net/ BEGGS, Josh and THEDE, Dylan. Designing Web Audio. Sebastopol: O’ Reilly & Associates, 2001. GARRIGUS, Scott R. Sound Forge Power. Ohio: Muska & Lipman , 2001. GENERAL PUBLIC LICENCE. Website da organização: http://www.gnu.org/copyleft/gpl.html ROSE, Jay. Producing Great Sound for Digital Video. San Francisco: Miller Freeman Books, 1999. SONY Media Software. Website da empresa: http://mediasoftware.sonypictures.com/ SOURCE FORGE. Website da organização: http://sourceforge.net/index.php WXWIDGETS. Website da organização: http://wxwidgets.org 24