wxWidget barra de ferramentas

Transcrição

wxWidget barra de ferramentas
Prof. Lawrence Shum
Teoria Básica de Áudio Digital
Audacity – Software livre editor e multipista
O que é som? Midi & Áudio
Os elementos básicos do som
Audacity – Software livre editor e multipista
Dentre os diversos programas de áudio, sugerimos o Audacity pelos seguintes motivos:
-
É um software livre e, portanto, gratuito.
Funciona em Windows (98, ME, 2000, & XP), Mac OS X 10.1 ou superior, Linux
e Unix.
-
Oferece as principais ferramentas de edição e efeitos para processamento de áudio.
Além de editor, é multipista para mixagem de músicas, locuções e efeitos sonoros.
-
Grava automação de volume.
Importa e exporta arquivos WAV, AIFF, Ogg Vorbis e MP3.
-
Tem um número ilimitado de Undos.
Apresenta suporte multilíngue para a interface.
-
É amigável e intuitivo.
Embora não possa ser considerado um software hi-end, certamente é útil e honesto
(não abre pop-ups chatos com mensagens comerciais e nem apresenta restrições quanto ao
uso de determinadas funções). É resultado do trabalho de uma equipe de programadores
voluntários em C e C++, através do conjunto de ferramentas wxWidgets
(http://wxwidgets.org). O código fonte do programa está disponível por meio de GNU
General Public Licence (http://www.gnu.org/copyleft/gpl.html). Isso quer dizer que você
pode modificar o código à vontade, desde que disponibilize publicamente as alterações que
fizer. O código está no endereço http://sourceforge.net/index.php e programa pode ser
baixado a partir de http://audacity.sourceforge.net/.
É recomendável que, periodicamente, visite a home do programa para checar novas
implementações como VU meters e multi-file export, prometidas para o final de agosto de
2004.
Neste curso, exemplificamos conceitos teóricos através de diversas telas do Audacity
e, em alguns casos, do Sound Forge, da SONY.
1
Prof. Lawrence Shum
O que é som? Midi & Áudio
Através de arquivos MIDI ou arquivos de áudio é possível inserir músicas em websites
ou aplicativos multimídia. No entanto, eles são completamente diferentes. Neste tópico
veremos quais as características, aplicações, prós e contras de cada um.
MIDI - O que é?
MIDI é uma sigla que significa Musical Instrument Digital Interface. Trata-se de um
protocolo que permite que instrumentos musicais eletrônicos (como teclados e
sintetizadores) se comuniquem com computadores. Funciona mais ou menos assim:
Digamos que você possua um teclado. Cada uma das notas musicais está associada a um
circuito eletrônico. Assim, quando você toca uma nota qualquer, o circuito eletrônico
correspondente é ativado e envia um sinal elétrico ao chip (o "cérebro" de seu teclado). Em
seguida, o chip manda o sinal para a interface MIDI de seu teclado (MIDI Out). Essa
interface transforma o sinal em mensagens MIDI e as envia para a interface MIDI de seu
computador (MIDI In). A interface MIDI In transforma as mensagens MIDI em códigos
binários que o computador é capaz de interpretar. Veja a ilustração:
Mas o que são exatamente as mensagens MIDI? Mensagens MIDI são informações
sobre a música executada. Se uma determinada nota musical foi tocada ou não (mensagem
Note On); qual (ais) nota (s) foi (foram) tocada (s) – os nomes das notas são representados
por números – e qual a intensidade com que foi (foram) pressionada (s) – MIDI Velocity.
Vamos ver um exemplo: Você tocou o Dó central do seu teclado. Então, uma mensagem
Note On é enviada à Interface MIDI do computador (MIDI In), informando que o Dó
central foi pressionado. Uma outra mensagem, contendo o número 60 (o número do Dó
central), é, em seguida, encaminhada ao computador. Finalmente, outra mensagem
contendo um número entre 1 e 127, diz ao computador a intensidade com que a nota foi
tocada (1 é muito suave, enquanto 127 é bastante intenso). Existem muitos outros tipos de
mensagens MIDI. Elas definem vários parâmetros da execução musical, como os
2
Prof. Lawrence Shum
instrumentos utilizados, qual a afinação desses instrumentos, as variações de tonalidade, a
duração das notas, etc. Assim, uma vez gravadas essas informações, no computador, ele
pode executá-las de modo que a música seja reproduzida exatamente como foi tocada.
Observe que os arquivos MIDI não contêm sons, mas instruções de como eles devem soar.
Fazendo uma analogia, é como se o arquivo MIDI fosse uma partitura com informações
sobre quais instrumentos, como e em que momentos devem tocar. Mas, se o arquivo MIDI
não possui sons, como podemos ouvi-los? É simples! Os sons dos instrumentos estão
armazenados na memória do teclado ou na do computador. Ou seja, a "partitura" é o
arquivo MIDI e a "orquestra", o chip que pode estar tanto no teclado (quando ele tem saída
de áudio), quanto na placa de som do computador. Nas placas de som mais comuns (como a
Sound Blaster, por exemplo), há duas maneiras dos arquivos MIDI serem executados:
através de síntese por FM ou por wavetable.
Síntese por FM
Mais comum nas placas on board (placas de som integradas à própria motherboard do
computador), e nas mais baratas, "imita" os sons dos instrumentos musicais, através de
modulações de ondas sonoras. Como os sons são gerados a partir de cálculos matemáticos,
esse tipo de síntese possui uma sonoridade artificial. É o chamado "som de joguinho" ou
"som de plástico". Além disso, como as diferentes placas de som (de fabricantes diversos)
apresentam sonoridades distintas, nunca se sabe como exatamente vão soar. O que acontece
é que os timbres têm enorme variação de sonoridade de uma placa para outra. Assim, uma
mesma mixagem (processo de mistura de sons de instrumentos na finalização de uma
música) pode parecer razoável em uma determinada placa e absolutamente terrível em
outra! Isso sem falar que a configuração do computador do usuário pode fazer com que a
bateria fique com som de piano. É horroroso... Acredite! O que se pode fazer para
minimizar o problema é:
-
-
Adotar um modelo de placa, preparar os arquivos MIDI para este modelo e ignorar os
demais. Esta prática, conhecida como "seja o que Deus quiser", não é a mais
recomendável.
Utilizar emuladores de timbres como o QuickTime. A partir da versão 4, o QuickTime
oferece um conjunto de timbres que são executados com arquivos MIDI,
independentemente da placa de som do usuário. Assim, é possível fazer com que todos
ouçam "a mesma coisa". A desvantagem, porém, é que o QuickTime exige que o
usuário de PCs faça o download do programa. A versão 4 exige, inclusive, que a
instalação seja feita on-line. Além disso, as placas de som, com síntese por FM,
equipam os computadores de menor custo. Assim, são adquiridas, com mais freqüência,
por usuários com acesso à Internet através de conexões discadas (as mais lentas).
Síntese por Wavetable
Forma de síntese mais sofisticada, apresenta pequenas amostras de sons reais de
instrumentos para a execução dos arquivos MIDI. A coisa funciona assim: um conjunto de
amostras é gravado em memória ROM (memória de somente leitura) da placa de som e,
cada vez que um arquivo MIDI é executado, são essas amostras que servem de base para
que a música possa tocar. A sonoridade deste tipo de síntese costuma ser superior à feita
3
Prof. Lawrence Shum
por FM. Há, porém, grande variedade de preços (e de qualidade!!!) entre os equipamentos
que utilizam esta tecnologia. Existem desde as placas de som de baixo custo, passando por
outras com preços mais elevados e pelos teclados eletrônicos populares, até os módulos de
timbre e sintetizadores mais complexos que chegam a custar mais de cinco mil dólares.
Atualmente, um grande número de computadores já vem equipado com placas de som com
síntese wavetable. Isso facilita a vida do produtor de som. No entanto, não entraremos em
detalhes sobre a produção de arquivos MIDI, pois a criação e edição desse tipo de arquivo
exige conhecimentos musicais (que não estão entre os pré-requisitos deste curso), além de
software seqüenciador, cabos MIDI e teclado, pelo menos.
Prós e contras do uso de arquivos MIDI
- A vantagem do uso dos arquivos MIDI é que eles possuem tamanho extremamente
reduzido. Enquanto um arquivo de som (como veremos adiante) com qualidade de CD
ocupa cerca de 10 MB de espaço em disco por minuto, um arquivo MIDI "pesa" poucos
kilobytes. Isso faz com que o usuário possa ouvir a música imediatamente.
- A desvantagem dos arquivos MIDI é a dificuldade de controle sobre o que de fato o
usuário irá ouvir. Além disso, no formato MIDI, a utilização de vocais gravados,
locuções ou efeitos sonoros não é possível.
Resumindo: Um arquivo MIDI não contém sons propriamente ditos mas, sim,
informações sobre a execução de uma determinada música.
4
Prof. Lawrence Shum
Áudio Digital - O que é?
Para entender o que é áudio digital é importante que você entenda, antes, o que é áudio
analógico. Por exemplo, quando você grava sua voz com um microfone numa fita cassete, o
que exatamente está acontecendo? Primeiro, a sua voz (som) provoca, no ar, uma série de
pequenas variações de pressão. Essas variações de pressão se comportam como ondas que
se propagam no ar. O microfone, então, capta essas ondas (na verdade, o microfone
funciona como se fosse um "ouvido" eletrônico) e essas ondas fazem o diafragma do
microfone vibrar, acompanhando o mesmo ritmo de suas variações. Em seguida, o
diafragma transforma as variações de pressão (provocadas pela sua voz) em variações de
impulsos elétricos. A variação de impulsos elétricos é, depois, amplificada e enviada para
cabeça de gravação do equipamento cassete. Finalmente, a cabeça de gravação registra o
sinal vindo do microfone e o transforma em um fluxo contínuo de variações magnéticas que
são registradas na fita. No momento em que você decide ouvir o que gravou, o processo
inverso acontece. A cabeça de leitura do gravador recebe o fluxo de variações magnéticas
registradas na fita e o converte num sinal elétrico. Este sinal é levado para o amplificador e,
deste, para os alto-falantes (caixas acústicas) que, ao se movimentarem para frente e para
trás, reproduzem a variação de pressão no ar (ondas sonoras) provocada originalmente pela
sua voz, no momento da gravação. Observe a ilustração:
Nos sistemas de gravação digital, o processo é diferente. Ao invés de ser transformado
em impulsos elétricos, o som (variações de pressão no ar) é convertido em código binário
(seqüência de zeros e uns que o computador utiliza como linguagem), através do conversor
AD (analógico-digital) da placa de som, instalada no computador. Depois, para se ouvir o
que foi gravado, os dados (código binário) são transformados em sinais elétricos, através do
conversor DA (digital-analógico) da placa de som, instalada no computador.
Finalmente, os sinais elétricos são amplificados e transformados novamente em
variações de pressão no ar (som) por meio dos alto-falantes. Observe:
5
Prof. Lawrence Shum
Os elementos básicos do som
Agora vamos falar mais detalhadamente sobre os elementos básicos do som e suas
características. São eles: amplitude (volume), freqüência, timbre, duração e dinâmica.
Amplitude
Amplitude é aquilo que, no dia a dia, costumamos chamar de volume. Quando alguém
pede para "abaixar o volume", está se referindo à amplitude do som. Tecnicamente falando,
amplitude é a quantidade de energia produzida por um som qualquer ao longo do tempo.
Esta energia é medida em decibéis. Mas o que é decibel? Decibel é a unidade básica de
medições de níveis de sinais de áudio. Foi criado em 1928 com o objetivo de se aferir a
perda de sinal, através de linhas telefônicas, de forma análoga ao comportamento do ouvido
humano. O desafio das companhias telefônicas da época era fazer com que a voz de uma
pessoa chegasse até a outra com quem estivesse falando, de modo que a perda de volume
ao longo da linha fosse compensada de alguma forma. O decibel, ao contrário de outras
medidas, não é uma unidade com valor absoluto. Um metro, por exemplo, equivale sempre
a cem centímetros, quer estejamos em S. Paulo, na Patagônia, em Hong Kong ou em Nova
Iorque. Já o decibel depende da referência à qual estiver sendo medido. Esta referência
pode ser níveis de pressão sonora (como na medição de ruídos de máquinas industriais ou
de casas noturnas!), níveis de voltagem em equipamentos de som e níveis de potência em
sistemas de sonorização ao vivo, entre outros. Em cada uma dessas referências, o decibel
assume diferentes escalas, valores e notações. Mas, relaxe! Aqui não entraremos nas
notações matemáticas. O importante é que você saiba que em gravações digitais de som, a
amplitude (volume) não pode ultrapassar 0 (zero) dB. Para que isto fique mais claro,
usando o Audacity, abra o arquivo Niveis_de_amplitude.wav a partir do caminho
Audios_exemplos\Amplitude.
6
Prof. Lawrence Shum
Você verá um gráfico similar a este:
Agora, para ouvir o arquivo, toque uma vez na barra de espaço do teclado de seu
computador ou, com o botão esquerdo do mouse clique no botão play da barra de transporte
do Audacity. Depois que você ouvir o trecho Voz com amplitude máxima em 0 dB, clique
com o botão esquerdo no mouse no botão pause da barra de transporte. O som será
interrompido. Observe:
Você deve ter notado que o cursor do Audacity se move da esquerda para a direita
na janela de dados, acompanhando o eixo do tempo. A janela de dados é a área azul claro
do programa, onde é possível visualizar a onda sonora gravada. O primeiro trecho de
locução (Voz com amplitude máxima em 0 dB) tem seu valor máximo de amplitude
(pico) em 0 dB. Mas, atenção: o gráfico do Audacity não apresenta sua escala em dB. Por
isso, lembre-se que o limite de o dB é representado pelas bordas horizontais superior e
inferior da janela de dados. Observe como os picos da onda sonora estão próximos à
borda inferior da janela de dados.
7
Prof. Lawrence Shum
Agora, clique com o botão esquerdo do mouse imediatamente à esquerda do início da
onda sonora logo acima da legenda (label) intitulada Voz com amplitude máxima acima de
0 dB. Em seguida, toque uma vez na barra de espaço do teclado de seu computador ou
clique com o botão esquerdo do mouse no botão play da barra de transporte do Audacity.
Você vai ouvir o segundo trecho gravado.
Você deve ter ouvido a locução com mais amplitude (volume), porém, com distorção.
Veja, no gráfico abaixo, que o segundo trecho (Voz com amplitude máxima acima de 0 dB)
ficou com seu valor máximo de amplitude acima de 0 dB, provocando o fenômeno
conhecido com clip.
Clip é aquilo que acontece quando um determinado sinal de áudio ultrapassa o limite
de 0 dB em sistemas de gravação digital. Os extremos da onda sonora ficam cortados. É o
que acontece quando alguém diz que "a onda ficou quadrada". Veja:
8
Prof. Lawrence Shum
Dica: Para alterar o zoom na visualização da onda sonora no Audacity, você pode utilizar as
combinações de teclas Ctrl + 1 (Zoom In), Ctrl + 2 (Zoom Normal) e Ctrl + 3 (Zoom Out).
Com elas, é possível alterar os níveis de zoom horizontal. Outro jeito de fazer isso é utilizar
as pequenas lupas na barra de ferramentas de edição (Edit Tool Bar) do Audacity.
Dica: Caso você tenha alterado muito o nível de zoom da onda sonora e queira recuperar,
rapidamente, o nível de visualização padrão, é só clicar em Fit Project in Window na barra
de ferramentas de edição (Edit Tool Bar).
9
Prof. Lawrence Shum
Você pode ainda ajustar a seleção para que ocupe toda a janela de dados, clicando em Fit
Selection in Window.
10
Prof. Lawrence Shum
Para ajustar os níveis de zoom vertical, basta levar o ponteiro do mouse até o ponto 0,0 na
escala à direita de janela de dados. O ponteiro do mouse se transforma em um sinal de +
(Zoom In) ou de – (Zoom Out), se a tecla Shift for pressionada simultaneamente. Em
seguida, clique com o botão esquerdo.
O mesmo arquivo com Zoom In vertical (à esquerda) e Zoom Out vertical (à direita)
Para que você entenda mais claramente o que é uma onda sonora, vamos fazer uma
analogia simples. Lembra-se daquela brincadeira de crianças de se prender, a copos de
papel, as duas extremidades de um pedaço de linha, simulando um walk-talk? A coisa
funciona mais ou menos assim: uma criança fala com a boca direcionada para o interior de
um dos copos de papel que se comporta como um microfone. As vibrações da voz no copo
de papel se propagam pela linha e, do outro lado, a segunda criança ouve o que a primeira
disse. As vibrações fazem com que copo de papel da segunda criança trabalhe como se
fosse um alto-falante. Se fosse possível congelar os movimentos da linha e, em seguida,
ampliá-los (fazendo um zoom), você seria capaz de ver as vibrações da voz da primeira
criança na linha. A aparência dessas vibrações seria similar à da onda sonora abaixo. Veja:
11
Prof. Lawrence Shum
Representação da onda sonora no Audacity
Como você pode ver, a onda sonora apresenta movimentos para cima e para baixo,
como uma linha vibrante.
Representação da onda sonora no Sound Forge
Alguns softwares, como o Sound Forge da SONY, apresentam uma linha chamada
zero axis (eixo zero) no centro horizontal do gráfico. Esta linha representa o ponto de uma
onda sonora onde não há vibrações (ou sons). Seria algo equivalente ao estado de repouso
da linha. Quando a onda sonora se move acima ou abaixo deste eixo, vibrações ocorrem e,
conseqüentemente, há som. O valor da amplitude (volume) do som em um determinado
12
Prof. Lawrence Shum
instante depende do quão distante, acima e / ou abaixo, do zero axis (eixo zero), a onda
sonora se encontre. Note que a janela de dados de ambos os programas representa um
gráfico cartesiano. No eixo X (horizontal) encontra-se a variável tempo; no eixo Y
(vertical), a amplitude. O Sound Forge possui ainda um terceiro eixo, o zero axis (eixo
zero) que se situa no centro horizontal da janela de dados.
13
Prof. Lawrence Shum
Freqüência
Freqüência é aquilo que determina nossa percepção de que um som é mais grave ou agudo.
Tecnicamente, é o número de ciclos de 360º que uma onda sonora completa em um
segundo. Observe no gráfico, que no ciclo de 360º, 180º estão acima do zero axis (eixo
zero) e os outros 180º, abaixo.
Na ilustração abaixo, as ondas sonoras têm suas freqüências dobradas sucessivamente.
Observe:
14
Prof. Lawrence Shum
15
Prof. Lawrence Shum
O número de ciclos por segundo é o que chamamos de Hz. Assim, uma freqüência de
40 Hz, por exemplo, possui 40 ciclos por segundo. Teoricamente, o ser humano á capaz de
ouvir freqüências entre 20 Hz e 20.000 Hz (20 kHz). Na prática, porém, isso varia de
pessoa para pessoa. Além disso, após os 40 anos de idade, especialmente no caso dos
homens, inicia-se uma perda gradual de audição das freqüências mais altas (as mais
agudas). Isso pode ser minimizado com um estilo de vida saudável: boa alimentação,
quantidade e qualidade de sono e prática de atividades físicas. Além disso, não são todos os
equipamentos, placas de áudio e caixas acústicas que conseguem uma resposta full-range,
ou seja, de todas as freqüências. Os equipamentos profissionais de maior qualidade (ver
apêndice A) têm o que chamamos de "resposta plana". Isso quer dizer: de todas as
freqüências de maneira proporcional. Na média, os equipamentos respondem com mais ou
menos eficácia a grupos específicos de freqüências. O radinho de pilha do "futebol", por
exemplo, não tem graves, nem agudos; apenas uma faixa estreita de médios. Mas como se
dividem as faixas de freqüências (graves, médios e agudos)? Essa é uma questão que pode
gerar alguma polêmica. Alguns especialistas classificam assim: graves entre 20 Hz e 200
Hz, médios entre 200 Hz e 6,3 kHz (6.300 Hz) e agudos entre 6,3 kHz e 20 kHz. Pode-se
ainda por sub-dividir a faixa dos médios em médios-graves (entre 200 Hz e 630 Hz),
médios-médios (entre 630 Hz e 2 kHz) e médios-agudos (entre 2 kHz e 6,3 kHz). Isso faz
sentido porque a faixa dos médios é onde se encontram as freqüências fundamentais da
maioria dos instrumentos musicais. A freqüência fundamental de um instrumento ou de
qualquer outro som é a primeira de todas as freqüências que compõem seu espectro
harmônico (veja adiante em Timbre). A faixa dos médios é também a que mais facilmente
conseguimos ouvir. É justamente nela que se concentram as vozes humanas. Por isso, é que
mesmo ao telefone, que possui uma faixa estreita de freqüências entre 350 Hz e 3,5 kHz
(3.500 Hz), nós conseguimos perceber, com um simples "alô", quem é que está falando,
quando somos íntimos da pessoa do outro lado da linha.
As freqüências abaixo de 20 Hz são chamadas de infra-sons. Essas freqüências não são
audíveis, mas podem causar danos à saúde por causa de suas vibrações. Costumam ocorrer
em instalações industriais. Já as freqüências acima de 20 kHz são conhecidas como ultrasons. São amplamente utilizadas na medicina. Alguns animais, como os cachorros, por
exemplo, são capazes de escutá-las.
16
Prof. Lawrence Shum
Há também outra forma, mais simples e prática, de classificar freqüências:
Para ouvir as freqüências isoladamente, vamos fazer uma atividade prática. Leve o
ponteiro do mouse até o menu Generate e escolha a opção Tone.
Aparecerá a tela:
17
Prof. Lawrence Shum
Esta caixa apresenta as funções Waveform, Frequency / Hz e Amplitude (0-1). Vamos
conhecê-las:
-
-
Waveform é o tipo de onda a ser criada. As opções que o Audacity oferece são Sine
(senóide), Square (quadrada) e Sawtooth (serrote).
Frequency é a freqüência. Experimente uma freqüência entre 80 Hz e 200 Hz. Depois,
repita o processo com outras freqüências que quiser ouvir. Você pode criar várias
freqüências em uma mesma pista ou criar uma nova pista para cada freqüência.
Também é possível inserir a nova freqüência em um lugar qualquer do arquivo. Para
isso, o cursor do mouse deverá ter sido colocado previamente na posição desejada,
dentro da janela de dados.
Amplitude é o volume para cada nova freqüência a ser gerada. O valor padrão 1.00
equivale a 0 dB, o volume máximo sem distorção no âmbito digital.
Dica: Experimente também ouvir os arquivos de varreduras entre freqüências variadas.
Para localizá-los, siga o caminho: Audios_exemplos\Frequencias.
18
Prof. Lawrence Shum
Timbre
Como na natureza (e nos instrumentos musicais!!) não existem sons feitos com
freqüências únicas, é o timbre, com seu conteúdo harmônico (de freqüências distintas), que
caracteriza a sonoridade de cada instrumento ou voz. O timbre é a "marca registrada", a
"impressão digital" de um som. Para que isso fique mais claro, abra (pelo Audacity) o
arquivo Timbre.wav. Para localizá-lo, siga o caminho:
Audios_exemplos\Timbre. Este arquivo contém a mesma nota A4 (LA 4) tocada por três
instrumentos: um piano, um trompete e um violão. Ouça-os.
Observe no gráfico que cada instrumento tem um "desenho" diferente. Este "desenho"
é o que chamamos de envelope. O envelope é composto pelo attack (ataque), decay
(decaimento), sustain (sustentação), e release (finalização). Note que cada um dos
instrumentos têm características completamente distintas. Enquanto o trompete tem um
ataque rápido, um decaimento de curtíssima duração, uma sustentação extremamente
uniforme e prolongada e uma finalização breve, nos outros dois instrumentos, o ataque
também é rápido, mas o decaimento é bem mais pronunciado (especialmente no violão), a
sustentação tem menor duração (com mais oscilação no violão) e a finalização é mais
gradual. O envelope nos informa a respeito da evolução de um som ao longo do tempo.
Suas características são resultado da interação entre os elementos que compõem um timbre.
19
Prof. Lawrence Shum
-
São eles:
Onda fundamental (a primeira de todas as freqüências de um som)
-
Número de harmônicos (múltiplos inteiros da onda fundamental)
Distribuição dos harmônicos
-
Intensidade relativa de cada harmônico
Inarmônicos das parciais (freqüências não harmônicas)
-
Intensidade total das partes somadas à fundamental
Vamos ver um exemplo: As notas de um piano estão afinadas de acordo com a
tradição da música tonal. Elas vão do A0 (LA 0), cuja freqüência é de 27,5 Hz até o C8 (Dó
8), com freqüência de 4.168,01 Hz. Se esta faixa entre 27,5 Hz e 4.168,01 Hz fosse a única
a ser considerada, não seriam necessários equipamentos capazes de reproduzir freqüências
acima de 4.168,01 Hz para se ouvir bem um piano. Mas justamente, porque o timbre de um
instrumento é composto também por seus harmônicos e inarmônicos, é que as freqüências a
serem consideradas atingem valores bem elevados. Vamos exemplificar: Como dissemos a
pouco, harmônicos são múltiplos inteiros da fundamental. Assim, um instrumento com a
fundamental em 3 kHz, inclui vários harmônicos misturados à fundamental de forma
particular, criando sua sonoridade própria. Os primeiros harmônicos de uma fundamental
de 3 kHz estão em 6 kHz, 9 kHz, 12 kHz, 15 kHz, 18 kHz, 21 kHz e assim por diante (2 X
3 kHz, 3 X 3 kHz, 4 X 3 kHz). Além disso, o fato do ser humano ser incapaz de ouvir
freqüências acima de 20 kHz não implica na inexistência de harmônicos e inarmônicos
acima deste valor. Eles existem e se combinam à fundamental de maneira que afetam o
timbre que ouvimos.
20
Prof. Lawrence Shum
Duração
A duração de um determinado som também tem influência na maneira como o
percebemos. Tecnicamente, trata-se do tempo de vibração de um objeto qualquer em
decorrência de uma única excitação. Mas, vamos ouvir o que isso exatamente quer dizer.
Abra o arquivo Duracao_01.wav. Ele está em Audios_exemplos\Duracao. Nele há a nota
F4 (FA 4) de um piano gravada duas vezes; a primeira sem o efeito de sustain (pedal de
sustentação) e a segunda com o efeito. Ouça a diferença.
Note como o efeito de sustain também afeta o envelope do som.
21
Prof. Lawrence Shum
Agora, abra o arquivo Duracao_02.wav. Ele está em Audios_exemplos\Duracao. Aqui
foi gravada uma onda pura de 200 Hz com duração de 10 milisegundos e, depois, a mesma
freqüência com 5 segundos de duração. Ouça e compare!
22
Prof. Lawrence Shum
Dinâmica
Dinâmica nada mais é do que variações de amplitude (volume) ao longo do tempo. Em
linguagem musical, há as seguintes possibilidades:
pp
pianíssimo (muito suave)
p
piano (suave)
mp
mezzo piano (moderadamente suave)
mf
mezzo forte (moderadamente forte)
f
forte (forte)
ff
fortíssimo (muito forte)
Agora, abra o arquivo Dinamica.wav. Ele está em
Audios_exemplos\Amplitude. Aqui, há dois trechos musicais de curta duração. O primeiro
tem grande variação de dinâmica; o segundo tem uma variação menor. Ouça e compare!
A variação de dinâmica pode ser facilmente visualizada no gráfico.
23
Prof. Lawrence Shum
No próximo capítulo você conhecerá mais profundamente as diferenças entre som
analógico e som digital. Conversaremos sobre fatores importantes como Sampling Rate e
Sampling Resolution (Bit-Depth) e faremos diversas atividades práticas no Audacity. Até lá!
Bibliografia
ARTIST PRO. Curso de áudio on line. www.artistpro.com.
AUDACITY. Website dos desenvolvedores: http://audacity.sourceforge.net/
BEGGS, Josh and THEDE, Dylan. Designing Web Audio. Sebastopol: O’ Reilly &
Associates, 2001.
GARRIGUS, Scott R. Sound Forge Power. Ohio: Muska & Lipman , 2001.
GENERAL
PUBLIC
LICENCE.
Website
da
organização:
http://www.gnu.org/copyleft/gpl.html
ROSE, Jay. Producing Great Sound for Digital Video. San Francisco: Miller Freeman
Books, 1999.
SONY Media Software. Website da empresa: http://mediasoftware.sonypictures.com/
SOURCE FORGE. Website da organização: http://sourceforge.net/index.php
WXWIDGETS. Website da organização: http://wxwidgets.org
24

Documentos relacionados