Esta apostila é parte integrante do Curso de Extensão em

Сomentários

Transcrição

Esta apostila é parte integrante do Curso de Extensão em
Universidade de Brasília
Grupo Interdisciplinar Comunicação-Direito-Economia-Engenharia
Curso de Extensão em Serviço Telefônico Fixo e Serviço de Comunicação Multimídia
Coordenador: Prof. Márcio Iorio Aranha
Esta apostila é parte integrante do Curso de Extensão em Serviço
Telefônico Fixo e Serviço de Comunicação Multimídia produto de esforço conjunto da
Faculdade de Comunicação, da Faculdade de Direito, do Departamento de Economia e
da Faculdade de Tecnologia da Universidade de Brasília.
O curso consiste em 40 horas de aulas ministradas pelas áreas de
comunicação, direito, economia e engenharia da UnB e voltado a fornecer uma visão
interdisciplinar focada no Serviço Telefônico Fixo Comutado e no Serviço de
Comunicação Multimídia. As normas internas da Universidade de Brasília exigem
presença mínima em 75% das aulas de cada disciplina do curso.
A avaliação do alunado será efetivada mediante prova escrita individual,
contendo questões das quatro áreas de conhecimento integrantes do curso e será
aplicada na sexta-feira seguinte ao último dia de aula, às 14:00, com duração de até 4
horas. A consulta a documentos poderá ser permitida conforme a área de conhecimento
e o formato das questões. Para aprovação no curso, é indispensável que o partícipe
alcance a nota mínima 5.0, correspondente, no sistema de menções da Universidade de
Brasília, à menção MM.
AOUNIVERSIDADE DE BRASÍLIA
Curso: Serviço Telefônico Fixo Comutado (STFC) e
Serviço de Comunicação Multimídia (SCM)
Disciplina: Noções de Cidadania e Espaço Público
Profa. Dra. Lavina Madeira Ribeiro
01. Noções de Cidadania
A evolução da concepção de cidadania parte da distinção dos direitos civis, políticos e
sociais. Direitos civis são aqueles outorgados aos cidadãos de uma comunidade e sancionados
pelo poder das autoridades juridicamente constituídas. Direitos políticos são aqueles relativos ao
poder de votar, de candidatar-se, de comunicar-se e de ter segurança e proteção. Direitos sociais
dizem respeito àqueles direitos devidos ao indivíduo, providenciados e garantidos pela sociedade:
a educação, a habitação decente, a previdência da saúde, oportunidades de emprego, a falta de
impedimentos quanto ao prosseguimento de ideais, enquanto não infringem os direitos legítimos
alheios, a liberdade de expressão e a igualdade de oportunidade. Entre os direitos sociais mais
importantes, está o direito ao trabalho, à sindicalização, às férias, à seguridade social, à
participação dos trabalhadores na empresa, ao acesso à propriedade dos meios de produção, à
saúde, assim como à educação e à cultura.
Surge destes direitos uma terceira geração de direitos: os direitos humanos se tornam
fundamentais e geram uma grande movimentação social na defesa de temas tais como o direito à
paz, os direitos dos consumidores, o direito à qualidade de vida, ou a liberdade informática. Tais
direitos são vistos como complementares aos anteriores.
A moeda corrente do exercício da cidadania é a informação, que atua como elemento
fundante da competência de ação, julgamento e escolha dos indivíduos na vida social.
02. Origem da informação na moderna dicotomia entre público e
privado
A mais importante configuração institucional da informação tem origem, historicamente,
nas sociedades européias, a partir do século XVIII, com o jornalismo literário e político. O dado
novo em relação à prática jornalística até então existente é o exercício público da crítica, que se
volta inicialmente para a esfera dos costumes, valores e comportamentos e, posteriormente, para a
esfera da política.
Foi inspirado neste ambiente histórico que Habermas desenvolveu
analiticamente a categoria de esfera pública burguesa1.
Desde o final do século XVII, reflexões morais, literárias e filosóficas começam a ser
publicadas nos jornais diários de algumas cidades européias, ainda que supervisionadas e sob a
autorização das administrações locais. O surgimento desta imprensa tem lugar no que Habermas
denomina de primeira formulação objetiva de esfera pública burguesa como "esfera pública
literária". Pertencem a elas somente aqueles indivíduos com um certo nível de poder econômico e
de formação cultural - condição esta imprescindível à leitura e à argumentação pública nas demais
1
HABERMAS, Jürgen, Mudança Estrutural da Esfera Pública. SP, Tempo Brasileiro, 1984.
instituições desta esfera, como os cafés e salões. Esta imprensa, do ponto de vista instrumental de
Habermas, é o meio através do qual um "público esclarecido" difunde suas idéias e concepções da
realidade social e assim se auto-esclarece e emancipa. Seu público leitor é sobretudo composto
pela "camada culta" da sociedade, burgueses, profissionais autônomos e parte da nobreza. A
finalidade de auto-conhecimento sobrepõe-se àquela do lucro comercial.
Em meados do século XVIII e, principalmente durante o século XIX, a imprensa assume
uma quarta configuração institucional caracterizada pela natureza política e contestatória do seu
discurso. Segundo Habermas, como porta-voz de uma burguesia esclarecida e já emancipada em
sua subjetividade. Esta imprensa política emerge numa segunda conformação da esfera pública
burguesa, baseada num modelo liberal de funcionamento e de natureza essencialmente política.
Coincidem os fins políticos de ambas - imprensa e esfera pública política: questionar a
legitimidade da forma de governo dos Estados absolutistas. Esta imprensa atuou decisivamente nas
lutas políticas dos séculos XVIII e XIX.
A imprensa política do século XIX está em consonância com o seu tempo histórico. Em
quase toda a Europa Ocidental, reivindicações burguesas e proletárias, pelo direito de participação
política junto ao Estado, geradas pelas palavras de ordem "liberdade" e "igualdade" oriundas do
exemplo revolucionário da França de 1789, caracterizam o apogeu do domínio público como um
espaço político e da imprensa como sua principal instituição. Faz-se necessário observar que as
sociedades européias do século XIX já apresentavam grande complexidade na natureza das suas
relações sociais. O discurso liberal da "burguesia esclarecida", em certos momentos, voltou-se
contra ela própria. A Revolução Industrial inglesa inaugurou o fim das restrições estatais à livreconcorrência, ampliou o sistema produtivo em bases capitalistas e acirrou os conflitos de classe.
Toda a Europa sentiu as repercussões desse processo. Em 1848, a França vive um outro tipo de
revolução social onde uma vasta população proletária já não se identifica com a média e alta
burguesia. A imprensa, nesse sentido, não só reflete essa crescente polarização das classes sociais,
como participa como força política atuante.
A análise deste novo e importante atributo crítico da informação, feita à luz da categoria
habermasiana de esfera pública burguesa, permite localizá-lo numa perspectiva histórica e
processual fundamental para a compreensão de toda a discussão contemporânea sobre a
especificidade das instituições de comunicação nas sociedades complexas da atualidade. A
contribuição reflexiva de Habermas é por demais pertinente aos termos deste trabalho, à medida
que opera, essencialmente, no âmbito da identificação das estruturas normativas gerais das
sociedades contemporâneas. Faz-se necessário ressaltar esta preocupação básica do autor - que se
faz presente, desde este trabalho inicial da sua obra sobre a categoria de esfera pública, até os mais
recentes sobre a ação comunicativa - a fim de que se possa discernir, em sua análise da esfera
pública burguesa e da imprensa, as considerações oriundas da observação histórica, daquelas que
procuram construir o quadro normativo referencial que fundamentará os princípios organizacionais
das sociedades de direito democrático contemporâneo, e, como parte delas, das condições
institucionais da informação.
A maioria dos críticos ao modelo de esfera pública de Habermas não reconhecem esta
distinção entre o fato histórico e o referente normativo, o que leva a tratamentos equivocados do
modelo (normativo) e a desacordos mais concernentes às interpretações dos dados históricos A
categoria de esfera pública burguesa presta-se tanto à compreensão de uma processualidade social
historicamente observável, como à indicação dos referentes normativos nos quais ancora o debate
político e cultural contemporâneo. Esta distinção é válida e necessária também para os termos
específicos da análise institucional da imprensa, dado que ela assume historicamente, em seu
discurso, a defesa das normatizações constitutivas da esfera pública burguesa e, como instituição
originária dela, também as incorpora como seus próprios princípios internos.
Este texto, de certo modo, também se expõe ao perigo da crítica à sua aparente adoção da
forma de desenvolvimento da imprensa nas sociedades européias como possível e suposto padrão
“universal” de desenvolvimento institucional desta nova prática de comunicação pública. É certo
que as instituições de comunicação desenvolveram-se de forma bastante singular nos diferentes
territórios do mundo ocidental movidos à força da ambição histórica capitalista e dos conflitos de
hierarquia e poder com as instituições monárquicas e coloniais. Mas o que é fundamental na
análise histórico-sociológica habermasiana é a evidência de propriedades, pertencimentos, relações
e finalidades das instituições de comunicação correspondentes a certas forças básicas de formação
das sociedades modernas encontráveis - mesmo que em diferentes ordens de aparecimento,
intensidade e significação - na história da maioria das formações societais do mundo ocidental.
Interessam-nos aqui, sobretudo, os paradigmas normativos historicamente sedimentados acerca
destas práticas de comunicação e que lhes localizam institucionalmente nas diversas configurações
societais contemporâneas.
A análise de Habermas serve também como um terreno teórico básico, a partir do qual é
possível articular diacronicamente as reflexões sobre cultura e comunicação produzidas no
decorrer deste século. Metodologicamente, a perspectiva de observação deste trabalho,
diferentemente da escolhida por Habermas, encontra-se voltada para o processo particular de
estruturação, funcionamento e atuação das instituições de comunicação, considerando-se que este
processo se desenvolve historicamente no interior da ampla categoria habermasiana de esfera
pública burguesa. Esta, portanto, é apropriada aos termos desta reflexão como quadro teórico
referencial, ou seja, como uma espécie de pano de fundo e não exclusivamente como protagonista
do processo. Deste procedimento decorre a construção de argumentos inexistentes no texto
habermasiano, com ambições de validade que, em muitos momentos, podem voltar-se contra o
próprio modelo do autor, revelando suas limitações, equívocos e impropriedades. Para que se
possa localizar os novos atributos da imprensa em suas novas configurações institucionais
culturais e políticas, faz-se necessário associar a descrição histórico-sociológica da esfera pública
burguesa àquela sobre a emergência da modernidade como condição humana, também própria das
sociedades burguesas.
A teoria da modernidade de Habermas foi elaborada em tempo posterior àquela sobre a
esfera pública burguesa, mas ambas são aqui reunidas com o intuito de esclarecer a
especificidade da origem das relações entre imprensa e instituições culturais, cujos contornos são
de extrema relevância para a circunscrição de territórios que tendem historicamente a criar suas
próprias fronteiras. O surgimento de uma nova imprensa vinculada aos movimentos artísticos e
intelectuais é reveladora da supremacia do que essencialmente caracteriza a sua natureza e
finalidade, qual seja, ser um lugar de referencialidade simbólica para os indivíduos e para a
sociedade. É bastante significativo o fato dos movimentos culturais da época recorrerem à
imprensa como forma apropriada à sua expressão. O recurso a ela como instrumento concreto
destinado à promoção de suas idéias e criações, decorre da compatibilidade de sua estrutura
institucional com a natureza e finalidade destes movimentos. Eles não inventaram esta forma
específica de comunicação, eles se apropriaram dela conformando-a a seus limites e interesses.
Um dos indicadores mais evidentes desta apropriação foi a modificação dos seus elementos
estruturais internos, tais como o abandono da lucratividade econômica, a simplificação dos
recursos técnicos de impressão, a alteração do perfil profissional dos redatores, a criação de novo
gêneros discursivos, a especialização do público almejado, a circulação em ambientes particulares
e a proliferação de novos proprietários oriundos de setores estranhos ao campo das práticas
econômicas.
A apropriação da instituição jornalística como meio de divulgação das proposições e
práticas destes movimentos culturais também está vinculada à incipiência institucional destes
movimentos. Eles se encontram numa fase inicial de fundação e delimitação dos seus princípios,
finalidades, práticas e concepções de mundo. Ainda não têm solidificados os espaços e os
contornos específicos da natureza de sua relação com as práticas e normatizações socialmente
reconhecidas. São proposições de um novo corpo de saber que visa substituir progressivamente as
representações simbólicas herdadas da tradição pelos seus próprios termos. Esse processo
histórico inicial de 'racionalização das esferas do conhecimento' - aceitas aqui as formulações
alinhadas por Kant, Weber e Habermas - é na verdade, o responsável pela emergência da primeira
configuração da esfera pública burguesa. A análise habermasiana no campo da história das idéias
revela como a filosofia política, em tempo anterior à emergência concreta desta esfera, já defendia
as premissas e procedimentos que fundarão a normatividade da esfera pública literária. A obra de
Kant é a formulação mais acabada da evolução deste pensamento filosófico.
A instituição jornalística não é a fonte criadora desta normatividade. Sua compatibilidade
histórica com estes movimentos culturais reside no fato de que ela já instituirá, devido à própria
natureza formal da sua prática, muitos dos elementos desta normatividade, como pode ser
depreendido das suas características já apontadas neste trabalho: a constituição de um público
leitor, a formação de um circuito de intercâmbio de informações, a exigência de um julgamento
particular sobre a pertinência e validade destas, a ambição de diálogo com camadas sociais
diferenciadas cultural e economicamente. Elas são apropriadas por estes movimentos em razão
desta compatibilidade, e sobretudo porque eles ainda não desenvolveram as suas próprias formas
institucionais de diálogo neste ambiente público.
Do ponto de vista da instituição jornalística, as idéias e práticas criadas por estes
movimentos culturais emergentes também são compatíveis com a especificidade da prática
jornalística. Suas temáticas concernem à construção de um novo conjunto de normas, valores,
comportamentos e regras de sociabilidade, baseado em critérios correlatos aos princípios e
procedimentos próprios das sociedades modernas. A emergência de uma imprensa de crítica
literária e intelectual corresponde à expansão do universo de referencialidades simbólicas criadas
no processo de desenvolvimento destas sociedades. É coerente com a natureza institucional do
registro discursivo da imprensa expressar a expansão dos termos desta referencialidade
cotidianamente atualizada pelo exercício público da crítica, nos confrontos entre correntes, grupos
e indivíduos. A imprensa não poderia manter-se à margem desse processo dinâmico de autoreflexividade da sociedade e dos indivíduos, sob pena de alienar-se da sua própria condição
institucional socialmente reconhecida.
Neste momento histórico da sua evolução institucional, entretanto, ela se deixa apropriar-se
por iniciativas e setores culturais sem opor fortes resistências ou limites estruturais. Isto se deve
ao fato de que ela é ainda bastante maleável frente às intervenções sociais externas. Ela não
consolidou uma estrutura de produção material, organizacional, profissional e discursiva capaz de
impor restrições formais correlatas às intervenções e pressões externas. Além disso, o grau de
diversidade, de imprevisibilidade, de indefinição de contornos das novas práticas sociais em
desenvolvimento, a sujeita a um correspondente grau de abertura, de indefinição estrutural e
discursiva. Há um novo processo social em movimento sem previsibilidade quanto às suas futuras
regularidades institucionais.
Este trabalho compartilha da idéia de Habermas sobre o andamento de um processo lento
de "emancipação" psicológica, cultural e, posteriormente política dos indivíduos e de toda a
sociedade. Feita a ressalva de que este conceito de emancipação não concerne aqui à idéia de uma
libertação absoluta da dominação e da necessidade. Ele é provisoriamente aceito no sentido de
uma crescente apropriação de novas representações simbólicas que se delimitam, se expandem e se
especializam a partir de uma referencialidade interna fundada nas regras lógicas do discurso
racional. Emancipar-se significa dominar progressivamente as premissas e os procedimentos de
uma nova discursividade intersubjetiva e, neste sentido, tornar-se membro participante de uma
coletividade simbolicamente mediada que viabiliza a constante atualização das suas iniciativas e
relações sociais.
Com a imprensa de crítica de arte e intelectual criada na esfera destes procedimentos
emancipatórios, o exercício da crítica torna-se um atributo do seu discurso, ou, mais propriamente
dito, a imprensa assimila esta nova forma de tratamento ou expressão dos fatos da natureza, da
sociedade e da condição humana, por um lado, admitindo novos tipos de escritura (filosófica,
científica, etc) e, por outro, desenvolvendo, a partir destes tipos, novos gêneros informativos
próprios (jornalismo opinativo e interpretativo, crônicas, etc). Com a criação destes novos gêneros
ocorre uma mudança qualitativa, de forma e conteúdo, no conceito de informação, cuja
diversidade explica a origem do deslocamento da posição central da notícia para a condição de um
gênero particular, e não necessariamente o mais apropriado à construção do discurso jornalístico
como um todo. Importa sobretudo relevar o fato de que, a partir da convivência com discursos
produzidos pelos movimentos culturais, artísticos e intelectuais, a imprensa vai, posteriormente,
depreender das estruturas discursivas destes diferentes movimentos elementos que sejam capazes
de remeter aos respectivos campos de conhecimento nos quais eles foram elaborados, sujeitandoos, entretanto, aos princípios e regras discursivas que perfazem a especificidade da sua finalidade
social. O jornalismo cultural não se confundirá com a escritura intelectual e artística, mas
compartilhará os tipos de racionalidade respectivos a elas.
Paralelo à pluralização dos tipos de publicação intelectual e artística, com maior e menor
grau de sofisticação argumentativa e imaginativa e de interesse lucrativo em seus endereçamentos
a públicos progressivamente segmentados, pluralizam-se também os tipos de imprensa, num
diálogo permanente com a dinâmica e crescente complexificação destas esferas públicas culturais.
A proliferação de um jornalismo político expressa o amadurecimento subjetivo e
intelectual não apenas de uma camada erudita da sociedade burguesa, mas de toda a sociedade.
Daí porque ele é um recurso presente não apenas nos confrontos de uma "burguesia esclarecida"
com o poder monárquico, mas naqueles oriundos das diferentes camadas trabalhadores menos
favorecidas economicamente, as quais, se não dominam o conhecimento artístico e intelectual em
suas versões mais eruditas, já têm, entretanto, assimiladas as premissas e regras, ou seja, a
normatividade do raciocínio, do julgamento, da opinião e do comportamento num âmbito público
de convivência. Este argumento é recorrente nas respostas de Habermas aos seus críticos, quando
estes lhe imputam uma interpretação parcial e tendenciosa da evolução histórica das instituições
sociais contemporâneas.
Como gênero discursivo, o jornalismo político tem por premissa básica problematizar os
princípios, as estruturas e ações constitutivas do Estado e da organização da sociedade. Habermas
encontra neste gênero uma das expressões do apogeu da condição humana em sociedade. O
apogeu da sociedade política comprometida com a edificação de estruturas cada vez mais
emancipatórias, libertárias e igualitárias. As considerações feitas sobre a emergência do
jornalismo literário também são aqui pertinentes. Não partiu da imprensa em si o discurso político
contestatório, crítico e problematizador. Ele tem origem nos movimentos políticos de grupos
privados, associações e partidos que vislumbram na prática jornalística o recurso adequado à
promoção dos seus fins de confronto político com o poder aristocrático. A imprensa política
assimila estes procedimentos e finalidades à sua especificidade institucional à medida que eles
passam a constituir uma das dimensões objetivas das práticas e relações sociais cotidianas. Mas
coexiste com uma significativa diversidade de produções jornalísticas, tendo apenas alcançado
uma certa supremacia em momentos historicamente datados de acirramento político entre grupos e
instituições sociais.
03. Cidadania e esfera pública no Brasil
É necessário, a princípio, reconhecer a centralidade e importância da comunicação na
formação de identidades, comportamentos, sociabilidades e, sobretudo, no estímulo à prática de
uma cidadania ativa. A informação, moeda corrente da comunicação e da cidadania, é de natureza
identitário-referencial, capaz de abranger potencialmente as demais racionalidades relativas às
esferas de conhecimento, mas que realiza também outras operações de caráter estratégico,
oriundas da presença de elementos da vida econômica, da produção tecnológica, da circularidade
cotidiana da vida privada, da processualidade do tempo histórico. Sua dinâmica referencial é
seletiva, parcial, transitória, arriscada, efêmera, mas, ao mesmo tempo, reflexiva e identitária. Sua
diferenciação de práticas e públicos é correlata à expansão das cidades; ao fato de tornarem-se
agentes singulares do meio urbano com finalidades referenciais e identitárias próprias de uma
instituição que é simultaneamente pública e privada.
Há, como afirma Anthony Giddens, um processo contínuo de reflexividade no interior de
um sistema referencial interno2 que monitora a dinâmica dos sentidos publicamente manifestos,
construídos e transformados. As práticas e significações da comunicação fixam e diferenciam o
seu próprio espaço, diferente daqueles das demais instituições sociais, por meio de uma
incorporação seletiva dos discursos oriundos de outros setores. Seus elementos fazem parte de um
processo de interação, sociabilidade e construção de sentidos coletivos, com uma ambição de
ampliação crescente do seu universo de interlocutores. Para isso se apóiam numa abertura concreta
do olhar público para territórios velados pela marginalização social; então incluídos e chamados a
participar, mesmo que de forma indireta e restritiva, da referencialidade construída pela
comunicação; esta, de certo modo, nomeia o espaço urbano e, neste procedimento, incorpora
potencialmente grandes contingentes na dinâmica das suas representações. A difusão de
informações em redes nacionais em quase todo território nacional brasileiro, por exemplo, forma
largas audiências e contribui sobremaneira para iniciar grandes populações nas suas regras de
referencialidade. Analfabetos, segmentos economicamente excluídos e distanciados do circuito das
grandes cidades passam a decodificar um conjunto de formatos e conteúdos próprios da
discursividade comunicativa. Este é um processo que se desenvolve como uma forma de
aprendizado e inserção numa esfera ampla de construção de identidades de ambição nacional,
alimentada por conteúdos da vida pública e privada.
As instituições de comunicação interpenetram os âmbitos do indivíduo e da sociedade3.
São as instituições-chave da alta modernidade, presentes nas esferas polares tanto da intimidade
2
GIDDENS, Anthony. Modernity and Self-Identity. Cambridge, Polity Press, 1992. Segundo o autor, as
instituições sociais possuem o que ele denomina de “sistema referencial interno”, que consiste em um
conjunto de referências, princípios, de práticas e de critérios de ação que delimitam a especificidade da
instituição, sua dinâmica interna e finalidade. A reflexividade consiste na capacidade de domínio dos
elementos deste sistema referencial interno a cada instituição social e de internalização dos seus princípios e
critérios de modo a permitir os indivíduos procedimentos atualizados de intervenção, de participação e de
reflexão responsável pela dinâmica processual das instituições.
3
Considerações também presentes em Giddens, op. cit. Segundo o autor, as instituições comunicativas
sempre interpenetraram os âmbitos do indivíduo e da sociedade desde os seus primórdios (imprensa); são as
como da publicidade das instituições sociais; nos contextos locais distanciados e naqueles mais
globalizantes. Desenvolveram-se (em estruturas, recursos materiais, organizacionais e humanos,
padrões e linguagens) de modo compatível com as necessidades históricas concretas das diferentes
sociedades de criarem espaços dialógicos comuns a crescentes contingentes populacionais e em
sintonia com as mudanças nas noções de espaço e tempo. Nestes termos, entrelaçaram-se
diferentes tipos de instituições jornalísticas e eletrônicas, viabilizando os processos de
desenraizamento de culturas localizadas, de formação de culturas globalizantes e de volatização
dos sentidos tradicionais de tempo e espaço. Redefiniram as noções de familiaridade e experiência,
dada a abolição do lugar histórico concreto como base para as suas configurações. Tais noções
passaram a incluir elementos referenciais “reinventados” no plano público das instituições de
comunicação, sem a exigência de contatos diretos com eles. Criaram formas de narrativa não
unilineares, baseadas na coexistência de pequenas e diferentes mensagens ordenadas numa
seqüencialidade típica das interações lingüísticas das diferentes estruturas de comunicação, que
não são expressões da realidade, mas, em parte, elementos formativos dela.
Neste sentido, a reflexividade promovida no interior da discursividade informativa
conforma-se como faculdade e procedimento humanos constrangidos aos limites históricos e
concretos dos espaços institucionais públicos e privados, das circunstâncias factuais, das ações e
interesses de grupos sociais organizados e da dinâmica cultural em curso, como variáveis que a
sujeitam a uma contingencialidade que desautoriza conferir-lhe uma finalidade emancipatória
necessária. Deve-se, portanto, questionar a validade da racionalização em curso na reflexividade
de indivíduos e instituições. A idéia de que uma esfera pública em expansão, que crescentemente
absorve as crises existenciais privadas dos indivíduos, relacionando-as com as condições
institucionais da vida social, através de sua racionalização pública, num debate mediado por
diferentes instituições sociais e, em grande medida, pelas instituições de comunicação, não faz
desaparecer a dimensão conflitiva que estes processos têm acarretado e que podem vir a acarretar;
assim como os desníveis e diversidades desses processos em esferas locais, regionais, nacionais e
globais, na formação de identidades em e entre diferentes sociedades.
A interpretação do desenvolvimento institucional da informação, em suas relações internas
de complementariedade e diálogo entre diferentes tipos de estruturas, não necessariamente é uma
resposta às exigências da cultura da modernidade, mas algo simultâneo a ela – cujos elementos são
experimentais, arriscados e movidos por investimentos e descobertas já em grande parte
intrínsecos às instituições de comunicação. Não são processos exclusivamente adaptativos à
demanda social de fluxos globalizantes de comunicação, mas, primordialmente, processos de
especialização e crescente complexificação de suas estruturas materiais, organizacionais e formais
instituições-chave da alta modernidade, presentes nas esferas polares tanto da “intimidade do self” como da
publicidade das instituições sociais; nos contextos locais distanciados e naqueles mais globalizantes;
desenvolveram-se (em estruturas, recursos materiais, organizacionais e humanos, padrões e linguagens) de
modo compatível com as necessidades históricas concretas das diferentes sociedades de “mediação da
experiência” e em sintonia com as mudanças nas noções de espaço e tempo e, nestes termos, entrelaçaram-se
diferentes tipos de instituições jornalísticas e eletrônicas, viabilizando os processos de desenraizamento de
culturas localizadas, de formação de culturas globalizantes e de volatização dos sentidos tradicionais de tempo
e espaço, redefiniram as noções de familiaridade e experiência, dada a abolição do lugar histórico concreto
como base para as suas configurações; tais noções passaram a incluir elementos referenciais “reinventados”
no plano público das instituições de comunicação, sem a exigência de contatos diretos com eles; criaram
formas de narrativa não unilineares, baseadas na coexistência de pequenas e diferentes mensagens ordenadas
numa “consequencialidade típica de um meio ambiente espaço-temporal transformado”, chamadas pelo autor
de “collage effect” ; não são expressões da realidade, mas, em parte, instituições formativas dela.
de produção, em função da dinâmica de seus elementos internos, dos conteúdos que move, das
suas atividades institucionais.
É premissa necessária à investigação dos desafios que se apresentam às instituições
culturais da atualidade o conhecimento do quadro referencial de elementos, procedimentos e
atributos mais evidentes que constituem e dinamizam a produção comunicativa nas sociedades
contemporâneas. Isto porque já não é mais possível realizar suas finalidades de promoção do
conhecimento científico, histórico e cultural sem considerar a presença simultânea das instituições
comunicativas nos processos de socialização dos indivíduos desde a tenra idade. São muitas as
frentes de reflexão no campo desta intersecção entre comunicação e cultura, sendo todas elas
simultâneas e entrelaçadas de modo cada vez mais complexo.
Um dos mais relevantes temas concerne à evidência da crescente intersecção de práticas e
interesses entre mídia, telecomunicações e informática – e não apenas em função dos avanços da
tecnologia, mas de novas idéias interativas que associam, por exemplo, broadcasting com internet,
telecomunicações com marketing e serviços de informação on-line, programações fechadas em
sistemas de transmissão abertos e tantos outros projetos que surgem a cada dia.4 Por outro lado, o
investimento de capital estrangeiro e nacional não se dirige especificamente para um destes três
setores básicos, pelo contrário, as ramificações sutis e ao mesmo tempo complexas que tecem,
implicam uma inevitável intervenção múltipla de interesses, que atingem simultaneamente, por
exemplo, investimentos em telefonia, em operadoras de televisões pagas e em redes de rádio e
televisão abertas.
Igual relevância assumem as questões relativas ao controle destes sistemas, às formas de
propriedade, temas que remetem ao lugar do Estado e do cidadão na contemporaneidade, às
redefinições dos conceitos de público, estatal e privado e à relação entre comuniçações e
cidadania. As tendenciais formações de monopólios e oligopólios, a segmentação de públicos, os
limites da intervenção da sociedade civil, a distribuição territorial dos conteúdos e serviços no país
e outros tantos fatores também compõem a agenda deste processo.
Ao lidar-se com o ambiente dos avanços tecnológicos continuamente incorporados aos
diversos sistemas de comunicação, tem-se um conjunto de variáveis importantes a serem
consideradas. Em primeiro lugar, o fato de que tais incorporações não são unilineares ou
homogêneas. Elas se distribuem de forma localizada, em sistemas específicos e com finalidades
particulares. Há imensas desigualdades, por exemplo, na irradiação destas novas tecnologias de
comunicação no território brasileiro. Se, por um lado, a influência delas pode ser marcante nos
processos de socialização de determinadas comunidades em certas regiões, por outro, convive-se
ainda, em muitas regiões do país, com sistemas de comunicação remanescentes de modelos de três
ou mais décadas passadas. Isto gera a necessidade de produzir referenciais distintos para a
compreensão e a incorporação qualitativa da informação oriunda destes sistemas. O instituto
cultural só pode ser eficaz em seus propósitos e cumprir os princípios de sua racionalidade se
reconhecer a centralidade das instituições de comunicação brasileiras no processo de formação
cultural e política dos grandes contingentes humanos do país. Isto significa dirigir uma atenção
objetiva e estratégica direcionada para o conhecimento da natureza e dos mecanismos
dinamizadores deste processo de incorporação de novas tecnologias. Elas interferem
substantivamente na qualidade e desenvolvimento da informação publicamente disponibilizada.
4
Vide MORAES, Dênis de. Planeta Mídia – Tendências da Comunicação na Era Global. Campo
Grande,Letra Livre, 1998.
Os esforços nesta direção devem levar em conta não apenas a necessidade de domínio da
dinâmica material dos sistemas comunicativos e da medida em que eles geram novos veios
informativos no circuito já existente, mas também, a possibilidade de intervenção e participação
dentro destes sistemas e, além disso, formas de incorporação destes instrumentos de comunicação,
vistos então como recursos tecnológicos aplicáveis ao campo exclusivo das práticas culturais. Isto
porque a tecnologia em geral, carrega um duplo potencial, que pode ser instrumentalizado tanto a
serviço de interesses localizados e excludentes, como para a superação de impasses originários de
procedimentos de ensino e aprendizagem, entre outros.
Além disso, tem-se a evidência de que cresce uma irreversível cultura formativa de
natureza não mais preponderantemente baseada no procedimento da leitura, que infiltra novos
recursos de aprendizado sustentados na imagem e em todo o aparato tecnológico que ela requer, na
associação entre texto e imagem como mecanismos de representação do sentido. Este dado,
alimentado sobremaneira pela convivência íntima com os meios de comunicação no ambiente
caseiro, transformada em prática assimilada à experiência da cotidianeidade, transporta-se como
demanda inconsciente para outros espaços de aprendizado e absorção de conhecimentos, valores e
significações em geral. O instituto cultural sofre as pressões desta demanda, com contingentes
humanos cada vez mais segmentados em suas práticas de contato com o universo das informações
disponíveis e se vê constrangido, inevitavelmente a renovar seus mecanismos e procedimentos de
produção de sentido.
Para além do dado tecnológico, é um desafio constante da prática cultural conhecer e
acompanhar, no caso especificamente brasileiro, a dinâmica das transformações nas formas de
estruturação e ampliação dos sistemas de comunicação nacionais. Isto porque muitas das
determinações com relação à qualidade da informação produzida nestes sistemas resultam dos
fluxos de capital, das orientações de interesse particulares de anunciantes e investidores que os
sustentam e intervém sobre suas políticas de programação. O fenômeno mais marcante na
atualidade consiste no que vem sendo denominado de popularização das produções das redes
nacionais de televisão e de deslocamento dos públicos de maior poder aquisitivo para os sistemas
de televisão por assinatura. Campo fundamental neste ambiente de reflexões contemporâneas
consiste naquele relativo às políticas de programação ou, em outros termos, ao controle social dos
conteúdos difundidos e produzidos pelas instituições de comunicação de amplo alcance
populacional. Para tanto, cabe explorar a dinâmica da produção comunicativa do país.
O atributo identitário e referencial das instituições de comunicação, sustentado no próprio
caráter público que lhes foi fixado pelas cartas constitucionais dos Estados de direito, localiza a
discursividade da comunicação no campo formal do interesse público, configurando-a enquanto
serviço a ser prestado relativo à categoria dos direitos sociais. A circunscrição deste critério
denominável de interesse público, na prática, entretanto, sujeita-se a interpretações muito elásticas.
A identidade construída, aprendida e transformada, no ambiente cultural brasileiro,
profundamente desigual no que concerne à produção e acesso aos conteúdos midiáticos afeta a
tradicional recorrência ao conceito de cultura popular e cultura de massa. O popular, na atualidade,
pela força hegemônica de penetração da comunicação em todo o país, mais “eficaz” do que outras
instituições fundamentais como a educacional e a familiar, desloca-se para a noção de fazer-se
enquanto processo simultâneo de construção e aprendizagem de um sistema referencial identitário,
onde públicos heterogêneos buscam elementos de toda ordem que reorganizem constantemente
sua competência de experimentar, realizar práticas, criar valores e comportamentos. Nele se
integram, parcial e seletivamente, elementos de diferentes ordens de conhecimento e experiência.
Por este caminho, por um lado, dissolvem-se os atributos de tradicionalismo, hermetismo,
isolamento e autoctonia do conceito de popular, integrando-o, em níveis diversos, aos demais
sistemas referenciais publicamente criados e, por outro lado, elimina-se a coincidência com o
conceito de massa.
No caso brasileiro, os conteúdos de maior audiência nas redes de televisão aberta, capazes
de atingir quase a totalidade da população, são notadamente novelas, jornais de variedades,
programas de auditório e apenas dois telejornais dominam o campo das produções assistidas por
mais de 60% da população brasileira. O atributo referencial, definido aqui como qualidade voltada
à atualização da ação dos indivíduos na vida social em geral praticamente esvazia a relação
política entre indivíduo e sociedade. Se for possível entender jogos, entretenimentos e dramas
como elementos culturais, então tem-se um deslocamento da experiência do espaço público
brasileiro de um desejável campo político e cultural para outro essencialmente feito pelo usufruto
da diversão.
A televisão aberta no Brasil é um lugar de formação e manutenção de identidades
ampliadas de ambição nacional. Esta identidade se firma, em grande medida, em torno de ícones
construídos e alimentados no ambiente das programações de maior audiência, programas de
entretenimento, de entrevistas e se desdobram em outras estruturas de comunicação, como
publicações especializadas em televisão, semanários, revistas para públicos femininos e
masculinos, jornais, programas de rádio e demais, criando-se uma rede que mantém
permanentemente um espaço aberto para estes conteúdos. Estas estruturas, por sua vez, se autolegitimam e legitimam-se mutuamente na afirmação destes conteúdos comuns. Os conteúdos mais
presentes neste ambiente são a música, os esportes (futebol, fórmula 1, tênis, vôlei, box), a vida
profissional e privada dos artistas das produções televisivas, temas ligados à natureza e, em menor
grau, elementos da cultura tradicional brasileira (indígena, sertaneja).
Estes conteúdos integram o sistema referencial interno das instituições de comunicação.
Criam ramificações em todos os gêneros de programação, formando redes vicinais que integram
todos os elementos em um sentido internamente coerente. Integram-se ao seu circuito informativo,
opinativo e publicitário, gêneros estes cujas fronteiras são cada vez mais difusas. Estão presentes
nas mais variadas situações como elementos de legitimação desta cultura e de legitimação das
estruturas de comunicação que as difundem.
Convivem também fortemente com elementos oriundos de um ambiente cultural
globalizado, criando relações de complementariedade e extrapolando as fronteiras nacionais. Os
exemplos mais presentes estão na área musical, nos esportes e nos temas ligados à natureza. Há, na
área musical, por exemplo, uma sintonia significativa entre os programas de auditório das
televisões abertas, os programas de rádios de emissoras AM e FM, e as publicações semanais
sobre música e a vida privada dos músicos. Certos tipos de música, por sua vez, como a de origem
baiana, dialogam de modo muito estreito com certos ritmos musicais norte-americanos, assimilam
grande influência de ritmos africanos, e, além disso, incorporam a dança como correlata ao ritmo
musical, dança esta inspirada em padrões também norte-americanos e africanos.
Cria-se, assim, um circuito musical hegemônico no país cuja origem extrapola as fronteiras
nacionais sem deixar de ser uma criação nacional. Este circuito recebe o aval das redes de
televisão aberta e se torna hegemônico em todo o país, promovendo eventos fora do calendário
oficial, tais como os carnavais itinerantes feitos de blocos e trios elétricos que ocorrem nas grandes
cidades e capitais do país durante todo o ano.
Conhecer outras vertentes musicais fora deste circuito hegemônico torna-se uma ação que
segue em sentido contrário à multidão. Lojas de disco, publicações na área musical, televisão e
rádio alimentam estes formatos hegemônicos reduzindo sobremaneira a diversificação da área. As
estruturas de comunicação formam vasos comunicantes onde só circulam estes conteúdos. Meios
restritos e ampliados operam com os mesmos elementos, numa transversalidade que corta critérios
de classe, etnia, gênero, idade e nível sócio-econômico.
O global é incorporado pelo local formando um circuito musical nacional-popularinternacional, cuja complexidade é porosa a intersecções com um leque amplo de possibilidades
criadoras e renovadoras. Assim ele se desdobra continuamente em novos ritmos sonoros, sempre
associados a uma rítmica também corporal. Esta qualidade de bem cultural inserido em um
ambiente globalizado abre possibilidades de diálogo com outras frentes culturais, tais como estilos
de vida, comportamentos e valores. Assim, por exemplo, a música originalmente baiana está
presente em programas de culto ao corpo, em publicidades de cerveja e refrigerantes, de
automóveis de marcas estrangeiras, de telefones celulares e de uma gama ampla de elementos
constitutivos do modo de vida desenraizado da cultura global.
De outra forma, mas também hegemônica e regular, está a presença em nível nacional de
valores ligados ao elogio e defesa da fauna e flora brasileiras. A natureza tem lugar de destaque
entre estes conteúdos privilegiados pela televisão aberta do país. Documentários, reportagens,
programas de desafios físicos e entrevistas são os lugares onde a natureza aparece como um bem
nacional a ser conhecido, preservado e admirado. A natureza revisitada, sobretudo, pelos
programas de documentário e de variedades da televisão brasileira é vista da perspectiva global.
Do ponto de vista de sua localização em relação ao planeta como um todo. Este enfoque
insere o país dentro de um debate mundial de preservação ambiental, reiterando um
conjunto de valores hoje globalizados sobre a necessidade de conhecer e proteger a natureza.
Como o Brasil é um vasto território ainda em grande medida inexplorado ou preservado em
seu estado natural original, os valores globais associados à natureza levam a que o país assuma
uma posição privilegiada dentro do debate nesta área. Proteger a natureza passa a ser um valor
nacional também associado a uma esfera de valor global, de grande força legitimadora de práticas
nele ancoradas. Indústrias de diversos setores vêm a público construindo suas imagens a partir
deste valor. Ele se espalha por um leque também muito grande de práticas comunicativas de
alcance nacional, tais como as novelas, programas de auditório, de variedades e de entrevistas,
documentários, culinária, moda e comportamento.
Os temas que são objetos de interesse para a programação de alcance nacional são muito
restritos. A identidade criada e mantida pela televisão brasileira tem uma pequena amplitude
temática. Ocorre um predomínio excessivo de programas criados por ela mesma, com baixa
variação de formato e conteúdo. As emissoras ocupam, aproximadamente de 30 a 35% do tempo
em auto-promoção. Isto é feito de várias maneiras. São chamadas publicitárias para seus próprios
programas, entrevistas com artistas e pessoas da emissora e intervenções opinativas em todos os
gêneros apresentados. A vida profissional e privada dos artistas, dos ídolos do esporte e
personalidades carismáticas, como políticos, escritores e outros vêm somar-se ao acervo de
elementos legitimadores da identidade promovida pela televisão, atuando também como forças
legitimadoras das emissoras e, portanto, da sua institucionalidade pública.
Convive-se, este ambiente comunicativo, dentro do que se denominaria um imenso reino
do privado. As instituições de comunicação vêm tornar públicos conteúdos próprios da vida
ordinária e comum dos indivíduos. Há uma série de relações possíveis de serem identificadas neste
processo. Ao individualizar sua discursividade, seja dirigindo-se ao indivíduo, à relação face-aface, seja criando ícones e padrões humanos a serem valorizados e seguidos pelos indivíduos
comuns, a televisão promove um espaço público feito da cotidianeidade vivida pelo homem
privado. O recurso do debate, da argumentação, quando ocorre, está praticamente todo ele voltado
para as temáticas do reino da necessidade, seja ela física ou psicológica.
Assim, a esfera do debate político fica praticamente esvaziada. O grande público está à
margem da vida política nacional. Desconhece os temas e os processos políticos que se
desenvolvem no espaço legislativo estatal. Participa minimamente das deliberações do poder
executivo, sofrendo apenas as repercussões de políticas pensadas e implementadas sem a
participação da sociedade. As instituições de comunicação contribuem muito pouco para inserir a
população nestes ambientes. No ambiente televisivo esta constatação atinge seu grau máximo. A
vida política aparece apenas nos programas do período eleitoral. Inexistem práticas argumentativas
sobre conteúdos políticos. Políticas e deliberações são tratadas pela televisão do ponto de vista
imediatista das mudanças que provoca sobre a rotina da vida social da população.
A população brasileira se informa quase exclusivamente por meio da televisão aberta, que
atinge índices de mais de 90% de abrangência. Jornais e revistas especializadas ocupam uma faixa
extremamente reduzida neste percentual. Razões para este quadro estão na baixa renda da
população, no analfabetismo, na dificuldade de acesso e no desenvolvimento de uma política
pública estatal na década de 70 de incentivo à formação de redes nacionais de televisão, aliadas a
uma tradição extremamente liberal do Estado no controle dos conteúdos promovidos por estas
redes, as quais, por sua vez, apesar de terem um código de ética razoavelmente coerente com
padrões de incentivo à cultura, sempre definiram grades de programação em função do retorno
financeiro auferido em pesquisas de preferência das suas audiências-alvo.
O círculo vicioso que se formou entre produtores que alegam atender expectativas do
público e de resultados de sondagens de opinião e de índices de audiência que legitimam
programações sem qualquer conteúdo informativo, educativo ou artístico relevantes e coerentes,
parece manter um processo de alargamento do espaço discursivo das redes nacionais no sentido da
produção de mero entretenimento, cujo sustento são elementos vindos da experimentação do
grotesco e da dramatização da vida cotidiana. Há uma subjetividade vivida coletivamente de forma
distorcida por estes recursos formais (o grotesco e o dramático) de representação da experiência,
cujos elementos, em parte, têm origem em narrativas de culturas tradicionais e, em parte, decorrem
dos próprios formatos já desenvolvidos anteriormente pelos diversos meios na área do próprio
entretenimento.
As respostas pelas quais as grandes audiências confirmam sua preferência por estes
padrões de programação são um enigma para a academia. Algumas delas são encontradas sob a
alegação de que a vida produtiva esgota a capacidade e o interesse dos indivíduos de pensar a
realidade de forma mais substantiva. O dado relevante, entretanto, é que a televisão brasileira,
amadurecida num ambiente liberal, nunca teve uma tradição de privilégio a produções de caráter
informativo, cultural e político. O entretenimento sempre foi o padrão dominante desde que a
televisão se expandiu como principal sistema de comunicação público no país. Isto pode ser
comprovado ainda pelos tradicionais índices irrelevantes de audiências das televisões de caráter
educativo e cultural, que não chegam a atingir mais de 5% de audiência em relação às emissoras
privadas. Este processo, além disso, tem o agravante de estar em regime de plena expansão de
percentuais de audiência, num processo de alta competitividade entre emissoras por faixas de
telespectadores mutantes, forçando ainda que todas elas ingressem na mesma lógica, sob pena de
perda de capital dos anunciantes, os principais mantenedores destas estruturas empresariais. O
comércio do entretenimento exclui do espaço público brasileiro conteúdos que, por princípio, são
fundamentais para a vida cultural e política do país, dado que constituem a base de formação de
referenciais necessários ao julgamento dos interesses coletivos gerenciados pelo Estado.
Por outro lado, tem-se, simultaneamente, o movimento de públicos de maior poder
aquisitivo em direção aos sistemas de televisão por assinatura. Aqui a margem de escolha é maior,
assim como a presença de conteúdos informativos e culturais. Este dado, entretanto, leva a outras
variáveis preocupantes do ponto de vista da fragmentação do interesse público, da criação de
extratificações sócioculturais, da formação de identidades transnacionais que pouca atenção
possam vir a dar aos problemas estruturais do país, da emergência de um multiculturalismo de
soma zero e outras tantas possibilidades de ruptura de um necessário conjunto de valores e
princípios capazes de consensualizar os processos de debate e de deliberação sobre questões de
interesse geral.
O mesmo se dá no plano da complexidade dos problemas urbanos, das questões ligadas ao
gerenciamento das áreas de saúde, educação, emprego e econômica. Os telejornais privilegiam
apenas a dimensão dos problemas sociais resultantes de patologias individuais. Crimes, doenças,
catástrofes e desastres têm lugar predominante sobre questões cruciais da vida social. Os
programas televisivos dramatizam sobremaneira estes desvios, sem vinculá-los, entretanto, aos
fatores estruturais que, na maioria das vezes, estão nas suas origens. Mas o fato de conferirem
relevo a estes desequilíbrios não ameaça a ênfase simultânea numa idéia permanente de
estabilidade social. Isto é possível porque estes problemas não vêm inseridos dentro de um quadro
contextualizador dos mesmos. Vêm descolados da realidade, como fatalidades inevitáveis, como
atos de indivíduos isolados ou vontade inevitável de forças naturais. O fantástico oculta a realidade
dos desequilíbrios sociais estruturais da vida urbana. Este descolamento de patologias e catástrofes
da regularidade da vida cotidiana confirma a necessidade desta regularidade, tal como ela é
pressuposta. Cria-se uma identidade sobre esta imagem de controle sobre o social, compartilhada
por todos no ambiente televisivo. A imagem da própria estabilidade social, da boa índole dos
brasileiros, da ausência de ameaças ao indivíduo e à sociedade.
Do ponto de vista do telejornalismo, é no estrangeiro, em terras longínqüas, que a maioria
das catástrofes acontecem. As crises financeiras, os desastres, os problemas sociais das nações
estrangeiras são representados dentro de uma referencialidade espetacular. Isto favorece
sobremaneira a internalização do ordenamento social vigente internamente no país. O global
novamente entra em cena para reiterar este ordenamento social em curso. O global é assimilado
como horizonte da possibilidade de ação dos indivíduos em si e como coletividade na sua
sociedade nacional. Assim, reitera “vocações” nacionais, procedimentos de aceitabilidade de
relações com outras nações, permitindo localizar o Brasil em relação a um cenário mundial dado
dentro de uma confortável imagem de país pacífico. Atitude esta que reitera todos os demais
conteúdos difundidos.
O sistema referencial interno às instituições de comunicação brasileiras de alcance nacional
é bastante estável, sólido, previsível. Existem rotinas fixadas em padrões regulares predominantes
em todos os campos, seja no informativo, no ficcional, no publicitário e no de entretenimento. A
questão da fragmentação da experiência se dá, em grande medida, em termos daquilo que não
aparece no discurso comunicativo, das graves omissões relativas às questões políticas, econômicas
e sociais cruciais do país que não têm o devido relevo, a necessária presença como objeto
conhecimento, de racionalização e de debate permanentes. Mas no interior dos sentidos
dominantes produzidos pelas instâncias comunicativas, a experiência se fecha num círculo
previsível de variáveis.
Algumas questões hoje centrais sobre a formação pública de identidades assumem contornos
muito específicos no caso brasileiro. A noção de diferença, de escolha da diferença e de respeito a
ela, muito tematizada no ambiente de sociedades complexas não encontra, no espaço comunicativo
de maior alcance no país, a variabilidade em geral pressuposta como existente na atualidade. Na
sociedade brasileira, a idéia da oposição entre viver dentro de uma sociedade de consumo, de sua
lógica instrumental, de mercado, ou de optar por regras e princípios morais, étnicos, religiosos
comunitaristas fora destas sociedades complexas não é necessariamente uma possibilidade de
escolha intrínseca e naturalmente aberta para todos, por mais que elas existam a princípio. No
Brasil, a força incorporativa da discursividade das instituições comunicativas reduz sobremaneira
a formação da diferença. A idéia do indivíduo isolado em busca de sua identidade convive com os
fortes padrões identitários criados e movidos pela comunicação pública.
O maior desafio da construção da cidadania no país está centrado na capacidade dos seus agentes
de conhecerem profundamente a natureza, os elementos e a dinâmica desta cultura contemporânea
identificando nela os lugares onde é possível desenvolver valores e práticas igualitárias, solidárias
e humanistas, porque somente por este caminho poderá intervir eficazmente sobre a sua
capacidade de conformar sentidos e comportamentos.
O debate central hoje no que diz respeito ao modo como entender e operar o conceito de
comunicação consiste na oposição entre as noções de consumo e cidadania, ou seja, como
caracterizar essencialmente a natureza da comunicação enquanto bem simbólico com profundas
repercussões na vida material das sociedades contemporâneas. Por um lado há uma forte tendência
a caracterizar a cultura presente como uma cultura de consumo, movida, neste caso, por
procedimentos oriundos da lógica e das práticas do mercado, subsumida numa semântica
economicista onde os indivíduos são nomeados e tratados como consumidores. Entende-se,
entretanto, que esta semântica caminha por trilhas equivocadas. O conceito de cultura de consumo
é uma atualização, na mesma linhagem que deu origem ao já tornado lugar comum conceito de
sociedade de massa. O termo comunicação de massa, derivado deste ambiente, todavia, parece já
ter esgotado, pelo menos do ponto de vista heurístico e sociológico, suas ambições explicativas.
Criou-se, portanto, uma heteronomia injustificável se confrontada com a magnitude do objeto. A
história deste conceito remonta a uma perspectiva de sociedade manipulável, atomizada, feita pela
imagem de indivíduos isolados, diferenciados e dispersos. É certamente um conceito de espírito
arregimentador, resultante do produtivismo racionalista, nacionalista e épico da sociedade norteamericana do começo do século. A popularização do seu uso ou do seu corolário (consumo)
bloqueia qualquer perspectiva que busque retomar o controle sobre o livre curso da cultura.
O uso do conceito, além de suas implicações no campo da recepção, quando reduz sujeitos
a consumidores, contém, além disso, uma visão dos meios como instâncias necessariamente
organizadas verticalmente, de forma concentrada e sintonizada com as determinações da expansão
dos ambientes tecnológico e econômico, externos ao das práticas comunicativas propriamente
ditas. Isto porque o atributo instrumentalista de controle e o de fluxos de mão única são intrínsecos
ao conceito.
As intenções reflexivas que procuram recuperar a dimensão da prática
comunicativa como um exercício de cidadania, têm-na como procedimento relativo ao campo do
compromisso constitucional com as premissas de igualdade e liberdade dos Estados de direito.
Reflexões, por exemplo, sobre o caráter moderno ou pós-moderno da cultura, sobre a evidência ou
não de uma cultura de consumo, sobre a cultura como simulacro, sobre a virtualização da
experiência, sobre o imanente barbarismo da modernidade, sobre as múltiplas sensibilidades e
mediações da comunicação e tantas outras propostas devem ancorar-se na perspectiva de
identificar, desenvolver e consolidar aqueles recursos potenciais da comunicação pública que
encaminham a formação de vontades como prática de cidadania. Comunicar para a cidadania
talvez seja a estratégia mais eficaz para interferir qualitativamente no curso da cultura
contemporânea.
Cidadania implica uma orientação de premissas e procedimentos culturais no sentido da
recuperação do senso de comunidade e da competência de intervenção participativa dos indivíduos
nos assuntos concernentes à vida social. Um dado fundamental neste aspecto concerne ao fato de
que as estruturas de comunicação, consideradas instituições públicas pelas cartas constitucionais
dos Estados de direito, são passíveis à interferência de regulamentações e coerções estatais, que
sugerem a possibilidade de planejamento político e democrático do seu curso. Isto significa que a
sociedade civil tem recursos legais para conduzir a expansão destas estruturas, suas práticas e
produções.
O contexto social brasileiro não favoreceu o exercício de uma cidadania cultural restringindo, por
exemplo, a expansão da imprensa para além dos setores economica e culturalmente mais
favorecidos, ou privilegiando a estruturação de redes de televisão aberta controladas por grupos
familiares, dentro de uma herança cultural patrimonialista, clientelista e autoritária, ou, mais
recentemente, criando uma legislação para sistemas fechados de televisão que não atua sobre
aspectos de conteúdo, privilegiando somente os critérios econômicos de defesa da concorrência.
Advém do pensamento clássico liberal uma definição essencialmente política do conceito
de cidadania, como condição própria e decorrente das premissas de igualdade e liberdade do
Estado de direito. Há uma repartição tripartida do exercício da cidadania correlata aos direitos
constitucionalmente previstos: direitos civis (liberdade pessoal, de expressão, pensamento, fé,
propriedade, justica), assegurados pelas instituições judiciárias; direitos políticos (voto e acesso a
cargos públicos), corporificados no aparato legislativo; e direitos sociais (segurança, saúde,
educação e serviços sociais), promovidos pelas instâncias executivas.5
Nesta concepção, a questão do direito à cultura e de todos os processos e práticas nela
envolvidos, recolhe-se, basicamente, à estreita faixa do direito a um tipo particular de “serviço”,
um serviço que basicamente, assegura um acervo de elementos simbólicos e práticas oriundos do
passado e da memória de uma nacionalidade e mantém padrões de produção cultural que, a
princípio, não se regem por critérios extrínsecos à dinâmica liberal da processualidade social mais
ampla. O direito à informação caracteriza-se enquanto direito social, compartilha a estatura de
outros direitos sociais, como o direito à educação, direito a saúde e bem-estar. Tais direitos estão
no âmbito da alçada do poder executivo enquanto deveres deste perante a sociedade. Assim,
portanto, apesar de serem de serem ativadas em regime de propriedade privada, as instituições de
comunicação são merecedoras de atenção político-jurídica na carta constitucional e em leis
específicas e se constituem enquanto instituições públicas, dado que a informação é o elemento
básico para o exercício dos direitos civis e políticos.
Direitos sociais se materializam enquanto serviços prestados por instituições públicas, as quais se
legitimam enquanto tal na prestação destes serviços. No caso das instituições de comunicação, a
condição de instituição pública lhes confere um alto grau de legitimação quando prestam este
serviço genericamente denominável de informação. Legitimadas enquanto tal, legitimam-se
também suas estruturas, formas de produção da informação e toda a verticalidade historicamente
observável do processo comunicativo como um todo. Enquanto serviço, tornam-se defensáveis
grande parte de seus procedimentos e dificulta-se sobremaneira pensar a possibilidade de outros
modelos estruturais da comunicação pública horizontalizados, onde a participação dos indivíduos
pudesse ser mais efetiva e deliberativa.
5
BENDIX, Construção Nacional e Cidadania. SP, Edusp, 1996.
No caso brasileiro, dado o predomínio do regime de propriedade privada, isto implicou,
historicamente, uma permissividade significativa da esfera cultural à intervenção de variáveis do
que Habermas denomina de “mundo sistêmico”. O igualitarismo liberal, presente tanto na esfera
da produção econômica, como da vida privada e de suas iniciativas individuais, abriu
possibilidades de um industrialismo da produção cultural passível de coordenação somente a partir
de associativismos civis movidos por voluntarismos reivindicadores de direitos civis e sociais de
grupos e setores privados. O cooperativismo implícito na mobilização social, entretanto, não fez
parte das políticas de Estado, já que este pode-se ancorar na premissa da representatividade como
fator legitimador de suas ações, fachada, muitas vezes, para a manutenção de práticas políticas
paternalistas e excludentes.
A representação política no Brasil configurou-se, historicamente, como um sistema com
regras singulares, não vinculadas diretamente ao exercício do voto e esvaziou, sobremaneira, até
mesmo o conceito de cidadania como categoria político-jurídica. A cidadania cultural revestiu-se
de um caráter de direito ao mero acesso à cultura – sem o pressuposto da intervenção sobre a
qualidade deste serviço -, sem qualquer iniciativa estatal ou civil de proposição de uma clara
política de conteúdos, de conquista territorial, de investimento em tecnologias que alcançassem
indivíduos espacialmente dispersos, de manutenção de sistemas de comunicação de abrangência
nacional capazes de promover a formação de um sistema referencial de práticas, valores e
comportamentos compatíveis com o investimento mais amplo em um modelo de sociedade
industrial capitalista.
Atualmente, o conjunto de novos processos políticos e culturais em andamento no
parlamento brasileiro e na sua esfera econômica - inerentes aos mecanismos de controle
institucional e discursivo da dinâmica cultural do país -, apontam para a passagem de um
patriarcalismo cultural (promovido pela hegemonia inconteste do “padrão Globo de qualidade”)
para o de um liberalismo global de consequências ainda imprevisíveis para o processo cultural
brasileiro. A questão central resultante deste quadro consiste na suspeição da própria validade do
conceito de cidadania como condição e ação partícipes deste processo. Onde estariam os limites
objetivos conjunturais e estruturais à ação cidadã dos sujeitos e, decorrentemente, a uma noção de
recepção para além de uma grade determinista, seja advinda do sistema conceitual funcionalista ou
da trajetória européia crítica e niilista ?
As respostas encontradas para os graves problemas sociais provocados pela
hegemonia do mercado tendem, neste ambiente, a encontrar alternativas por meio da ativação da
sociedade civil, conferindo-lhe atributos, deveres cívicos, competências e responsabilidades
públicas que a aproximam do Estado, como se este, deste modo, aliado a ela, pudesse enfrentar
com mais isenção as demandas sistêmicas da economia capitalista mundial.
Assim, por exemplo, Alain Touraine, encontra na reconstrução da categoria de sujeito, no
que defende como a “política do sujeito”, o que diz ser “a única resposta para a dissociação da
economia e da cultura”6. O sujeito é, para o autor, ao mesmo tempo, um “movimento social” onde
se pode resistir aos processos desintegrativos da experiência, da subjetividade, aos conflitos
raciais, étnicos e, sobretudo, aos mecanismos dessocializadores oriundos do mercado, do mundo
tecnológico e informacional. Viver juntos deve ser mais do que uma coexistência, deve promover
espaços éticos comuns onde haja o compartilhamento da experiência social.
6
TOURAINE, Alain. Poderemos Viver Juntos? Iguais e Diferentes. Petrópolis, Vozes, 1999, p. 24.
Anthony Giddens, também, quando firma a idéia do que chamou de “terceira via” 7 tem,
como premissa, duas forças fundamentais: a presença atuante do Estado e uma efetiva cultura
cívica, que reconstrói os espaços públicos, os quais devem atuar em sintonia com as políticas
públicas estatais. Giddens, deste modo, pressupõe a presença pública de cidadãos ativos, partícipes
de interesses coletivos, profundamente envolvidos com suas causas. Mais Estado e mais sociedade
civil. Esta é a alternativa para o enfrentamento do impacto da globalização, entendida como um
conjunto de forças oriundas da expansão do mercado, da tecnologia e da informação.
Nas democracias deliberativas, segundo Habermas, a esfera pública política é fundamental.
Deve fundar-se sobre uma cultura política e sobre modelos de socialização que a legitime. A esfera
pública está no âmago do processo democrático, como premissa e procedimento capazes de
disciplinarem normativamente tanto o Estado quanto o mercado. As ramificações da opinião
pública no âmbito legislativo do Estado e dos diferentes grupos e movimentos informais da
sociedade formam o que chama de “sociedade descentrada”.8
É importante observar como tanto Giddens quanto Habermas conferem ao Estado um lugar
central na normatização político-jurídica de interesses advindos do espaço público. Ambos
pressupõem uma sociedade civil politicamente ativa, mas é ainda no Estado que os movimentos e
compromissos gestados no ambiente público não-estatal adquirem reconhecimento, legitimidade e
legalidade. A defesa do Estado em ambos os autores tem afinidade com a postura normativa de
John Rawls. Para este, o Estado defende o que ele chama de “razão pública”9, a qual guia a
autoridade do Estado enquanto instância comprometida com a justiça e a constitucionalidade da
vida democrática da sociedade. A razão pública, para J. Rawls, concerne aos direitos, liberdades e
oportunidades dos cidadãos. Ela contém princípios básicos de justiça e procedimentos de
argumentação racional internalizados por todos os cidadãos, onde são julgados princípios, valores
e interesses. A defesa do Estado é importante para assegurar a vida política da sociedade, seus
direitos e liberdades. O Estado ainda é, para estes autores, o lugar da auto-governabilidade da
sociedade. E a noção de público está intrinsecamente presente tanto no espaço estatal quanto no da
sociedade civil.
A noção de “controle público” advém deste ambiente de premissas reflexivas. Está
profundamente envolvida com os critérios e procedimentos da democracia formal. Remete ao
campo das políticas públicas estatais, mas, sobretudo, a todos os sujeitos enquanto cidadãos
reunidos como comunidade política argumentativa. Respalda-se numa teoria social da democracia
publicamente exercida nos fóruns estatais e não-estatais.
Pensar a ação pública, de comunidades políticas de cidadãos, no controle executivo de
instituições sociais pressupõe uma sintonia entre Estado e sociedade civil ainda, do ponto de vista
contemporâneo, no caso brasileiro, muito efêmera. A noção de controle público presente nas
políticas estatais do país, por mais suporte que encontre no âmbito de teorias sociais democráticas,
tem sua normatividade ancorada sobre frágeis estruturas. A participação de cidadãos, do ponto de
vista histórico-sociológico, restringe-se a faixas deliberativas irrisórias. Estado e mercado têm
feito concessões muito tímidas ao público.
7
GIDDENS, Anthony. A Terceira Via – Reflexos sobre o Impasse Político Atual e o Futuro da SocialDemocracia. SP, Record, 1999.
8
HABERMAS, Jürgen. Direito e Democracia – Entre Facticidade e Validade. Vol. II, Biblioteca Tempo
Universitário 102, RJ, Tempo Brasileiro, 1997.
9
RAWLS, John. O Liberalismo Político. 2a. ed., SP, Ática, 2000.
No caso brasileiro, observa-se que as atuais políticas públicas nos campos da educação, da
saúde, e, em particular, das comunicações, além de inserirem a noção de controle público em
âmbitos setoriais de suas estruturas executivas, ainda o fazem de modo a inibir sobremaneira o
efetivo controle do público sobre elas. O Brasil é um caso peculiar onde, quase sempre,
instrumentos normativos são criados sem que tenham resultado de movimentos e apelos por
grupos e setores organizados da sociedade.
Quando, na conjuntura atual, a representação política no Brasil cria, em seus estatutos
jurídicos, noções como a de controle público, não encontra uma cultura cívica e política que
corresponda à expectativa desta nova normatividade.Resta então a dúvida acerca da natureza e
finalidade destes instrumentos de participação cidadã. Até que ponto são resultantes de um
patriarcalismo historicamente marcante das políticas estatais brasileiras, até que ponto são
manifestações efêmeras oriundas da intervenção de setores organizados da sociedade civil
brasileira?
versãolivro ciber (jul. 00)
WEBtv, teleTV
e a Convergência Anunciada.
Sérgio Capparelli, Murilo César Ramos e Suzy dos Santos
Resumo: Este trabalho pretende mapear as mudanças estruturais que estão ocorrendo na
televisão, a partir da sua relação triangular com as telecomunicações e com a Internet, no sentido
de uma convergência nestas mídias. Analisam-se – em termos globais e, quando possível, locais
- as movimentações das indústrias das comunicações, a reestruturação dos espaços econômicos
(globalização e concentração) e a adaptação dos modelos reguladores à realidade de mercado.
Às vezes o novo é um novo rosto para velhas faces; às vezes o antigo continua antigo com novo uso; às
vezes o novo foi apenas novo um dia; ou se trata de uma antiga tecnologia e de um homem novo; ou, finalmente,
é toda uma tecitura refletindo os novos tempos. Isso pode ser dito com referência à expressão novas tecnologias.
A verdade é que tanto o automóvel como o televisor, serviram de motor ao desenvolvimento do modelo fordista
de produção e ao desenvolvimento capitalista, no período posterior à II Guerra Mundial. E a chamada revolução
eletrônica serve agora de motor à reorganização deste modelo para sair das sucessivas crises que esse mesmo
capitalismo vem enfrentando desde a década de 70. O atual momento é de transição para um modelo pós-fordista
que reduz as barreiras espaciais e geográficas. Para que este modelo seja implantado, são necessárias alterações
profundas nas economias e nos modelos político-institucionais.
A transição por que passam as economias, os Estados e as instituições de dimensão global, também
ocorre nas comunicações. Conforme Manuel Castells:
“For all the science fiction ideology and commercial hype surrounding the emergence of the
so called Information Superhighway, we can hardly underestimate its significance. The
potential integration of text, images, and sounds in the same system, interacting from multiple
points, in chosen time (real or delayed) along a global network, in conditions of open and
affordable access, does fundamentally change the character of communication” (Castells,
1996, p. 328).
Essa convergência atual de tecnologias de distribuição de voz, dados, imagens e sons através da digitalização
da informação passam por diversas instâncias, seja a convergência de equipamentos de comunicação,
telecomunicações e informática; a convergência dos modelos de consumo de informação, entre comunicação de
massa e comunicação interativa; a convergência dos produtos das indústrias culturais em um único produto
multimídia; e a convergência da economia das comunicações que agrupa dois setores distintos –
telecomunicações e comunicação eletrônica de massa – mediados pela informática.
Propomo-nos, neste trabalho, a mapear o contexto em que algumas destas modalidades dessas
convergências que vem acontecendo, especialmente no Brasil. Em seguida, analisaremos as mudanças estruturais
- em termos globais e, quando possível, locais – que ocorrem na relação triangular da televisão com as
telecomunicações e com a Internet.
2
Essa análise terá como pano de fundo uma nova ordem mundial em que, a exemplo (e por incentivo) dos
Estados Unidos, os países da América Latina optam por uma quebra dos monopólios estatais de setores
importantes da economia. Nas comunicações, por exemplo, Argentina, Chile, México, Peru e Venezuela já têm
sistemas de telecomunicações completamente privatizados, sendo que o Brasil começou a completar, em 1999, o
seu processo de privatização com a licitação das empresas-espelho destinadas a concorrer com as empresas
sucessoras do Sistema Telebrás e finalizará o processo com a abertura total do mercado em 2002. Essas
experiências mostram, por outro lado, que a convergência das comunicações não pode ser analisada apenas em
função das inovações tecnológicas: as mudanças que a trouxeram à tona estão alinhadas ao modelo neoliberal, ou
pós-fordista segundo Harvey (1994), de desenvolvimento do capitalismo na busca de alternativas para a sua
manutenção. “Nesse contexto, a televisão, que tinha sido um dos motores do desenvolvimento fordista (Garnham,
1991) volta a assumir um papel importante, agora formando um conjunto dinâmico na economia, junto com as
telecomunicações e a informática” (Capparelli, Ramos; Santos, 1999, p. 10).
Telecomunicações e TV
Com as incessantes evoluções tecnológicas, a televisão gerou outra, com grande ímpeto comercial a
partir do final dos anos 70: a televisão por assinatura. E a televisão por assinatura se parece com essas bonecas
russas, trazendo dentro de si a possibilidade de desenvolver características híbridas ao contato com outras áreas
de produção, dela originando-se sempre novos serviços e novos produtos. Talvez ela deixe de ser nomeada como
televisão e passe a chamar-se cibertelevisão (Noam, 1995) porque estaríamos entrando na época da pós-televisão
(Piscitelli, 1998) ao oferecer serviços até então separados – como as telecomunicações, comunicação massiva e
transporte de dados – bem como outros produtos, a partir da dinâmica das mega-fusões. Ou então nem se chame
mais televisão, com a grafia completa, e seja um dispositivo novo – com um ‘nome-sigla’ como PCTV ou
MacTV, bem ao estilo dos nomes dos novos serviços que têm surgido nos últimos tempos como ATV e HDTV1 que esteja inserido em uma “cultura da virtualidade real” (Castells, 1996).
Considerado o último grande mercado do Ocidente ainda inexplorado, o Brasil tem, em qualquer das
modalidades de TV por Assinatura, uma significativa vantagem comparativa. O atraso ocorrido em relação a
outros países permite que as três modalidades - TV a Cabo; DTH (Direct to Home - transmissão direta por satélite
via sinais digitais); e MMDS (Multichannel Multipoint Distribution Service - transmissão por microondas)
estejam amadurecidas para serem aplicadas, em larga escala, em estágio avançado de seu desenvolvimento
tecnológico. Em outras palavras, a TV por assinatura chega ao Brasil no momento quase exato da convergência
entre as mídias de entretenimento, as telecomunicações e a informática, o que traz possibilidades adicionais de
negócios na exploração não só dos serviços de vídeo, como também de outros serviços digitais em ambientes de
banda larga.
Mais ainda, a televisão por assinatura no Brasil foi sendo implantada justamente com a reestruturação do
arcabouço institucional das comunicações brasileiras, tendo em vista o fim do monopólio estatal na telefonia
básica e comunicação de dados, bem como na exploração dos serviços de telecomunicações por satélites visando
uma regulação conjunta (convergente) de todos os serviços e meios de distribuição. Isto está abrindo
1
ATV (Advanced Television) – Sigla que designa a TV broadcast digital; HDTV (High-Definition Television) – TV de alta
definição, padrão de televisão digital que gera imagens mais nítidas e definidas.
3
efetivamente novos campos de atuação no mercado para os operadores de televisão por assinatura, já que os
serviços de vídeo que oferecem, em um cenário digital, convergem com outros serviços, particularmente com
aqueles que ora surgem em função do crescimento, no país, do número de usuários da rede mundial de
comunicações, conhecida como Internet. Em outras palavras, as mudanças das políticas normativas em curso
constituem importantes atrativos para uma indústria até bem pouco vista apenas como provedora de televisão
mediante assinaturas.
O ano de 1998 foi marcado por dois acontecimentos de extrema relevância para o novo cenário da
convergência das teles e TV. O primeiro deles foi a privatização do sistema Telebrás, que envolveu interessados
não só do meio das telecomunicações, mas também empresas de comunicação, até então trabalhando apenas o
conteúdo; já o segundo consistiu na crise mundial que elevou os juros e atingiu empresas brasileiras de
comunicação.
Nesse novo cenário as redes de televisão constróem um cenário não tradicional:
1.
Uso crescente das cadeias de televisão e suas freqüências para oferecer serviços de transmissão de
dados, muito próximos daqueles oferecidos pelos serviços de telecomunicação. A RAI, italiana, e a BBC,
inglesa, transmitem as cotações diárias da bolsa; a Redevisión, da Espanha, aproveita as redes de
televisão para oferecer serviços de telecomunicações;
2.
O crescimento dos canais de televisão, que cobram pelo serviço oferecido, baseado no consumo,
como os programas de televisão próximos ao modelo oferecido pelas telecomunicações (pay-per-view).;
3.
O desenvolvimento de redes de distribuição televisiva por cabo, que em alguns países como
Bélgica e Holanda alcançam quase 90% das famílias, e a licença para o uso dessas redes no serviço
telefônico, como acontece no Reino Unido e acontecerá no Brasil a partir de 2002.
Na recente privatização do Sistema Telebrás, o grupo Globo, associado à poderosa AT&T, pretendia
adquirir a maior operadora regional à venda: a Telesp. O grupo perdeu, no leilão, para a Telefónica Internacional
(associada ao grupo brasileiro de comunicações Rede Brasil Sul - RBS). Mesmo assim, o grupo adquiriu as
concessionárias de telefonia celular Tele Celular Sul (por R$ 700 milhões) e a Tele Nordeste Celular (por R$ 660
milhões junto com dois parceiros: a Telecom Itália e o banco Bradesco).
Outras empresas de comunicação têm interesses em telecomunicações no Brasil. A CRT, do Rio Grande
do Sul, teve seu capital comprado por um consórcio que envolvia a RBS e a Telefónica Internacional. A RBS
participou também da telefonia celular na Banda B com os consórcios BCP e BSE. Ao mesmo tempo, os grupos
jornalísticos Folha da Manhã e O Estado de S. Paulo participaram de outros consórcios, todos eles mesclando
operadoras internacionais, bancos nacionais e estrangeiros, além de empresas de equipamento2.
Se, por um lado, as empresas de comunicação estão se movimentando em direção às telecomunicações,
o contrário também ocorre. Na privatização da telefonia argentina, a antiga empresa estatal Entel foi dividida em
duas partes partindo o país e a capital ao meio geograficamente. Esta foi a porta de entrada para as global traders
no mercado convergente argentino. A associação CEI-Citicorp Holdings/Telefónica Internacional S.A. (TISA)
2
Os fabricantes de equipamentos já estão presentes em duas operadoras independentes da banda A que abriram recentemente
seu capital: Ceterp de Ribeirão Preto-SP, Motorola; e Sercomtel de Londrina-PR, Ericsson.
4
veio fazer frente ao grupo local Clarín na divisão deste mercado convergente. Os dois grupos têm negócios em
diversos setores das comunicações. São as ‘teles’ caminhando para as ‘TVs’.
No Brasil, esta movimentação também começa a ocorrer principalmente com a Telefónica Internacional,
que, além da Argentina, também atua na América Latina no Chile, Peru, El Salvador, Porto Rico e Venezuela. A
Telefónica, que no Brasil adotou a marca Telefonica sem acento gráfico nenhum, já está associada ao grupo RBS3
em telecomunicações e no provimento de Internet. O grupo também tem investido em redes digitais de banda
larga nas operadoras de telecomunicações que detém no país. Acredita-se que, assim que estiverem restritas as
barreiras legais para a propriedade cruzada, o grupo é um forte candidato a entrar no setor de TV por assinatura
como ocorreu na Argentina. Mais ainda: uma vez superada a barreira constitucional que impede a entrada do
capital estrangeiro nas empresas de jornalísticas e de radiodifusão – há emenda constitucional tramitando no
Congresso nesse sentido -, o grupo espanhol deverá ser forte candidato a assumir o controle de uma rede de TV
aberta no Brasil. Este cenário sinaliza uma convergência efetiva dos setores de telecomunicações e comunicação
de massa no Brasil.
Internet na TV e TV na Internet
A evolução das novas tecnologias de distribuição da programação televisiva enriqueceu a quantidade e a
qualidade de oferta de serviços. São concretamente essas mudanças que levam Garnham (1995) e Richeri (1994)
a considerarem esse novo sistema como um dos principais motores da convergência das comunicações A nova
estrutura de redes, tanto por satélite como por cabos de fibra ótica, está capacitada para oferecer serviços que
extrapolam a transmissão de imagens e áudio.
Estamos trilhando, neste momento, um caminho onde ocorre não apenas a convergência tecnológica de
setores distintos, mas, também, convergências econômicas e políticas. Enquanto Henry Ford foi o símbolo de um
modelo de capitalismo industrial - no qual a produção e o consumo massivos foram regulados através do ‘Estado
de Bem Estar Social’- , Bill Gates é o símbolo de uma nova forma de capitalismo convergente caracterizado pela
3
A relação RBS/Telefonica está marcada pelo episódio de conflito, ocorrido na privatização do Sistema Telebrás. Este
episódio serve para exemplificar como os oligopólios internacionais, que se fortalecem com o pós-fordismo, podem
desestruturar as estratégias dos oligopólios nacionais no setor. Poderia se dizer que a RBS, ao se associar à Telefónica,
estava alavancando não só a sua participação no setor de telecomunicações como também a sua inserção no mercado
globalizado das comunicações. Esta conjectura, porém, adquire outros contornos se compararmos as intenções das
empresas brasileiras no setor de telecomunicações e os resultados de privatização do Sistema Telebrás. No mercado
nacional existia uma espécie de acordo informal entre a Rede Globo e a sua afiliada RBS que delimitava geograficamente a
atuação dos grupos no setor de telecomunicações: a RBS se concentraria na região sul e a Globo no centro do país. Desta
forma, na divisão do Sistema Telebrás em três empresas de telefonia fixa, uma de longa distância e oito de telefonia celular,
interessava à RBS, a aquisição da Tele Centro Sul; e à Globo, a Telesp, a Telesp Celular ou a Tele Sudeste Celular (Rio de
Janeiro e Espírito Santo). A intenção estratégica das duas empresas foi desarticulada a partir da aquisição, pela holding Tele
Brasil Sul, da Telesp, por R$ 5,78 bilhões contra os R$ 3,965 bilhões ofertados pelo consórcio formado pela Globopar, o
Banco Bradesco e a Telecom Itália. O lance pela Telesp foi definido sem o conhecimento da RBS. A reação do presidente
do grupo foi instantânea: “Eu me retirei, foi um choque”, disse Nelson Sirotsky ao jornal Folha de São Paulo um dia depois
do leilão (Souza, 31 jul. 1998, p. 1-6). Com a aquisição da Telesp, legalmente, a empresa ficou impossibilitada de concorrer
ao leilão da Tele Centro-Sul, vencido pela Solpart Participações – banco Opportunity, Telecom Itália e fundos de pensão.
Do outro lado, o consórcio que incluía a Rede Globo perdeu também a Telesp Celular para a Portugal Telecom (parceira da
Telefónica) e acabou ganhando a Tele Celular Sul. Desta forma, em vez de solidificar a participação da RBS no mercado de
comunicações da região sul, a parceria com a Telefónica funcionou inversamente: serviu de base para a entrada da
operadora global no país e restringiu a expansão da RBS. Esse episódio, além de estremecer as relações entre as duas
parceiras, abalou profundamente o planejamento da RBS.
5
re-regulamentação que vem ocorrendo nos últimos anos. Assim, argumenta-se que estamos em transição de um
fordismo a um “gatecismo”.
Para o canadense Gaetan Tremblay (1995), a relação entre estes modelos não é, necessariamente,
interpretada como um rompimento radical entre uma sociedade industrial e uma nova sociedade da informação,
mas, ao contrário, deve ser compreendida dentro da estrutura de uma dinâmica específica do capitalismo. “These
changes nevertheless translate into a shift from one mode of organization to another, from one production and
consumption norm to other production and consumption norms (...) the search for new modes of social regulation
is part of this process of change”” (p.25).
Além da programação tradicional de vídeo e áudio, home banking, home shopping, telefonia, teleconferências e Internet são serviços que agora podem ser oferecidos tanto pelas operadoras de televisão por
assinatura quanto pelas de telecomunicações. A atual legislação brasileira de cabodifusão limita as operadoras de
televisão a cabo a oferecerem apenas vídeo e áudio, mas permite a locação do excedente da capacidade das suas
redes para operadoras de telecomunicações. No caso das operadoras de telecomunicações, elas estão proibidas de
operar qualquer modalidade de televisão, broadcasting ou por assinatura, e sua atuação está limitada às áreas
geográficas definidas no processo de privatização até 2002.
Mas estas restrições estão muito perto de serem eliminadas. A recente proposta de “Regulamento para
Utilização de Redes de Distribuição de Serviço de Comunicação Eletrônica de Massa por Assinatura para o
Provimento de Serviços de Valor Adicionado" aprovada pela Resolução 190, de 29 de novembro de 1999, pela
Anatel, já liberou os operadores de televisão por assinatura ao provimento de Internet, um serviço de
telecomunicações de valor adicionado (SVA). Como a TV a cabo está regulada por ato normativo (Lei 8.977)
distinto dos outros serviços por assinatura, como MMDS e DTH, a Anatel está preparando novas regras para o
setor, unificado pela denominação de Serviço de Comunicação Eletrônica de Massa por Assinatura (SCEMa).
Ainda para o ano de 2.000 também estão previstas: a) a votação de projeto de lei para a abertura do
capital das empresas de televisão broadcasting para estrangeiros, observando o limite de 30%; b) a
regulamentação para a digitalização dos serviços de MMDS; e, c) a finalização do processo de licitação para as
espelhinhos, que abrem o mercado de telefonia fixa para novos operadores (o edital proíbe a participação das
concessionárias já existentes e as espelhos). A futura regulamentação convergente compreende também as novas
tecnologias que foram recentemente testadas no país como o LMDS (Local Multipoint Distribution System),
também chamado de LMCS (Local Multipoint Communications System) ou BWA (Broadband Wireless Access);
e a televisão digital, cujos testes foram realizados por 17 empresas de comunicação brasileiras, e o relatório final
foi tornado público, em julho de 2.000, para comentários (Anatel, 2000).
A partir da digitalização, grandes transformações estão ocorrendo tanto na TV quanto na Internet. Duas
possibilidades de mudanças são possíveis: pode-se levar a Internet para a TV, tornando-a navegável através do
controle remoto; ou o contrário, fazer com que os canais de televisão sejam possíveis de serem assistidos via
Internet, na tela do computador.
Internet na TV
Além dos acordos entre empresas para uma convergência econômica, há também a convergência
tecnológica de equipamentos. Em termos de equipamento – hardware - as principais estrelas tecnológicas
6
surgidas no final da década de 90, os cable modem e os set-top boxes, estão sendo implantadas pelas principais
global traders.
O cable modem, como o próprio nome indica, é um dispositivo que converte informações enviadas pelo
computador em sinais elétricos que depois são recebidos por um dispositivo equivalente que converte os sinais de
novo em dados. Inicialmente um modem, abreviação de modulador-demodulador, usa apenas a linha telefônica
para transferir as informações numa velocidade média, de 56kbps de acordo com a capacidade das principais
marcas oferecidas pelo mercado. O cable modem transmite estas mesmas informações por cabos de fibra ótica,
sendo seu principal atrativo a velocidade com que os dados chegam a casa do usuário: 30Mbps, em condições
perfeitas (sem ruídos e com uma estrutura dedicada exclusivamente para o seu uso), e 2 Mbps. Enquanto os
modems telefônicos são transmitidos na medida de mil bits por segundo – Kbps, os cable modems vêm com o
incremento dos milhões de bits por segundo – Mbps.
Já o set-top box é um dispositivo de interface entre a rede (de cabos) e o televisor do assinante. Uma
espécie de conversor que permite o acesso à Internet, transmissão de dados, video on demand entre outros. Um
usuário pode, através da sua televisão, ao mesmo tempo enviar e-mails e assistir ao Jornal Nacional, por
exemplo, conectando-se a qualquer provedor de acesso ou ao provedor da própria empresa de TV a cabo.
Este equipamento permitiria, por exemplo, que um telespectador assistindo a uma cena da novela Laços
de Família, na qual a personagem Íris está galopando seu cavalo e ouvindo música pelo headphone, possa, ao
mesmo tempo, acessar o portal Globo.com. No portal, este usuário poderia clicar no link para Íris, dentro da home
page da novela, e deparar com cinco opções: 1) a personagem (histórico, e-clip interativo onde o usuário pode
editar online as cenas já mostradas com participação da atriz); 2) a atriz Deborah Secco (biografia, dados sobre a
personagem, video-on-demand dos filmes estrelados, entrevistas); 3) a fazenda (localização no interior do Rio
Grande do Sul, a cultura local, propriedades disponíveis para compra na região); 4) o cavalo Vilão (a raça manga
larga; chat com o treinador; disponibilidade para inseminação artificial); e, 5) Arquivos em MP3 para download
da trilha sonora relativa à personagem. Tudo isso em tempo real, com qualidade de TV e velocidade de 30Mbps.
No momento, os provedores brasileiros de conteúdo para a internet ainda não oferecem este nível de
integração com a programação televisiva. Tecnicamente, o maior impedimento para que isto ocorra se localiza
nas redes. Enquanto os equipamentos de ponta permitem, em tese, tamanha velocidade e capacidade, o caminho
percorrido é ainda uma mistura de redes ópticas e coaxiais, de par de fios trançado, além de redes sem fio de
baixa velocidade. É por isso que, mesmo assinando uma linha ADSL de 256kbps, a velocidade média de
download atingida é de 100kbps. Há um hiato entre as tecnologias possíveis (e já disponíveis no mercado
brasileiro, como podemos ver no quadro a seguir) e a viabilidade da universalização da banda larga, que pode
levar ainda muito tempo, dependendo da modernização das redes.
Comparação entre as diferentes tecnologias de acesso à Internet pela TV por assinatura4
Tecnologia
Cable
modem
4
Velocidade
de Upstream
56 kbps
a 129 kbps
Velocidade
Custo médio do
de
serviço para o
assinante
Downstream
256 kbps
De R$ 60,00
a 2 Mbps5 a R$ 80,00
Obtido em Mermelstein, 2000.
Operadoras
no Brasil
Net Sul
(Cable Modem
Pontos
fortes
Pontos
fracos
Conexão
permanente
Custo do
modem
7
Net),
TV Filme
(LinkExpress),
Globo Cabo
(Vírtua)
MMDS
Até 128 kbps
(retorno
Até 2 Mbps R$ 80,00
por telefone)
Até 128 kbps
Satélite
Até 400
(retorno por
(DirecPC)
kbps
telefone)
BWA
(LMCS)
(LMDS)
Até 10 Mbps
TVA (Ajato) e TV
Filme
(LinkExpress)
Nos Estados Unidos
o serviço custa, em
média,
US$ 20,00 para 200
kbps, US$ 40,00
para 400 kbps
e US$ 130 para
empresas.
Até 155
Mbps
-
liberação da linha
(no bidirecional)
Cobertura do
serviço
Por enquanto
(uma antena
é só
central cobre uma
unidirecional
cidade de pequeno
e médio portes)
Ainda não
disponível
Flexibilidade de
no Brasil. Nos EUA instalação, área
é prestado pela
de cobertura
Hughes
Custo do
serviço,
já que
tecnologia
é importada
Indicado para
Tem menor
regiões
alcance que
Ainda está sendo
com alta densidade
MMDS e é
regulamentado
de assinantes, alta
sensível a
pela Anatel
capacidade de
interferências
dados
Um dos exemplos mais conhecidos de convergência entre a Internet e a televisão é o acordo entre a
Microsoft e a Tele-Communications Inc (TCI), a maior empresa de TV a cabo dos Estados Unidos. Este acordo
garante a colocação de Windows CE (Consumer Eletronic), o sistema operacional mais usado no mundo, porém
alterado, em 5 milhões de set-top boxes. A intenção de Gates com isso é que, assim como futebol e televisão
estão profundamente ligados para milhões de pessoas no mundo, o Windows fique inseparavelmente relacionado
à TV. Cerca de 20 milhões de lares americanos têm computadores e modems e mais ou menos 68 milhões têm TV
a cabo. Para manter um crescimento tão forte quanto o atual, a Microsoft precisa ingressar no mercado chamado
televiosionspace, ou espaço televisivo.
O ano de 2000 iniciou com a criação do maior conglomerado mundial de comunicações: o AOL Time
Warner. No dia 10 de janeiro foi anunciada a compra da Time Warner6 pelo maior provedor de Internet do
mundo, AOL7, em uma negociação que envolveu, segundo o boletim Assesso Com, US$ 166 bilhões. Ainda
segundo o boletim, o conglomerado “nasce com um valor de mercado de US$ 350 bilhões e deve gerar uma
receita de US$ 40 bilhões anuais... Juntas, as empresas reúnem 36 revistas, entre elas a Time, os canais de TV a
cabo CNN, HBO e Warner Group e as marcas Netscape, People e Looney Tunes” (Assesso Com, 12 jan. 2000).
Esta fusão ainda depende da aprovação das agências reguladoras FCC (Federal Communications Comission), das
telecomunicações; FTC (Federal Trade Comission), do comércio; e pela divisão antitruste do Departamento de
Justiça dos Estados Unidos, mas, levando em conta a sua natureza e o volume dos valores financeiros envolvidos,
ela já configura o negócio mais expressivo já realizado em relação à convergência da TV com a Internet.
5
Modems atuais. A rede tem capacidade para até 30 Mbps.
6
“Time Warner, com 16 anos de existência, tem 20 milhões de usuários e um valor de mercado de US$ 121 bilhões. De
imediato, a associação reúne 120 milhões de leitores de revistas, 35 milhões de assinantes da HBO e 13 milhões de
residências assinantes da AOL” (Assessocom, 12 jan. 2000).
7
“Fundado em 1985, o provedor tem 22 milhões de usuários e um valor de mercado de US$ 169 bilhões” (Assessocom, 12
jan. 2000).
8
Outro exemplo de grande porte ligado à convergência entre a Internet e a TV é um conjunto de acordos e
negócios de gigantescas empresas norte-americanas e japonesas. Voltaremos a falar sobre as ações da Microsoft.
Desde 1991 a empresa vem pesquisando para criar a TV digital. O primeiro resultado destes esforços foi o
Windows CE, consumer electronics ou eletrônica de consumo. Em 1993 Bill Gates já estava conversando com a
TCI, Time Warner, AT&T e outros grandes das telecomunicações sobre a formação de uma joint venture para o
lançamento da televisão interativa. O máximo ao que se chegou foi a testes que nunca ultrapassaram a fase
laboratorial. A transição da televisão convencional para a interativa não aconteceria da noite para o dia. Os testes
desenvolvidos pela Time Warner deixavam isso bem claro. Na tentativa de oferecer para 4 mil assinantes de TV a
cabo alguns jogos online, filmes on demand e pedidos de pizza por meio do controle remoto, a empresa deparava
com grandes dificuldades técnicas. Os set-top boxes apresentavam um custo de US$ 8 mil para serem produzidos,
e só a criação do aplicativo para a solicitação de pizza precisou de meses de trabalho e centenas de milhares de
dólares de investimento.
Tratando-se de negócios entre grandes empresas e convergência, não podemos deixar de falar também
na WebTV. Certa noite, quando estava navegando na Internet, Steve Pearlman, um ex-executivo da Apple,
decidiu verificar se seria possível transferir uma página do seu monitor de vídeo para a TV. A idéia deu certo e
Pearlman criou a WebTV, uma empresa que chamou a atenção de Bill Gates em pouco tempo. Em semanas, a
Microsoft comprou a WebTV em um negócio de US$ 425 milhões. De acordo com pesquisas da própria empresa,
as pessoas passam 2,5 vezes mais tempo online navegando pela TV do que pelo computador. Acredita-se que isto
aconteça por causa da familiaridade existente com o aparelho televisor. O sistema WebTV somente inclui um
aparelho set-top de US$ 199 que liga-se à TV. Logo depois da compra da WebTV pela Microsoft, a Sony e a
General Instrument, duas das maiores empresas produtoras de aparelhos eletrônicos do mundo, entraram em
conversação para incluírem-se no negócio.
Os problemas da Microsoft frente à justiça americana constituem outro exemplo da importância da
Internet. O Departamento de Justiça dos Estados Unidos entrou com um processo contra a Microsoft, em maio de
1999, por prática de monopólio. A acusação principal devia-se à venda casada do sistema operacional mais usado
no mundo, o Windows, com o browser, sistema de navegação da Internet, Explorer. Segundo o Departamento de
Justiça norte-americano, a Microsoft conquistou o mercado exercendo ilegalmente o poder do monopólio,
dificultando a entrada no mercado de uma forte concorrente, a Netscape. A primeira sentença, proferida em
setembro de 1999, proíbe a empresa de vender o seu novo sistema operacional, Windows 98, apenas com o seu
browser. Caso aconteça esta venda casada, será obrigatória também a inclusão do browser Netscape no conjunto.
Na mesma ocasião, a própria Netscape iniciou uma campanha mundial legalizando a cópia gratuita do seu
navegador através da rede, ação inédita até então. Esta disputa acirrada no mercado de informática,
principalmente tratando-se de Internet, e esta forte briga contra o monopólio na rede, deixam claro o quanto este
mercado está crescendo e despertando interesses empresariais e governamentais no mundo todo.
Comercialmente, a Internet surgiu, no Brasil, em 1995. Ela situa-se, até agora, na “era da préconvergência”, de que fala Garnham (1996), caracterizada pelo fato de as redes físicas e a sua regulamentação
estarem ainda separadas entre telecomunicações e cabodifusão.
Em termos jurídicos, o provimento de acesso à Internet no país é considerado um serviço de valor
adicionado (SVA) de telecomunicações que não necessita de outorga concessão para ser oferecido e utiliza a
9
estrutura das operadoras de telecomunicações para transporte. Inicialmente, as empresas de comunicação
entraram no setor, criando ou adquirindo provedores de acesso ou de conteúdo.
A Anatel começou a eliminar estas restrições com o Regulamento de Testes para Serviço Adicionado,
publicado em dezembro de 1998, que autorizou as operadoras de televisão por assinatura a realizarem
experiências com cable modems até junho de 1999. Para garantir o caráter público das redes, previsto na Lei
8.977, e coibir a possibilidade de monopólio, a Anatel exigiu que estes testes fossem feitos em conjunto com três
provedores de Internet no mínimo. As principais MSOs8 brasileiras já vinham fazendo testes com cable modems
antes da liberação da Anatel. A RBS vem estudando duas tecnologias, a da Nortel, na Net Sul, e a da Terayon, na
Globo Cabo.
O interesse na regulamentação dos serviços convergentes, ou multimídia, pode ser observado pelo
número de comentários enviados à Anatel durante o processo de regulamentação do SVA, que esteve em consulta
pública entre setembro e outubro de 1999. Das 21 propostas de regulamento elaboradas pela agência, no ano de
1999, esta foi a que obteve recorde de comentários com 86 contribuições. O maior número de contribuições
registrado neste ano havia ocorrido, em abril de 1999, com 41 contribuições à Proposta de ‘Regulamento sobre a
contratação de serviços e aquisição de equipamentos ou materiais pelas Prestadoras de Serviços de
Telecomunicações’ (Consulta Pública n. 118/99, Anatel, 2000). Outra característica importante da Consulta
Pública para o SVA (n. 176) é o alto índice de participação dos usuários de Internet. Das 86 contribuições
recebidas, 36 pertenciam a empresas dos setores de informática e/ou comunicações, advogados e entidades da
sociedade civil ou dos setores envolvidos e as 50 contribuições restantes pertenciam a pessoas físicas. Durante o
ano de 1999, foi observado que, além desta, apenas uma consulta pública obteve contribuição de também apenas
uma pessoa física (n. 150, Proposta de Regulamento sobre Canalização e Condições de Uso de Radiofreqüências
da Faixa de 10,5 GHz).
O evidente interesse dos usuários em utilizar os serviços de Internet em banda larga, aliado à
possibilidade de utilizar a capacidade extra da estrutura de distribuição, à crença na massificação da Internet e no
ambiente competitivo que está sendo formado no país, impulsionam os investimentos das empresas de
comunicação na viabilização do oferecimento de Internet pelo cabo.
Comercialmente, o serviço já é oferecido, desde setembro de 1998, pela Net Londrina, sob o nome de
Zapp Channel. Este sistema utiliza o cable modem para a transmissão dos dados sem a bidirecionalidade no cabo,
ou seja, o retorno era por linha telefônica. Desta forma, a operadora podia oferecer um serviço mais rápido de
acesso mas não esbarrava nas restrições legais existentes para as operadoras de cabo. Um serviço equivalente,
chamado de Ajato foi lançado, em julho de 1999, pela TVA, do grupo Abril.
Após a aprovação da Resolução n. 190, no final de 1999, os serviços estão se multiplicando. Em julho
de 1996, o grupo RBS, terceiro maior grupo nacional de comunicações, transmissora da Rede Globo no Rio
Grande do Sul e Santa Catarina, comprou um provedor de Internet, a Nutec. Este provedor transformou-se, nas
mãos da RBS, na Nutecnet, o segundo maior provedor de acesso à Internet do país, com 190 mil assinantes e
franquias em 83 cidades de todas as regiões do país em 1998. A Nutecnet, posteriormente transformada em ZAZ,
8
O conceito de MSO usado neste trabalho refere-se às várias modalidades de TV por assinatura operadas por um único grupo.
Este conceito amplia o espectro da definição usual do termo para designar as empresas que possuem ou operam mais de um
sistema de TV a cabo ou MMDS.
10
também agrega um provedor de conteúdo (ou portal, como estão sendo chamados estes provedores mais
recentemente), criado em dezembro de 1997. Atualmente o ZAZ está incluído no portal Terra que agrupa todos
os provedores da Telefónica de España no mundo. A RBS, originalmente interessada em produzir notícias e
diversão, enfim, conteúdo, demonstrou mais uma vez interesse na estrutura tecnológica ao associar-se à maior
empresa de software mundial, a norte-americana Microsoft, no final de 1997, oferecendo no ZAZ o serviço de
informação MSNBC, joint venture entre a Microsoft e a rede americana de televisão NBC. Ainda no setor de
informática, a RBS é proprietária da ADP Sistemas, que opera no setor de software.
Em junho de 1999 a Telefônica Interativa, pertencente à holding Telefónica Internacional, adquiriu 51%
do ZAZ. Esta movimentação insere a Telefónica, uma empresa de telecomunicações, no mercado de Internet
brasileiro e também serve para aumentar os investimentos neste portal, que faturou, em 1998, US$ 23 milhões,
para competir com o Universo Online – UOL, líder no mercado.
A entrada das chamadas global traders no setor de Internet brasileiro começa a ocorrer com esta
aquisição. O UOL, maior provedor privado de acesso à Internet da América Latina, com 400 mil assinantes,
também anunciou recentemente que está procurando um parceiro internacional. O UOL é o site em língua
portuguesa mais visitado no mundo, com uma média de 100 milhões de páginas acessadas por semana, estando
na mesma marca que a gigante mundial de comunicação CNN e superando sites como a Disney (17,25 milhões).
Além disso, também em junho de 1999, o site de busca Yahoo!, já instalado em 18 países nos últimos
anos e que tinha, nesta data, uma média de 60 milhões de usuários mensais em todo o mundo, montou um
escritório no Brasil e um site em português. Assim como aconteceu nos outros países da América Latina,
especialmente na Argentina, essas global traders, que inicialmente entraram nesses países participando da
privatização das telecomunicações, tomam seu lugar no Brasil, num mercado de comunicações marcado pela
convergência.
Além de provedores próprios, alguns grupos brasileiros já estão oferecendo o serviço de Internet por
cabo. A Net Sul (também de propriedade da RBS até junho de 2.000) esteve, desde 1997, estudando a tecnologia
da empresa americana Nortel e aguarda a autorização da Agência Nacional de Telecomunicações, para iniciar os
testes de telecomunicações em redes de cabo com a interconexão à rede pública (PAY-TV, 24 jun. 1998). Além
da Net Sul, o uso das redes de TV a cabo para Internet e outros serviços de dados esteve sendo testado desde
1998, também nas cidades de Londrina-PR, Vitória-ES e Sorocaba-SP.
Outro grande player nacional que está operando cable modems e set-top boxes é a Rede Globo,
proprietária da GloboCabo – empresa de cabodifusão. Em maio de 1999, 320 residências em Sorocaba-SP
utilizavam experimentalmente o serviço Virtua, o primeiro serviço bidirecional de cable modem no país, que
utiliza os softwares da Microsoft, Windows NT, associados ao MS Comercial Internet System (MCIS), um
pacote de aplicativos para serviços Web. O serviço foi comercialmente implantado no segundo semestre de 1999,
a partir da venda de 20% da Globo Cabo S.A., para a Microsoft. A empresa investiu US$ 126 milhões na
operadora de TV a cabo.
No ano 2.000 o grupo Globo, que já era o maior grupo brasileiro de comunicação, passa a deter também
a maior operadora de TV a cabo e serviços de banda larga da América Latina. Esta transformação teve início em
fevereiro com a aquisição, pela holding Globo Cabo S. A., da Vicom S. A., empresa que opera serviços limitados
11
de telecomunicações (comunicações de dados corporativos) e que, anteriormente pertencia a um consórcio entre
Globopar, Victori Internacional e banco Bradesco por US$ 120 milhões,. Entre 1998 e 1999, a Globo Cabo S.A,
incorporou também as operadoras de TV a cabo que anteriormente eram suas sócias: Multicanal Participações e
Unicabo.
No dia 20 de junho um novo acordo, envolvendo US$ 734,7 milhões, foi anunciado. A Globo Cabo S.A.
assumiu o controle da Net Sul, empresa que anteriormente pertencia à RBS, 90%, e à própria Globo Cabo, 10%.
A Net Sul, detém na região sul do país: 308,6 mil assinantes de TV por assinatura; 1.125,4 mil domicílios
cabeados; renda líquida de R$152,6 milhões, em 1999; e sua rede de cabos possui a extensão de 9.060km, sendo
57% na faixa de 750MHz. Com a fusão a Globo Cabo passou a possuir 1,4 milhão de assinantes, cobertura de
seis milhões de domicílios, receita líquida anual superior a R$830 milhões e mais de 33 mil quilômetros de rede
de cabos (Globo Cabo S.A., 2000). Em contrapartida, pela passagem do controle das ações da Net Sul, a RBS
passou a deter 16,85% da Globo Cabo S.A. como pode ser observado na figura a seguir.
Empresas de serviços de telecomunicações ligadas à RBS e Globo Cabo
IFC
GloboPar
6,5%
Telefonica
31,56%
RBS
93,5%
2%
Globo Cabo Holding
43,01%
Outros
TBS Participações
51%
31,56%
CRT
BNDESPar
4,99%
16,85%
49%
ZAZ
Bradesco
Microsoft
7,75%
Globo Cabo S.A.
7,69%
Outros
Vicom
Virtua
Net Brasil
Net Sul
19,70%
Cable Modem Net
Globo.com
A televisão, portanto, constitui um suporte onde “acontece” um tipo de convergência tecnológica,
econômica e jurídica, materializando as possibilidades da Internet no monitor. Mesmo assim, não se trata mais de
Internet pelo monitor da televisão ou de uma televisão com hipertexto. Trata-se de uma tecnologia nova, marcada
por um caráter híbrido, que não se reduz apenas à soma de duas tecnologias.
Televisão na Internet
No início de 1998, a Microsoft, comprou 11% das ações da Comcast, a quarta empresa de televisão a
cabo dos Estados Unidos, investindo mais de um bilhão de dólares no negócio. Na realidade, já é possível assistir
12
à TV pela Internet. Muitos canais oferecem páginas extremamente completas sobre os assuntos que estão
abordando, e, mais do que isso, arquivos com reportagens já apresentadas, entrevistas, ou mesmo a apresentação
ao vivo de alguns programas (é o caso da Rede Globo, da MTV ou da TV Cultura).
Para os usuários da rede, conectados via ligação telefônica, a qualidade da imagem e do som é ainda
precária. Não se tornou algo usual assistir televisão pela Internet, mas verifica-se uma movimentação de
investimentos, testes e pesquisas nesse sentido. No Brasil, as operadoras Telefonica e CBTC Telecom oferecem o
serviço de ADSL (Assimetrical Digital Subscriber Line), onde o fluxo de dados é feito através da rede de cabos
de cobre, não necessitando de rede de fibra ótica, com velocidade de até 8Mbps. Além destes serviços, a Anatel
está preparando um novo regulamento de banda larga wireless, utilizando microondas através da tecnologia
BWA9 que já foi testado, até 1996, pelas seguintes companhias: AG Telecom, Globosat, Sulitel/RBS, TVA e
Global-Tel. Os usuários brasileiros vivem, no momento, uma situação híbrida entre os modems analógicos de
56Kbps e a proximidade do serviço wireless com até 100Mbps.
Evolução da velocidade de dados10
1962
1970
1978
1982
1983
1984
1990
1992
1993
1994
1995
1996
1998
2000
Primeiros modems analógicos transmitem a 300 bps
Modems analógicos de 1,2 kbps
Telefônicas lançam o DDS (Digital Data Service), conexão dedicada com capacidade de 56 kbps
Modems analógicos de 2,4 kbps
Lançamento do ISDN, com velocidade de até 128 kbps
Linhas T1, com capacidade de 1,5 Mbps; Modems analógicos de 9,6 kbps
Modems analógicos de 14,4 kbps
Modems analógicos de 28,8 kbps
Primeiros testes de ADSL, com até 1 Mbps
Modems analógicos de 33,6 kbps; Primeiros testes de cable modem nos EUA e Canadá
Início da comercialização do cable modem, com velocidades de 1 a 3 Mbps
Modems analógicos de 56 kbps
Início da comercialização do ADSL, com velocidades de download de 7,1 Mbps
Novas tecnologias, como LMCS, poderão atingir mais de 100 Mbps no download
O site da revista Pay TV disponibilizou recentemente um relatório sobre Internet em banda larga onde
afirma-se que, até o final de 2.000, a norte-americana Hughes iniciará no Brasil a comercialização de um serviço,
chamado DirecPC, que, através de satélite, oferece acesso à internet, transferência de arquivos em alta velocidade
e transporte de vídeos e arquivos multimídia. Segundo a revista “nos Estados Unidos, o DirecPC é utilizado
preferencialmente por usuários domésticos para acesso à Internet. A empresa tem uma base de 60 mil clientes,
que podem contratar links de 256 kbps e 400 kbps para download, que custam, em média, US$ 20,00 e US$
40,00 mensais, respectivamente” (Cristoni, 2000).
Isso nos possibilita introduzir uma outra convergência, em pleno desenvolvimento mas ainda com uma
evolução imprecisa: a dos chamados portais. São sites na Internet, propondo informações do dia, meteorologia,
coberturas de acontecimentos ao vivo, guias de turismo multimídias, localizadores - seleção de sites Web com
palavras-chaves. Aqui as posições ficam invertidas. Poderíamos dizer que, ao contrário do exemplo anterior,
9
Esta foi a terminologia adotada pela Anatel. O mesmo serviço também é chamado de LMDS e LMCS.
10
Novas
tecnologias,
como
LMCS,
poderão
atingir
mais
de
100
Mbps
no
Fonte: “Residential Broadband”, ADSL Forum, Dataquest, Intel. Teletime. Obtido em: Mermelstein, 2000.
download.
13
trata-se de um computador que hospeda a televisão. Claro, é uma tecnologia recente, desenvolvida há muito
pouco tempo e que agora se materializa nos empreendimentos da Disney e NBC nos Estados Unidos, associados
respectivamente à Infoseek e Snap. Apenas como exemplo fora dos Estados Unidos, podem ser citados, na
França, as iniciativas do canal TF1, France Télévision e France Telecom. E, no Brasil, existem portais como o
Ajato que oferece conteúdo em banda larga desde o início de 2.000, o Media Cast, da LabOne, que oferece vídeos
exclusivos para a Internet que incluem shows de jazz, boletins jornalísticos, entrevistas e traillers de filmes
brasileiros, ou a MTV com um e-clip que pode ser editado pelo usuário.
Colocar de um lado exemplos franceses e do outro, exemplos norte-americanos, mostra uma imprecisão
sobre essas tecnologias e empreendimentos mundializados. O que se observa é a impropriedade de se falar de
investimentos por país quando os negócios se globalizam. O jornal Libération, por exemplo, analisando o caso
francês, fala na iniciativa de TF1, procurando trazer a Internet para o monitor, mas, ao mesmo tempo, produzindo
programas a serem oferecidos exclusivamente pela Internet. A reportagem discute também a contratação feita
pela France Télévision de um profissional até então responsável pelo setor de multimídia da France Telecom.
Como se vê, também as atividades profissionais se embaralham.
As alianças entre grupos nacionais e internacionais mostram que fora dos Estados Unidos geralmente
acontecem alianças de grupos locais com empresas dos Estados Unidos. No exemplo que vínhamos seguindo,
têm-se a aproximação da AOL/Compuserve da França, filial comum de Canal e de Cegetel, lançando o portal
aol.fr, que já experimenta grande sucesso nos Estados Unidos. Finalmente - e aqui uma espécie de convergência
cruzada - a empresa France Telecom criando o portal Voila, apontando a falta de limites definidos entre as
atividades de telecomunicações, Internet e televisão.
A lógica dos portais é, sobretudo, econômica, numa Internet caracterizada pela gratuidade do conteúdo
oferecido ao usuário. Não estamos nos referindo a bancos de dados e outro tipo de informações estratégicas.
Falamos em sites enquanto entretenimento, noticiário, cobertura ao vivo etc. Mesmo o New York Times que
antes cobrava uma mensalidade pela sua versão eletrônica, voltou a oferecer acesso gratuito aos seus serviços,
cobrando apenas por certos artigos classificados.
No caso dos portais, a estratégia é reunir em um mesmo site o maior número possível de usuários e, a
partir daí, cobrar de empresas pela publicidade veiculada. Não se cria assim uma dispersão muito grande dos
investimentos publicitários que, de outra forma, estariam divididos entre milhões de sites. São justamente esses
“supersites” os chamados portais, face oposta da WebTV, ou melhor, outro tipo de convergência ou de negócio,
cuja evolução ainda não é de todo conhecida mas que já movimenta milhões de dólares. No Brasil, alguns dos
principais portais, Universo Online - UOL, Terra, Globo.com, Ajato e SBT Online - SOL, têm origem em grupos
tradicionais de comunicação – Grupo Folha; RBS, Rede Globo, TVA e SBT, se bem que esses portais ainda são
uma incógnita econômica.
Perspectivas
Garnham (1991) e Richeri (1995) estão certos ao afirmarem que estamos vivendo uma fase de transição
na comunicação eletrônica de massa. Tínhamos (temos) um modelo de televisão, ainda predominante, que é a
televisão massiva; passamos por uma transição, caracterizada pela televisão por assinatura e as novas linguagens
dos mídias; e nos aproximamos de um outro tipo de televisão, que pode ser chamada interativa, cibertelevisão,
14
televisão pós-fordista, ou gatecista (Tremblay, 1995) ou, conforme autores mais radicais, pós-televisão, ou seja,
um misto de televisão e de computador.
As medidas de desregulamentações e as re-regulamentações, com hegemonia de empresas privadas, do
capital financeiro internacional, e com o afastamento do Estado das atividades de operador de telecomunicações,
conforme receituários clássicos neoliberais, demonstram que a metáfora das super-estradas da informação não era
apenas figura de retórica eleitoral norte-americana. Tratam-se, na verdade, de medidas normativas estruturais que
possibilitam, em nível regional, a quebra definitiva da possibilidade de uma participação forte do Estado nas
comunicações como operador. O que, na Argentina, já ocorreu com as privatizações empreendidas e efetivadas
nos últimos dez anos, e o que está para ser concluído no Brasil.
Apesar da globalização da economia, a convergência das teles e das tevês no Brasil é fato singular. A
televisão a cabo é um exemplo ainda mais claro dessas diferenças. Não se trata, por exemplo, de uma repetição
no Brasil do que aconteceu na Argentina, mesmo que o guarda-chuva do neoliberalismo seja parecido. Em outras
palavras, o sistema de televisão a cabo começou muito mais cedo na Argentina porque, diferentemente do caso
brasileiro, os militares argentinos não haviam dotado aquele país de um moderno sistema de telecomunicações,
de modo a permitir a chegada dos sinais de televisão a todos os recantos do país. Mas, por outro lado, a
Argentina, bem como outros países da América do Sul, vive, nos últimos anos, o completo domínio das empresas
estrangeiras no setor de televisão aberta ou por assinatura. Diferentemente, os militares brasileiros - com as
intenções ‘fordistas’ de propiciar a ligação do país, através de um sistema de telecomunicações unificado e
avançado, e de aliar-se a um grupo de televisão que funcionasse como uma espécie de porta-voz do Estado acabaram propiciando uma estrutura tecnológica e econômica local de comunicações mais preparada para o
cenário convergente que está sendo delineado nos moldes pós-fordistas ou gatecistas.
As diferenças acontecem também na convergência do aparato jurídico. A Agência Nacional de
Telecomunicações – Anatel - vem se preparando para a convergência dos setores através dos testes das
tecnologias mais recentes e da elaboração de uma regulamentação que unifique todos os serviços de
comunicações. No Brasil, também, o principal grupo que controla a televisão a cabo é o mesmo que detém a
principal rede de televisão no país. E dele provem boa parte da programação nacional neste segmento da
televisão.
Se o cenário da convergência das teles e da TV está a caminho da consolidação, o mesmo não acontece
nas aproximações entre a televisão e a Internet. No primeiro caso – teles e TV - as tecnologias e o volume de
capitais estão permitindo a construção desse cenário dentro do próprio país, com a participação de gigantes
internacionais como a Telefónica ou, no caso da televisão por assinatura, com o aporte de capital e experiência
das indústrias culturais globalizadas, do setor financeiro e de grupos nacionais. No segundo caso, envolvendo a
Internet e a televisão, é diferente. Isso porque a televisão na Internet ou a Internet na televisão ainda estão nos
seus primeiros passos. E as maiores experiências acontecem em outros cenários que não o Brasil. Porém, os
investimentos dos grupos locais ou o interesse de grandes provedores internacionais no mercado brasileiro
mostram que esse será um locus privilegiado para aplicação e reprodução do capital, num mundo globalizado sob
a grande rede.
15
Referências
ACESSOCOM. Jornalismo especializado em comunicação. Publicação on line do Epcom: Instituto de Estudos e
Pesquisas em Comunicação. <http://www.acessocom.com.br>
ANATEL. Agência Nacional de Telecomunicações. <http://www.anatel.gov.br>
AUST, Thomas. Convergence and its players: potential winner. Communications Media Center at New York
Law School. <http://www.cmenyls.edu/public/papers/CONVERGE.htm>. 09 out. 1996.
CAPPARELLI, Sérgio; RAMOS, Murilo César; SANTOS, Suzy. A nova televisão no Brasil e na Argentina. In:
CAPPARELLI et al. Enfim, sós: a nova televisão no Cone Sul. Porto Alegre: LPM, 1999. p. 9-38.
CASTELLS, Manuel. The culture of real virtuality. In: CASTELLS, Manuel. The rise of network Society. v.1.
cap. 5. Massachussets: Blackwell, 1996.
CRISTONI, Inaldo. Internet em alta velocidade. Acesso: O desafio de chegar ao usuário. Pay TV. Tutorial
disponível no site <http:// www.paytv.com.br/mercado/tutorial/index.htm>
GARNHAM, Nicholas. Capitalism and communication, global culture and the economics of information.
Londres: Sage, 1990.
____________. Convergence between telecommunications and audiovisual: consequences for the rules
governing the information market. Bruxelas: LAB meeting on convergence – Regulatory Issues, European
Commission
–
Legal
Advisory
Board,
30
abr.
1996.
<http://www2.echo.lu/legal/en/converge/960430/garnham.html>.
____________. La economía política de la comunicación - El caso de la televisión. Telos. Madrid: Fundesco, n.
28, dez.-fev. 1991. Cuaderno central (economía de la información y la comunicación). p.68-75.
GLOBO CABO S. A. Globo Cabo assume o controle da Net Sul tornando-se a maior operadora de serviços
digitais de banda larga e TV por assinatura da América do Sul. disponível em:
<http://www.globocabo.com.br>.
HARVEY, David. Condição pós-moderna: uma pesquisa sobre as origens da mudança cultural. São Paulo:
Loyola, 1994.
HOBSBAWN, Eric. Era dos extremos: O breve século XX. São Paulo: Companhia das Letras, 1995.
JAMBEIRO, Othon. A comunicação e o cenário internacional contemporâneo. Idade Mídia. Salvador: UFBA,
1995. p. 164-184.
LACROIX, J.; MIÈGE, V.; MOEGLIN, P.; PAJON, P.; TREMBLAY, G. La convergencia entre
telecomunicaciones y audiovisual. Por una renovación de perspectivas. Telos. Madrid: Fundesco, n. 34,
jun.-ago. 1993. Cuaderno Central.
MERMELSTEIN, André. Internet em alta velocidade. Apresentação: a internet vai mudar. Pay TV. Tutorial
disponível no site <http:// www.paytv.com.br/mercado/tutorial/index.htm>
MURCIANO, Marcial. Lo global y lo local en las estruturas de comunicación internacionales. Monopólios o
redes. Telos. Suplemento da revista n. 34. Madrid: Fundesco, 1994. p. 13-38.
NOAM, Eli. Towards the third revolution of television. Texto apresentado no Symposium on produtive
regulation in the TV market. Gütersloh, Alemanha: Bertelsmann Foundations. 1 dez. 1995 .
OHL, Murilo. Internet em alta velocidade. Produção já começou. Falta virar bom negócio. Pay TV. Tutorial
disponível no site <http:// www.paytv.com.br/mercado/tutorial/index.htm>
PISCITELLI, Alejandro. Post/televisión. Ecologia de los medios em la era de internet. Buenos Aires, Paidós,
1998.
RAMOS, Murilo César. A introdução da televisão a cabo no Brasil: rede única, rede pública e participação
da sociedade. Brasília: Universidade de Brasília, mímeo. Trabalho apresentado no GT Comunicação e
Política, durante a III Reunião Anual da Associação Nacional dos Programas de Pós-Graduação em
Comunicação (COMPÓS), realizada em Campinas, São Paulo, de 22 a 26 de agosto de 1994.
RICHERI, Giuseppe. La transición de la televisión. Barcelona: Paidós, 1995.
16
____________. Condizioni di base per l’affermazione dei nuovi media. Media Mente: trasmissione televisiva e
telematica sui problemi della comunicazione. Roma: Biblioteca digitale/intervista, 12 jan. 1996.
<http://www.mediamente.rai.it/home/bibliote/intervis/r/richeri02.htm>.
ROSE, Frank. The televisionspace race: forget the browser. (Bill Gates has.) Microsoft wants to be in the box.
Wired. n. 6. abr. 1998. <http://www.wired.com/wired/6.04/features>.
YANUZZI, Maria A. Algunos aspectos del neoconservadorismo político. In: Revista la Línea de Sombra.
Rosário: Universidad Nacional de Rosario, n. 2, inv. 1992.
ZANATTA; Carlos Eduardo; Ramos, Raquel. MMDS e LMCS: Regulamento brasileiro é convergente. Pay TV.
Tutorial disponível no site. <http:// www.paytv.com.br/mercado/tutorial/index.htm>.
APOSTILA
Má rcio Wand e rley
Pro cu r ado r do Di st rit o Fed e ral
Pro f es so r Sub stit uto da Fac uld ade d e Di reito da UnB
TEMA 1.
Lei Geral de Telecomunicações.
Regulamento dos
Serviços de Telecomunicações (Resolução 73/98) e demais
normas gerais.
Ementa: Noções Gerais de concessão, permissão e autorização.
Classificação
dos
serviços:
público
versus
privado.
Disposições aplicáveis aos serviços em regime público e em
regime privado.
1.
Lei
Geral
de
Telecomunicações
e
a
Ação
Direta
de
Inconstitucionalidade nº 1.668/DF.
A ANATEL, criada pela Lei nº 9.472/97, tem natureza de
Autarquia especial caracterizada pela independência administrativa. Em
razão dessa natureza jurídica, está submetida ao controle do Tribunal de
Contas da União.
A Lei nº 9.472/97 afirma que o Poder Executivo expedirá
Decreto para instituir ou eliminar a prestação de serviço nos regimes
público e privado, bem assim aprovar o plano geral de outorgas de
serviço prestado no regime público.
No que se refere ao regime de prestação de serviços de
telecomunicações
no
regime
privado,
a
ANATEL,
por
expressa
determinação da Lei nº 9.472/97, expedirá normas de prestação de
serviços de telecomunicações.
A Lei nº 9.472/97 foi regulamentada pelo Decreto nº
2.338/97. Além desse dois atos normativos, foi editada a Resolução nº
73/98, que é o Regulamento dos Serviços de Telecomunicações.
O Supremo Tribunal Federal, em sede de cautelar, no
julgamento da ADI 1.668/DF, no que interessa, assim decidiu em relação
aos dispositivos abaixo indicados:
Artigo 119 1:
expressões
suspender a execução e aplicabilidade das
“simplificado”
e
“nos
termos
por
ela
regulados”;
Artigo 19, inciso XV 2: suspenso até o final da ação;
Artigo 19, incisos IV e X 3:
sem redução de texto, dar
interpretação conforme a Constituição para fixar exegese
de que a competência da ANATEL “subordina-se aos
preceitos legais e suplementares que regem a outorga,
prestação e fruição dos regimes público e privado;
Artigo 22, I 4:
sem redução de texto, dar interpretação
conforme a Constituição, para fixar a exegese de que a
competência
do
Conselho
Diretor
fica
submetida
às
normas gerais e específicas previstas nas leis de regência;
1
Art . 119 . A p e rmi ss ão se r á p re cedi da d e p ro cedi mento li citató rio simplificado ,
in st au rado p el a Ag ên cia , no s t ermo s po r ela reg ul a dos , r e s sa l v a d o s o s c as o s d e
in exi gibil ida de p revi stos no art . 91 , ob se rvado o di spost o no art . 92 , d est a Lei .
2
Art . 19 . À Ag ên ci a com p et e ado t ar as medid as n eces s ári as p ara o at end i mento do
in t ere sse púb li co e pa ra o d esenvol vi mento d as t elec o muni ca çõe s b ra si lei ra s,
a tuando co m ind epend ênci a, imp a rci al id ad e, leg al id ade, i m pessoal id ad e e
publ i cidad e, e esp ecialme nt e:
X V – r e ali za r bu s ca e ap r een s ão d e b ens no â mbi to d e sua c o mp etên cia .
3
I V – exp edi r n o rm as g er a is qu anto à out o rg a, p r es t ação e f rui ção do s s e rvi ços d e
t ele co muni ca çõ es no regi me públi co;
X – expedi r no rmas sob re p rest aç ão d e se rvi ços d e t el eco munic açõe s no regi me
p riv ado;
4
A r t . 2 2 . C o m p et e ao C o n se l h o Di re t o r:
II – ap rova r no rmas p róp ri as de licit aç ão e contra taç ão;
Artigo 59 5:
sem redução de texto, dar interpretação
conforme a Constituição para fixar a exegese segundo a
qual a contratação há de reger-se pela Lei nº8.666/93, ou
seja,
considerando-se
como
regra
o
procedimento
licitatório.
É conveniente consignar que existem outros dispositivos
impugnados, mas que não foram suspensos pelo STF, ao menos em sede
de liminar.
O Supremo Tribunal Federal tem entendimento assentado
de que a produção dos efeitos da declaração cautelar de declaração de
inconstitucionalidade, seja com efeitos ex nunc ou ex tunc, na ausência
de deliberação do Tribunal em sentido contrário, se dá a partir da
publicação da ata de julgamento no Diário de Justiça.
Neste sentido,
dentre os vários precedentes a respeito, está a ADI 711 – Questão de
Ordem, relatada pelo Ministro Néri da Silveira. 6
A ata do julgamento da ADI 1.668/DF foi publicada no
Diário de Justiça de 31.08.1998.
Desde essa data, portanto, deve ser
observado o julgamento do Supremo Tribunal Federal no que toca à Lei
nº 9.472/97.
2 - Noções Gerais de concessão, permissão e autorização
A concessão, permissão e a autorização de um serviço
público são instrumentos de que o Estado se utiliza para transferir uma
atribuição sua para o setor privado, por meio de contrato administrativo.
O Estado poderia eventualmente prestar o serviço, mas prefere fazê-lo
5
Art . 5 9 .
A Agên ci a pod erá utili za r, medi ant e cont rato , té cni cos ou emp resa s
e sp eci al i zada s , inclu s iv e consult o res independ ent es e au dito res e xt e rnos, p ara
e xe cut ar ati vid ades d e s ua co mp etê nci a, ved ad a a cont rata ção p a ra as ati vid ad es d e
fi sc ali zação, sa lvo p ara a s co rre spond ente s ati vid ades d e apoio .
6
Sup re mo
Tribunal
Fe d eral ,
Qu est ão
de
Ord e m
na
Aç ão
Di ret a
de
In consti tu cion alidad e n º 711 / AM, re lato r M inist ro Né ri d a Silv ei ra , a có rd ão
publ i cado no DJ d e 11 .06 .1993 , p ági n a 11 .529.
por meio de particular, que é remunerado necessariamente pelos usuários
do serviço.
A doutrina informa que o legislador não foi feliz na
indicação precisa na delimitação do que se deve entender por concessão,
permissão ou por autorização. 7
Concessão de serviço de telecomunicação, nos termos do
artigo 83, parágrafo único, da Lei nº 9.472/97, é “a delegação de sua
prestação, mediante contrato, por prazo determinado, no regime público,
sujeitando-se a concessionária aos riscos empresariais, remunerando-se
pela cobrança de tarifas dos usuários ou por outras receitas alternativas e
respondendo diretamente pelas obrigações e prejuízos que causar.”
Permissão
em
sentido
amplo
significa
um
ato
administrativo unilateral, discricionário e precário, gratuito ou oneroso
pelo qual a Administração Pública faculta ao particular a execução de um
serviço público ou a utilização privativa de um bem público por
terceiros. 8
O artigo 118, parágrafo único, da Lei nº 9.472/97
conceitua permissão de serviço de telecomunicações como sendo “ato
administrativo pelo qual se atribui a alguém o dever de prestar serviço de
telecomunicações no regime público e em caráter transitório, até que seja
formalizada a situação excepcional que a tenha ensejado”.
É sempre bom lembrar que o Supremo Tribunal Federal,
na ADI 1.668/DF – medida cautelar, determinou a observância do
procedimento
licitatório
previsto
na
Lei
8.666/93
e
alterações
subseqüentes, bem assim das Leis nº 8.987/95 e 9.074/95. Não se admite
7
DI PIE TR O, M ari a Sylvi a Zan ella . Par c eria s n a Ad minis t raç ão Púb li ca: conc es s ão ,
p e rmi ss ão , f ranqui a, t ercei riz aç ão e out ras fo rmas, 4ª edi ção , Sã o Pa ulo : Atlas,
2002 , pági na 71 .
8
DI PIET R O, M a ri a Sylvi a Z an ella . Op . ci t . p ágin a 128 .
na permissão a adoção de procedimento simplificado ou criado pela
ANATEL que viole as Leis acima apontadas.
Por
fim,
tem-se
a
autorização
de
serviço
de
telecomunicações, existente somente em serviços prestados em regime
privado (artigos 126 a 144, da Lei nº 9.472/97) e que, nos termos do
artigo 131, parágrafo único, é um “ato administrativo vinculado que
faculta a exploração no regime privado, de modalidade de serviço de
telecomunicações,
quando
preenchidas
as
condições
objetivas
e
subjetivas necessárias”.
3. Classificação dos serviços: público versus privado.
Pela Lei nº 9.472/97, o STFC é modalidade de serviço de
interesse coletivo, prestado tanto no regime público quanto no regime
privado 9
Será prestado sob o regime público se existir necessidade
de a União assegurar a continuidade e universalização dos serviços
prestados.
De outro lado, os serviços prestados em regime privado, a
teor do que determina o artigo 14 da resolução 73/98, não estão sujeitos
a obrigações de universalização e continuidade, nem muito menos a
prestação assegurada pela União.
4. Disposições aplicáveis aos serviços em regime público e em regime
privado.
9
Art . 1º PGO: “Art . 1º. O servi ço tel efôn i co fixo co mutado destin ado ao u so do
públ i co e m g eral será pre st ado nos re gi me s públi co e p riva do , nos t e rmo s dos a rts.
18 , in ciso I, 64 e 65 , in ciso III, d a Lei n .º 9 .472 , d e 16 de ju lho d e 1997 , e do
di spo sto n est e Pl ano Ger al d e Ou to rg as . ”
A LGT – Lei nº 9.472/97 – disciplina os serviços
prestados em regime público nos artigos 79 a 125. Os serviços prestados
em regime privado, por seu turno, são regulados nos artigo 126 a 144.
Não se pode perder de vista que, nos termos do decidido
na ADI 1.668/DF, as disposições relativas à Lei de Licitações e à de
Concessões e Permissões também são referência no assunto.
Dentre as Resoluções que cuidam do assunto, merece
destaque a Resolução 73/98, que cuida do tema nos artigo 12 a 20.
TEMA 2. STFC. Regras Gerais de prestação.
Ementa.
pertinentes.
Definição de STFC nos instrumentos normativos
PGO.
PGMU.
PGMQ.
Cláusulas dos contratos
de concessão.
Condicionamentos nos termos de autorização
das espelhos.
Renovação versus prorrogação dos contratos
administrativos.
1 – Definição de STFC nos instrumento normativos pertinentes
O Decreto nº 2534/98, que instituiu o Plano Geral de
Outorgas, conceitua Serviço Telefônico Fixo Comutado – STFC – como
“o serviço de telecomunicações que, por meio da transmissão de voz e de
outros sinais, destina-se à comunicação entre pontos fixos determinados,
utilizando processos de telefonia”. 10
10
Art . 1º , §1º , Pl an o Gera l d e Outo rg as – PGO– Dec ret o n .º 2 .534 , de 02 d e ab ri l de
1998 .
O PGO, no artigo 1º, § 2º, classifica o STFC nas
modalidades de serviço local, serviço de longa distância nacional e
serviço de longa distância internacional. 11
Com o intuito de estabelecer metas de qualidade a serem
cumpridas pelas prestadoras de STFC destinado ao público em geral e
atenta aos avanços tecnológicos e ao crescimento das necessidades dos
serviços por parte da sociedade, a ANATEL instituiu, por meio da
Resolução nº 20/98, o Plano Geral de Metas da Qualidade (PGMQ) para
o Serviço Telefônico Fixo Comutado.
O descumprimento das metas implicará a aplicação de
sanções após regular procedimento administrativo, nos termos das
Resoluções 270/2001 e 344/2003.
É sempre bom lembrar que todos os
contratos de concessão são apontados pressupostos para a qualidade do
serviço.
2. Cláusulas contratuais essenciais ou necessárias
Os
contratos
de
concessão
celebrados
com
a
Administração Pública contêm cláusulas consideradas essenciais ou
necessárias.
Há
algumas
cláusulas
essenciais
aos
contratos
de
concessão de serviço público em geral que estão mencionadas no artigo
23 da Lei nº 8.987/95.
prestado,
aos
direitos
Essas cláusulas se referem ao tipo de serviço
e
obrigações
do
poder
concedente,
do
concessionário e do usuário; à prestação de contas; à fiscalização; e ao
término da concessão.
11
Art . 1º , § 2º PGO: “§ 2o . São mod alidad es do se rvi ço t elefôni co fix o co mutado
d esti n ado ao u so do públ i co em ger al o se rvi ço lo cal , o s er viço de l ong a dist ânc ia
n acion al e o se rviço d e long a d ist ânc ia int ern a ci on al , no s se guinte s t e rm o s:
I - O se rv i ço l o cal de sti n a-se à co muni ca çã o ent re pont os fi xo s det ermin ado s
si tu ado s e m u ma me sma Áre a Local;
II - O se rv i ço de l onga dist ânci a n acion al d estin a-se à co muni c aç ão e nt re pont o s
fixo s d ete rmin ados situ ados e m Áre as Loc ai s disti nt a s no t e rri tó rio n ac ion al; e
I I I - O s e r vi ço d e lo nga di st ân cia in t erna ciona l d esti n a-se à c o mun ica ç ão ent re u m
pont o fixo si tu ado no t erri tó rio nacion al e u m out ro ponto no ext erio r.”
A Lei nº 9.472/97 relaciona no artigo 93 as cláusulas
essenciais dos contratos de concessão dos serviços de telecomunicações.
3. Condicionamentos
A cláusula 3.2 do contrato de concessão do STFC,
destinado ao uso do público em geral, diz que, na prorrogação, podem
ser estabelecidas não só novas metas de universalização e qualidade
como "novos condicionamentos", que são em verdade a possibilidade de
modificar o rol de direitos e deveres das empresas.
Entretanto, não é possível modificar a estrutura dos
próprios contratos de concessão, na medida em que a finalidade da Lei nº
9.472/97 é manter a estabilidade do setor.
A rápida evolução tecnológica certamente vai exigir
ajustes periódicos.
4. Prorrogação dos contratos
De início será adotado como contrato sob análise o de
Concessão
do
STFC
modalidade
local,
publicizado
por
meio
da
Resolução ANATEL nº 26/98.
Este contrato tem por objeto a “concessão do Serviço
Telefônico Fixo Comutado, destinado ao uso do público em geral,
prestado em regime público, na modalidade de serviço local, na área
geográfica definida na cláusula 2.1, nos termos do Plano Geral de
Outorgas”.
Os artigos 99 e 207, §1º da Lei nº 9.472/97 determinam
que os contratos firmados com as então prestadoras do STFC, terão
termo final fixado para o dia 31 de dezembro de 2005, assegurado o
direito à prorrogação única por vinte anos, a título oneroso, desde que
observadas as regras pertinentes aos serviços prestados em regime
público, constantes da própria LGT.
A Resolução 341/2003 convocou as concessionárias de
telefonia fixa para, até o dia 30 de junho, manifestarem o interesse na
prorrogação dos contratos que lhes foram outorgados.
Nessa
mesma
resolução
foram
aprovados
os
novos
modelos de contratos estabelecidos nas modalidades de serviço Local,
Longa Distância Nacional (LDN) e Longa Distância Internacional (LDI)
e o novo Plano Geral de Metas de Qualidade para o Serviço Telefônico
Fixo Comutado (PGMQ), com vigência a partir de janeiro de 2006.
As concessionárias do STFC se interessaram em prorrogar
os contratos de concessão, acrescidos dos novos Planos de Qualidade
previstos na Resolução 341/2003.
Também foi editado o Decreto
Presidencial n.º 4.733, de 10 de junho de 2003, que dispõe sobre
políticas públicas de telecomunicações e fixa pontos importantes para os
novos contratos de concessão.
A principal alteração nos novos contratos diz respeito
ao índice de correção das tarifas, que deixa de ser o IGP-DI, que tem
forte vinculação com a variação do dólar, e passa a ser um índice
setorial, que leve em conta variações específicas suportadas pelas
prestadoras.
As
demais
alterações
serão
comentários sobre as cláusulas essenciais.
tratadas
ao
longo
dos
“SERVIÇO TELEFÔNICO FIXO E SERVIÇO DE COMUNICAÇÃO
MULTIMÍDIA”
CARLOS JACQUES VIEIRA GOMES
Assessor de Ministro do STJ e Professor Substituto de Direito Econômico (UnB) e
de Direito Comercial (UCB e IESB).
Mestre em Direito e Estado pela UnB.
Especialista em Regulação em Telecomunicações pela UnB.
Ex-Assessor do CADE.
MÓDULO:
REGULAMENTAÇÃO
TELECOMUNICAÇÕES
DAS
REDES
DE
1. DEFINIÇÃO DE REDE E DE SERVIÇO DE TELECOMUNICAÇÕES
A definição de rede e de serviço de telecomunicação depende da apreensão inicial
do que vem a ser telecomunicação.
Chama-se comunicação a interação direta estabelecida entre dois interlocutores
(pessoas). A comunicação pressupõe a absorção da informação pela mente do receptor e
compreende três etapas: emissão, transmissão e recepção.
Telecomunicação, por sua vez, não se opera entre interlocutores, mas entre meios
técnicos. Também compreende emissão, transmissão e recepção, estabelecidas, entretanto,
entre elementos técnicos.
Nesses termos, a telecomunicação pode ser conceituada como a mediatização da
informação que proporciona a comunicação direta, operada por meio de elementos técnicos
que possibilitem troca instantânea de informações, com reciprocidade ou não. A
telecomunicação compreende, assim considerada, a troca direta e instantânea de sinais que
representem informação, operada por meios técnicos, capazes de propiciar, de outra forma,
a comunicação natural estabelecida entre interlocutores próximos.
A LGT, em seu art. 60, § 1º, assim define telecomunicação: “Telecomunicação é a
transmissão, emissão ou recepção, por fio, radioeletricidade, meios ópticos ou qualquer
outro processo eletromagnético, de símbolos, caracteres, sinais, escritos, imagens, sons ou
informações de qualquer natureza”.
Do conceito exposto, algumas considerações merecem ser tomadas.
1
Primeiro, o transporte de informação, na telecomunicação, não recebe interferência
humana. É realizado por meio técnico, isto é, eletromagnético, de qualquer natureza (fio,
radioeletricidade, meios ópticos ou quaisquer outros). Interessante notar, nesse aspecto, que
o meio técnico utilizado não caracteriza ou delimita o conceito de telecomunicação. Em
outra palavras, telecomunicação não se refere a um determinado ambiente técnico (rede).
Segundo, o transporte de informação, na telecomunicação, é instantâneo: o
armazenamento intermediário de informações não descaracteriza a instantaneidade, porque
esta se referencia aos meios técnicos (a transferência é instantânea entre os meios técnicos)
e não aos interlocutores.
Terceiro, o transporte de informação é elemento caracterizador da telecomunicação.
Deve-se concluir, portanto, que o mero armazenamento de informação não constitui
telecomunicação. Este ponto, entretanto, não é consensual entre os doutrinadores,
assumindo parte da Doutrina que o armazenamento integra o processo e, portanto, o
conceito de telecomunicação.
Quarto, a reciprocidade não é elemento essencial à definição de telecomunicação, a
despeito de o desenvolvimento tecnológico moderno possibilitar, cada vez mais, a
reciprocidade entre os interlocutores.
Quinto, a informação transmitida por meio de telecomunicação compreende todo o
tipo de sinais existentes (escritos, imagens, sons, dados, etc...). Note-se, neste aspecto, que
o tipo de informação transmitida não é capaz de caracterizar ou delimitar o conceito de
telecomunicação. Em outras palavras, telecomunicação não se refere a um determinado
tipo de serviço prestado.
Rede de telecomunicação, por sua vez, conceitua-se como os meios organizados de
telecomunicação. Compreende o sistema ou conjunto de meios técnicos, de natureza
corpórea ou incorpórea, através dos quais é efetuado o transporte de mensagens ou
informações entre pontos determinados.
O Regulamento Geral de Interconexão (Resolução nº 40/98 – ANATEL), em seu
art. 3º, inc. VII, define como rede de telecomunicações o “conjunto operacional contínuo
de circuitos e equipamentos, incluindo funções de transmissão, comutação, mutiplexação
ou quaisquer outras indispensáveis à operação de serviço de telecomunicações”.
Do conceito enunciado, algumas observações merecem atenção.
2
Primeiro, o conjunto de equipamentos deve ser operacional, isto é, deve possibilitar
o transporte de informações.
Segundo, os elementos técnicos devem ser considerados em atenção às funções que
são capazes de exercer, e não em suas características intrínsecas.
Terceiro, as funções exercidas pelas redes são tidas como indispensáveis à operação
do serviço de telecomunicações.
Quarto, rede de telecomunicação pressupõe múltiplos usuários (ao menos três).
Quinto, as redes são compostas de elementos corpóreos (cabos e fios de cobre,
cabos e fios ópticos, cabos coaxiais, condutores e circuitos, edifícios, receptores,
radioeletricidade, dispositivos de comutação, equipamentos, etc...) e incorpóreos
(programas de computador, protocolos necessários à transmissão de informações, servidões
de passagem, direito ao uso de radiofreqüência, etc...).
Sexto, quanto às funções, as redes possuem atividade fim, que é a transmissão de
informações, e atividade meio (comutação, multiplexação), capazes de proporcionar
conexões.
Sétimo, sobre uma mesma base técnica (infra-estrutura), pode-se identificar diversas
redes de telecomunicações, cada uma configurando sistemas distintos, capazes de assegurar
transmissões distintas entre si.
O fenômeno da digitalização, caracterizado pela discreção do sinal analógico
através da codificação dos sinas em seqüência de bits, contribuiu para a fungibilização
qualitativa da informação, isto é, para unir em um único tipo técnico as diversas qualidades
(tipos; por exemplo: voz, dados e imagens) de informação transportada.
Esse avanço tecnológico, por sua vez, contribui para a progressiva desvinculação
entre a qualidade da informação transportada (o serviço prestado) e o meio técnico
empregado (a rede utilizada). Conclui-se, aqui, que a digitalização capacita a uma mesma
infra-estrutura abarcar diversos serviços de telecomunicações. A esse fenômeno dá-se o
nome de convergência de redes.
A convergência de redes assiste a três estágios de evolução. No primeiro estágio,
cada rede é capaz de prestar apenas um determinado serviço de telecomunicação. No
segundo estágio, uma mesma rede pode propiciar, em níveis distintos de qualidade,
diversos serviços de telecomunicação (por exemplo: televisão digital, acesso à internet,
3
videoconferência, telefonia fixa, telefonia celular, transmissão de dados, etc...). No terceiro
estágio, as redes convergem para uma plataforma única, a qual ainda não foi alcançada em
nosso momento histórico por limitações de ordem técnica e econômica.
As redes de telecomunicação subdividem-se em redes de acesso e redes de
transporte.
As redes de acesso alcançam o usuário de serviço de telecomunicações. Podem
utilizar cabos (chamadas de wired ou fixed-link) e postes ou radiofreqüência (conhecida
como wireless).
As redes de transporte são aquelas que conectam redes de acesso. Possuem um
tráfego maior, o que proporciona elevada economia de escala e escopo, com conseqüente
redução de seu custo operacional.
As redes de telecomunicação possuem como limite físico o chamado ponto de
terminação de rede, o qual integra a rede de telecomunicação e é caracterizado pelo
conjunto de conexões físicas e radioelétricas, bem como especificações técnicas de acesso,
a que se conectam os terminais de telecomunicação.
O Regulamento do Serviço Telefônico Fixo Comutado (Resolução nº 85/ANATEL)
define como ponto de terminação de rede (art. 3º, inc. XII) o “ponto de conexão física da
Rede Externa com a Rede Interna do Assinante, que permite o acesso individualizado ao
STFC”.
Nos termos dos arts. 11, inc. VII, e 46, da Res. nº 85, o ponto de terminação de rede
deve estar localizado na zona lindeira do imóvel indicado pelo assinante ou no seu interior.
O Regulamento do Serviço de Comunicação Multimídia (Resolução nº
272/ANATEL), por sua vez, define como (ponto de) terminação de rede (art. 4º, inc. XII) o
“ponto de acesso individualizado de uma dada rede de telecomunicações”.
Serviço de telecomunicações pode ser definido como a oferta de acesso a uma dada
rede de telecomunicações, capaz de propiciar ao seu usuário a utilidade desejada, qual seja,
a intenção de se comunicar mediante o efetivo uso da rede de telecomunicação. Prestador
de serviço de telecomunicações é, portanto, aquele que oferta ao usuário o uso de rede de
telecomunicação.
Para a LGT (art. 60), serviço de telecomunicação é o conjunto de atividades que
possibilita a oferta de telecomunicação. O Regulamento dos Serviços de Telecomunicações
4
(Resolução nº 73/98 – ANATEL), por sua vez, conceitua serviço de telecomunicações
como “o conjunto de atividades que possibilita a oferta de transmissão, emissão ou
recepção, por fio, radioeletricidade, meios ópticos ou qualquer outro processo
eletromagnético, de símbolos, caracteres, sinais, escritos, imagens, sons ou informações de
qualquer natureza”.
Há dois critérios básicos para se definir o serviço de telecomunicação: o da
atividade realizada e o da utilidade produzida. A ANATEL (Res. nº 73/98, art. 22) elegeu o
critério da utilidade produzida: “Os serviços de telecomunicações serão definidos em vista
da finalidade para o usuário, independentemente da tecnologia empregada e poderão ser
prestados através de diversas modalidades definidas nos termos do art. 69 da Lei nº 9.472,
de 1997”.
Conclui-se, nesse contexto, que o serviço de telecomunicação não se define pelo
meio técnico empregado, mas pela utilidade produzida, o que está em consonância com a
crescente convergência de redes, produzida pelo desenvolvimento tecnológico.
Observe-se, ainda, que a LGT conferiu à ANATEL competência para definir quais
sejam, e quais não sejam, serviço de telecomunicações. Assim considerado, o art. 3º do
RST não considera serviço de telecomunicação o provimento de capacidade de satélite, a
atividade de habilitação ou cadastro de usuário e de equipamento para acesso a serviços de
telecomunicações e os serviços de valor adicionado.
O serviço de valor adicionado (LGT, art. 61) constitui a atividade que acrescenta, a
um serviço de telecomunicações que lhe dá suporte e com o qual não se confunde, novas
utilidades relacionadas ao acesso, armazenamento, apresentação, movimentação ou
recuperação de informações. No § 1º ao art. 61, afirma-se que o serviço de valor adicionado
não constitui serviço de telecomunicações. Como exemplos, cite-se as atividades de call
center, o comércio eletrônico e o provimento de conteúdo por páginas de internet (MC,
Portaria nº 148/1995).
Neste último caso (provedor de internet), parte da Doutrina e precedentes judiciais
(STJ,
Recurso
Especial
nº
323358/PR)
consideram
a
atividade
serviço
de
telecomunicações, porquanto envolve mero acesso à rede de telecomunicação.
Os serviços de radiodifusão sonora e de sons e imagens, bem como o serviço de TV
a Cabo, a despeito de configurarem serviços de telecomunicações, não se vinculam à LGT,
5
mas a regimes jurídicos próprios (arts. 211 e 215, inc. I, da LGT, Lei nº 4117/62 e Lei nº
8977/1995).
Os serviços de telecomunicações compõem-se de atributos (âmbito de prestação e
conteúdo da informação transmitida), modalidades (forma da rede de telecomunicação
empregada, meios de transmissão e tecnologia empregados) e utilidade/finalidade para o
usuário.
O serviço telefônico fixo comutado (STFC), por exemplo, adota como utilidade a
comunicação entre pontos fixos determinados, como atributos a transmissão de voz ou
outros sinais local, em longa distância nacional e em longa distância internacional e como
modalidade os processos de telefonia (RSTFC, art. 3º, inc. XX), isto é, aqueles que
(RSTFC, art. 3º, inc. XV) permitem a comunicação entre pontos fixos determinados, de voz
e de outros sinais, utilizando técnica de transmissão nos modos 3,1 kHz-voz ou 7 hHzáudio ou até 64 kbits/s irrestrito, por meio de fio, radioeletricidade, meios ópticos ou
qualquer outro processo eletromagnético.
O serviço de comunicação multimídia (SCM), por sua vez, adota como utilidade a
comunicação entre pontos fixos, como atributos a transmissão internacional, nacional,
regional ou local de informação multimídia (Res. nº 272/2001 – ANATEL, art. 4º, inc. I:
sinais de áudio, vídeo, dados, voz e outros sons, imagens, textos e outras informações de
qualquer natureza), que não se confunda com o STFC, os serviços de comunicação de
massa (radiodifusão, tv a cabo, distribuição de sinais multiponto multicanal, distribuição de
sinais de televisão e de áudio por assinatura via satélite) ou quaisquer outros sinais de vídeo
e áudio irrestrito (Súmula nº 06, de 24/01/2002), e como modalidade quaisquer meios
eletromagnéticos, inclusive radiofreqüência, desde que não sejam meios característicos de
prestação de STFC (Res. 272/2001 - ANATEL, art. 66), em especial o encaminhamento de
tráfego telefônico por meio da rede de SCM simultaneamente originado e terminado nas
redes do STFC, e desde que o sinal transportado seja recebido direta e livremente pelo
público em geral como ocorre no serviço de radiodifusão, ou distribuído de forma
simultânea para os assinantes, como se dá nos serviços de TV a cabo, MMDS e DTH
(Resolução 328/2003 – ANATEL, item 3.4.2 do termo de autorização de SCM).
O serviço móvel celular (SMC; Decreto nº 2056/96) possui como utilidade a
comunicação com mobilidade, isto é, a permissão para que o usuário tenha locomoção
6
irrestrita, como atributos a prestação terrestre em área geográfica delimitada no território
nacional de qualquer informação e como modalidade a utilização de sistema de
radiocomunicações com técnica celular, interconectado à rede pública de telecomunicações,
e acessado por meio de terminais portáteis, transportáveis ou veiculares, de uso individual.
Os serviços de telecomunicação, quanto ao regime jurídico em que são prestados,
classificam-se em público ou privado, e quanto à abrangência dos interesses que atendem,
classificam-se em interesse coletivo e interesse restrito (LGT, arts. 62 e 63).
Os serviços prestados em regime público são aqueles de interesse coletivo cuja
existência, universalização e continuidade a própria União compromete-se a assegurar
(LGT, art. 64). No regime da LGT, é de regime público o STFC (art. 64, § 1º da LGT e art.
13 do RST). Em diplomas legais específicos, sujeitam-se ao regime público os serviços de
TV a cabo e móvel celular. E cabe ao Poder Executivo instituir ou eliminar a prestação de
serviço em regime público, bem como aprovar o plano geral de outorgas dos serviços
prestados em regime público (LGT, art. 18, caput e incisos).
A universalização do serviço está ligada ao objetivo de ofertar o acesso a qualquer
cidadão e em qualquer localidade, independentemente de tal prestação possuir viabilidade
econômica ou não (LGT, art. 79, § 1º).
A continuidade refere-se à fruição ininterrupta do serviço, sem qualquer paralisação
injustificada, em condições adequadas de uso (LGT, art. 79, § 2º). Admite-se a interrupção
circunstancial em razão de emergência, motivada por questões de ordem técnica ou de
segurança nas instalações (RST, art. 45).
A concessão é o instrumento contratual utilizado para a prestação de serviço em
regime público; sua outorga depende de licitação. Apenas em hipóteses excepcionais
admite-se o uso da permissão (LGT, art. 118).
A prestação do serviço em regime público, entretanto, não exclui a possibilidade de
sua prestação em regime privado, com o intuito de assegurar a concorrência (LGT, art. 65,
inc. III).
A remuneração devida às concessionárias está sujeita à política tarifária impositiva
do órgão regulador (RST, art. 47), o qual apenas poderá autorizar a prática de preços livres
se a estrutura concorrencial do mercado considerado a recomendar (LGT, art. 104 e RST,
art. 48).
7
A prestação do serviço em regime público deve ser adequada, assim entendida
aquela que preencha os requisitos de regularidade, eficiência, segurança, atualidade,
generalidade, cortesia e modicidade das tarifas (RST, art. 46 e parágrafos).
A extinção da concessão acarreta a reversibilidade dos bens utilizados para a
prestação do serviço à União (LGT, art. 102).
Os serviços prestados em regime privado não estão sujeitos a obrigações de
universalização e continuidade, nem prestação assegurada pela União (RST, art. 14). A sua
prestação vincula-se aos princípios constitucionais da atividade econômica (LGT, art. 126)
e a intervenção do órgão regulador será mínima (LGT, art. 128 e RST, art. 54), com vistas a
garantir a livre competição, o equilíbrio concorrencial e as necessidades dos usuários.
O instrumento contratual utilizado para a prestação em regime privado é a
autorização. Possui direito à autorização aquele que preencher as condições objetivas
(LGT, art. 132) e subjetivas (LGT, art. 133) exigíveis.
A prática de preços é livre (LGT, art. 129), salvo nos casos em que a
impossibilidade técnica ou o comprometimento da prestação do serviço de interesse
coletivo impossibilite a inexistência de limite ao número de autorizatários. Em tais
hipóteses, haverá política tarifária, como definida em processo licitatório.
Por fim, os bens utilizados pelos prestadores em regime privado são de propriedade
destes e não estão sujeitos à reversão (salvo o espectro de radiofreqüência, que constitui
bem público: LGT, art. 157).
O serviço de interesse coletivo é aquele (RST, art. 17) cuja prestação deve ser
proporcionada pela prestadora a qualquer interessado na sua fruição, em condições não
discriminatórias e suficientes ao atendimento dos interesses da coletividade.
O serviço de interesse coletivo pode ser prestado em regime público ou privado. A
rede de telecomunicação que confere suporte a serviço de interesse coletivo, no regime
público ou privado, está sujeita à interconexão (RST, art. 59, RGI, art. 12 e LGT, arts. 145
e 146). É livre a interconexão de redes que prestam suportes a serviços prestados no regime
privado (LGT, art. 148).
O serviço de interesse restrito (RST, art. 18) é aquele destinado ao uso do próprio
executante ou prestado a determinados grupos de usuários, selecionados pela prestadora
mediante critérios por ela estabelecidos, em especial condicionamentos necessários a
8
impedir que a prestação do serviço de interesse restrito venha a prejudicar a prestação do
serviço de interesse coletivo (LGT, art. 145, parágrafo único e RST, art. 18, parágrafo
único).
O serviço de interesse restrito deve ser prestado apenas no regime privado (RST,
art. 19) e a autorização para a sua prestação independe de licitação, salvo se demandar o
uso de radiofreqüência (RST, art. 65). A remuneração da prestadora se dará por livre
imposição de preço (RST, art. 68).
A rede de telecomunicação que conferir suporte à prestação de serviço de interesse
restrito não poderá ser objeto de interconexão com outra rede que confira suporte a serviço
de interesse restrito ou coletivo (RST, art. 71, incs. I e II). A prestadora de serviço de
interesse restrito não poderá contratar diretamente com prestadora de serviço de interesse
coletivo, devendo a interligação, nessa hipótese, ocorrer em caráter de acesso ao usuário
(RST, art. 71, inc. III).
2. INTERCONEXÃO. RGI.
Interconexão é a ligação entre redes de telecomunicações funcionalmente
compatíveis, de modo que os usuários de serviços de uma das redes possam comunicar-se
com usuários de serviços de outra ou acessar serviços nela disponíveis (LGT, art. 145,
parágrafo único e RST, art. 58, parágrafo único).
O provimento de interconexão deve ser realizado em termos não discriminatórios,
sob condições técnicas adequadas, garantindo preços isonômicos e justos, atendendo ao
estritamente necessário à prestação do serviço (LGT, art. 152).
Ponto de interconexão, por sua vez, é o elemento de rede empregado como ponto de
entrada ou saída para o tráfego a ser cursado na interconexão com outra rede, constituindo o
ponto de referência para definição dos deveres e obrigações de cada uma das partes
envolvidas no contrato de interconexão (Regulamento Geral de Interconexão (Resolução nº
40/98-ANATEL, art. 3º, inc. IX). A interconexão deve ser feita em pontos tecnicamente
viáveis da rede da prestadora que recebe o pedido de interconexão (RGI, art. 13).
Não se considera interconexão a ligação entre rede de telecomunicações de suporte
a serviço de telecomunicação de interesse coletivo e equipamento terminal ou rede de
9
telecomunicação pertencente a usuário ou provedor de serviço de valor adicionado (RGI,
art. 5º).
A rede de telecomunicação que confere suporte a serviço de interesse coletivo, no
regime público ou privado, está sujeita à interconexão (RST, art. 59, RGI, art. 12 e LGT,
arts. 145 e 146). É livre a interconexão de redes que prestam suportes a serviços prestados
no regime privado (LGT, art. 148).
O contrato de interconexão é de livre negociação entre as partes, e sua eficácia está
sujeita à homologação pela ANATEL (RGI, art. 41 e LGT, art. 153 e parágrafos). Não
havendo acordo, a ANATEL, se provocada, arbitrará as condições para a interconexão.
Se necessário à implementação da interconexão, a prestadora objeto do pedido
deverá compartilhar os seus meios, aqui compreendidos os equipamentos, infra-estrutura,
facilidades, etc... (RGI, art. 33).
A infra-estrutura de prestadora cuja rede estiver sujeita a pedido de interconexão
deverá dispor de área suficiente, próxima ao ponto de interconexão, para a instalação de
equipamentos de terceiros, a serem utilizados para a interconexão (RGI, art. 34).
A rede de telecomunicação que conferir suporte à prestação de serviço de interesse
restrito não poderá ser objeto de interconexão com outra rede que confira suporte a serviço
de interesse restrito ou coletivo (RST, art. 71, incs. I e II). A prestadora de serviço de
interesse restrito não poderá contratar diretamente com prestadora de serviço de interesse
coletivo, devendo a interligação, nessa hipótese, ocorrer em caráter de acesso ao usuário
(RST, art. 71, inc. III).
Não se considera interconexão o uso da infra-estrutura de rede alheia com o intuito
de construir a sua própria rede de telecomunicação. A esse direito, que corresponde ao
conceito de desagregação de elementos de rede (unbundling), relaciona-se a idéia de que,
nas redes de acesso local, não basta a interconexão, mas deve ser assegurado ao concorrente
viabilidade técnica para que este construa a sua própria rede.
3. DESAGREGAÇÃO, USO INDUSTRIAL E COMPARTILHAMENTO
DE MEIOS
Chama-se desagregação de elementos de rede (unbundling) o uso da infraestrutura de rede alheia com o intuito de construir a sua própria rede de telecomunicação.
10
Nas redes de acesso local, não basta a interconexão: deve ser assegurado ao concorrente
viabilidade técnica para que este construa a sua própria rede, a partir dos elementos da rede
local existente (LGT, art. 155).
Ao prestador de STFC é assegurado o direito à desagregação de elementos de rede
(LGT, art. 155 e RGI, art. 39): “As prestadoras de serviço de interesse coletivo devem
tornar disponível, em condições justas e não discriminatórias, facilidades, tais como cabos,
fibras, dutos, postes, torres dentre outras, para uso, quando solicitado, pelas prestadoras
do Serviço Telefônico Fixo Comutado com a finalidade específica destas construírem suas
redes”.
Na desagregação de elementos de rede, a prestadora titular da rede a ser
desagregada deverá ofertar os elementos de rede individualmente, no interesse do outro
prestador, não podendo exigir a oferta casada de diversos elementos de rede.
O uso industrial, ou exploração industrial de meios, corresponde ao acordo
estabelecido, em bases justas e não discriminatórias, entre prestadoras de serviços de
interesse coletivo (LGT, art. 154, RST, arts. 60, inc. I e 61, e RGI, art. 40), com o intuito de
compartilhar meios em benefício da prestação do serviço de telecomunicações aos seus
usuários.
O uso industrial deve ser incentivado sempre que houver viabilidade técnica (LGT,
arts. 2º, inc. III, 3º, inc. II, e 5º), porquanto reduz o custo de implantação e manutenção de
rede. Mesmo o espectro de radiofreqüência é passível de compartilhamento, por meio da
tecnologia MVNO. A LGT, entretanto, não condiciona o espectro de radiofreqüência ao
compartilhamento.
Se necessário à implementação da interconexão, a prestadora objeto do pedido
deverá compartilhar os seus meios, aqui compreendidos os equipamentos, infra-estrutura,
facilidades, etc... (RGI, art. 33).
A infra-estrutura de prestadora cuja rede estiver sujeita a pedido de interconexão
deverá dispor de área suficiente, próxima ao ponto de interconexão, para a instalação de
equipamentos de terceiros, a serem utilizados para a interconexão (RGI, art. 34).
4. DISPOSIÇÕES APLICÁVEIS ÀS REDES
SERVIÇOS DE INTERESSE COLETIVO
DE
SUPORTE
DE
11
A rede de telecomunicação que confere suporte a serviço de interesse coletivo, no
regime público ou privado, está sujeita à interconexão (RST, art. 60, RGI, art. 12 e LGT,
arts. 145 e 146).
Se necessário à implementação da interconexão, a prestadora objeto do pedido
deverá compartilhar os seus meios, aqui compreendidos os equipamentos, infra-estrutura,
facilidades, etc... (RGI, art. 33).
A infra-estrutura de prestadora cuja rede estiver sujeita a pedido de interconexão
deverá dispor de área suficiente, próxima ao ponto de interconexão, para a instalação de
equipamentos de terceiros, a serem utilizados para a interconexão (RGI, art. 34).
No que se refere ao uso do espectro de radiofreqüência, as prestadoras de serviço no
interesse coletivo deterão prioridade sobre aquelas que o prestam no interesse restrito (RST,
arts. 42, § 1º e 74).
Se o serviço de interesse coletivo for prestado sob o regime privado, os bens
utilizados são de propriedade dos prestadores e não estão sujeitos à reversão (salvo o
espectro de radiofreqüência, que constitui bem público: LGT, art. 157).
5. DISPOSIÇÕES APLICÁVEIS ÀS REDES
SERVIÇOS DE INTERESSE RESTRITO
DE
SUPORTE
DE
A rede de telecomunicação que conferir suporte à prestação de serviço de interesse
restrito não poderá ser objeto de interconexão com outra rede que confira suporte a serviço
de interesse restrito ou coletivo (RST, art. 71, incs. I e II).
A prestadora de serviço de interesse restrito não poderá contratar diretamente com
prestadora de serviço de interesse coletivo, devendo a interligação, nessa hipótese, ocorrer
em caráter de acesso ao usuário (RST, art. 71, inc. III).
A prestadora de serviço de interesse restrito poderá, entretanto, celebrar acordo de
exploração industrial de meios (uso industrial) com prestadora de serviço de interesse
coletivo, com o intuito de facilitar a construção de acesso à rede que preste serviço de
interesse coletivo (RST, art. 72).
12
A prestadora de serviço de interesse restrito poderá, também, pactuar o uso de infraestrutura alheia, pertencentes e entes públicos ou não, necessária à prestação do serviço
(RST, art. 73).
No serviço de interesse restrito, os bens utilizados são de propriedade dos
prestadores e não estão sujeitos à reversão (salvo o espectro de radiofreqüência, que
constitui bem público: LGT, art. 157).
13
MÓDULO: REGRAS GERAIS DE PRESTAÇÃO DO SERVIÇO DE
COMUNICAÇÃO MULTIMÍDIA
1. REGRAS GERAIS DE PRESTAÇÃO DE SCM. RESOLUÇÃO Nº 272.
O serviço de comunicação multimídia (SCM) adota como utilidade a comunicação
entre pontos fixos, como atributos a transmissão internacional, nacional, regional ou local
de informação multimídia (Res. nº 272/2001 – ANATEL, art. 4º, inc. I: sinais de áudio,
vídeo, dados, voz e outros sons, imagens, textos e outras informações de qualquer
natureza), que não se confunda com o STFC, os serviços de comunicação de massa
(radiodifusão, tv a cabo, distribuição de sinais multiponto multicanal, distribuição de sinais
de televisão e de áudio por assinatura via satélite) ou quaisquer outros sinais de vídeo e
áudio irrestrito (Súmula nº 06, de 24/01/2002), e como modalidade quaisquer meios
eletromagnéticos, inclusive radiofreqüência, desde que não sejam meios característicos de
prestação de STFC (Res. 272/2001 - ANATEL, art. 66), em especial o encaminhamento de
tráfego telefônico por meio da rede de SCM simultaneamente originado e terminado nas
redes do STFC, e desde que o sinal transportado seja recebido direta e livremente pelo
público em geral como ocorre no serviço de radiodifusão, ou distribuído de forma
simultânea para os assinantes, como se dá nos serviços de TV a cabo, MMDS e DTH
(Resolução 328/2003 – ANATEL, item 3.4.2 do termo de autorização de SCM).
As prestadoras de SCM podem requerer a prestação de quaisquer outros serviços
de telecomunicações, exceto radiodifusão, o que atesta a existência de espaço regulatório
para a convergência de redes, as quais poderão ser utilizadas para a prestação de múltiplos
serviços.
O serviço de comunicação multimídia é de interesse coletivo e prestado sob o
regime privado, em âmbito nacional e internacional, a assinantes dentro de uma área de
prestação de serviço, mediante a oferta de capacidade de transmissão, emissão e recepção
de informações multimídia (RSCM, art. 3º).
Por ser serviço de interesse coletivo, a interconexão, quando solicitada, é
obrigatória (RSCM, art. 6º). Admite-se a exploração industrial de meios e o
compartilhamento de meios (RSCM, arts. 8º, 9º, 48, inc. I e 49).
14
A prestação de SCM sujeita-se a autorização, sem limite de autorizatários (RSCM,
art. 10, caput e parágrafo único).
Não se admite a oferta de produtos acessórios com requisito ao acesso à rede de
prestadora de SCM (venda casada; RSCM, art. 50).
Por informação multimídia não se deve entender o fornecimento de sinal de áudio
ou vídeo irrestrito, salvo o fornecimento de sinais de vídeo e áudio, de forma eventual,
mediante contrato ou pagamento por evento (RSCM, art. 67).
2. SCM x STFC
O serviço de comunicação multimídia se assemelha ao STFC pela utilidade que
presta: comunicação entre pontos fixos, mas dele se distingue porquanto a exigência
regulatória (Res. 272/2001 - ANATEL, art. 66) afasta a prestação de SCM por modalidade
que configure meios característicos de prestação de STFC, em especial o encaminhamento
de tráfego telefônico por meio da rede de SCM simultaneamente originado e terminado nas
redes do STFC.
3. SCM x COMUNICAÇÃO ELETRÔNICA DE MASSA
O serviço de comunicação multimídia se distingue dos serviços de comunicação
eletrônica de massa porque o atributo de informação multimídia (Res. nº 272/2001 –
ANATEL, art. 4º, inc. I: sinais de áudio, vídeo, dados, voz e outros sons, imagens, textos e
outras informações de qualquer natureza) não se confunde com radiodifusão, tv a cabo,
distribuição de sinais multiponto multicanal, distribuição de sinais de televisão e de áudio
por assinatura via satélite ou qualquer outro sinal de vídeo e áudio irrestrito (Súmula nº
06/ANATEL, de 24/01/2002).
Por informação multimídia não se deve entender o fornecimento de sinal de áudio
ou vídeo irrestrito, salvo o fornecimento de sinais de vídeo e áudio, de forma eventual,
mediante contrato ou pagamento por evento (RSCM, art. 67).
A modalidade de prestação de SCM não comporta, ademais, sinal transportado e
recebido direta e livremente pelo público em geral como ocorre no serviço de radiodifusão,
ou ainda distribuído de forma simultânea para os assinantes, como se dá nos serviços de TV
15
a cabo, MMDS e DTH (Resolução 328/2003 – ANATEL, item 3.4.2 do termo de
autorização de SCM).
4. SCM x SVA
O serviço de comunicação multimídia é serviço de telecomunicação de informação
multimídia, prestado em qualquer modalidade que não se confunda com STFC ou serviços
de comunicação de massa, enquanto que o serviço de valor adicionado não é serviço de
telecomunicação (LGT, art. 61, § 1º), mas atividade que acrescenta, a um serviço de
telecomunicações que lhe dá suporte e com o qual não se confunde, novas utilidades
relacionadas ao acesso, armazenamento, apresentação, movimentação ou recuperação de
informações.
O prestador de SVA, entretanto, possui direito ao acesso das redes de suporte do
SCM (RSCM, art. 7º).
5. SCM E TRANSIÇÃO SLE e SRTT.
O serviço de comunicação multimídia, por expressa disposição regulatória (art. 2º
da Resolução nº 272/ANATEL), abarca o serviço limitado especializado, nas
submodalidades serviço de rede especializado e serviço de circuito especializado, bem
como o serviço de rede de transporte de telecomunicações, compreendendo o serviço por
linha dedicada, o serviço de rede comutada por pacote e o serviço de rede comutada por
circuito.
As autorizações concedidas para esses serviços podem ser adaptadas ao regime
regulatório do SCM, desde que atendidas as condições subjetivas e objetivas requeridas
(RSCM, art. 68).
16
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Texto Elaborado por Prof. Paulo A. De Britto
Para o Curso STFC/SCM
I. COMPETIÇÃO
1. A FIRMA COMPETITIVA NO CURTO PRAZO
Uma firma é dita ser competitiva se existe um preço de mercado ao qual
consumidores irão comprar qualquer quantidade que a firma decidir ofertar para venda.
Uma firma competitiva se defronta, então, com uma curva de demanda horizontal.
Este situação é mais provável de ocorrer quando a firma é muito pequena em
relação a sua indústria. Não interessa o quanto a firma produz, isto não afeta
significativamente o produto total da indústria. Portanto, não existe efeito significante
sobre o preço ao qual o produto é vendido.
Um bom exemplo que podemos utilizar é o de uma fazenda de trigo, que provê
um percentual muito pequeno da produção mundial total de trigo. Independentemente
do fato desta fazenda produzir 10 ou 1.000 bushels, ela permanece sendo muito
pequenoapara ter qualquer impacto sobre o preço de mercado quotado mundialmente.
A curva de demanda por seu trigo é horizontal porque o mercado irá absorver qualquer
quantidade produzida por nosso fazendeiro seja qual for o preço. Se ele tenta vender
seu trigo por um centavo – ou por uma fração de centavo – a mais do que o preço de
mercado, ele não irá vender um único trigo sequer, pois todos os consumidores podem
simplesmente comprar de outro produtor. Se ele oferece seu trigo por um centavo
menos, o público irá demandar mais trigo do que sua fazenda pode produzir – uma
quantidade infinita.
É claro que a curva de demanda por trigo é negativamente inclinada: é somente
a demanda pelo trigo de nossa fazenda que é horizontal. Para ver como isto pode ser,
observe as duas curvas de demanda descritas na figura 1. Note, em particular, as
unidades apresentadas no eixo das quantidades. Quando nossa fazendinha aumenta seu
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
produto de 1 bushel para 10 bushels – lembre que ela vende tudo o que produz - ela
está movendo uma longa distância para a direita no seu eixo das quantidades. Ao
mesmo tempo, ela move a indústria de trigo para a direita em uma distância
praticamente infinitesimal, digamos de 70.000.000 para 70.000.009 bushels. Este
mudança pequenina no produto da indústria requer essencialmente não efeito sobre o
preço.
Figura 1:
(A)
(B)
A curva de demanda horizontal com a qual nossa fazendinha se defronta resulta
do fato de sua existência ser uma parte muito pequena de uma indústria muito grande,
cujos produtos de cada produtores são intercambiáveis e os consumidores podem muito
facilmente comprar de outro produtor se a nossa fazendinha tenta aumentar seu preço.
Todas estas condições tendem a produzir uma situação de concorrência perfeita. Note,
todavia, que o único requerimento para uma firma ser chamada de perfeitamente
competitiva é que sua curva de demanda seja horizontal, qualquer que seja o motivo.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Receita
Um firma perfeitamente competitiva possui curvas de receita total e receita
marginal simples. Se o preço de mercado é $5 por bushel, a receita total da fazendinha,
bem como sua receita marginal são as representadas na figura 2.
Quando a fazendinha vende Q bushels de trigo, sua receita total é $5 x Q. O
gráfico desta função de receita total é uma linha reta que passa na origem, como no
painel A da figura 2.
Figura 2
(A)
(B)
A receita marginal da fazendinha é a mesma para toda a quantidade; ela é
sempre equivalente ao preço de mercado de $5 por bushel. Sempre que ela vende um
bushel adicional, ela coleta $5 adicionais. Em geral, para toda firma competitiva nós
temos a equação:
Receita Marginal = Preço
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
A curva de receita marginal da fazendinha é uma linha horizontal ao nível de $5
por bushel. Em outras palavras, ela se parece exatamente igual à curva de demanda
pelo trigo da fazendinha, que é também igual ao preço de mercado. As curvas de
demanda e de receita marginal são representadas no painel B da figura 2.
A curva de receita marginal de uma firma competitiva é uma linha horizontal ao
nível do preço de mercado.
Custos de Curto-Prazo e Oferta
As curvas de custo de uma firma são diferente no curto e no longo prazo. Isto se
deve ao fato de que no curto prazo alguns fatores de produção serem fixos, enquanto
que no longo prazo todos os fatores são variáveis. Conseqüentemente, a decisão de
oferta da firma será diferente em cada prazo. Suponha que você possui uma pizzaria,
empregando trabalho e fornos. Se o preço da pizza sobe, você pode aumentar sua
quantidade produzida no curto prazo contratando mais trabalhadores. No longo prazo,
você também pode construir fornos adicionais. No longo prazo você poderá produzir
ainda mais pizzas.
Portanto, nós devemos fazer distinção entre as duas curvas de oferta. Para
qualquer preço dado, a curva de oferta de curto prazo mostra como a firma pode
responder àquele preço no curto prazo; a curva de oferta de longo prazo mostra como a
firma pode responder àquele preço no longo prazo. Nesta seção nós vamos nos
concentrar no comportamento da firma no curto prazo, retornando ao longo prazo na
seção 3. Para tanto devemos começar considerando as curvas de custo de curto prazo.
A decisão de oferta quando o custo marginal é crescente
Suponha que os custos marginais de nossa fazendinha de trigo são aqueles
representados na figura 3. O lucro será maximizado quando o custo marginal for
igualado a receita marginal: nossa fazendinha deseja produzir 4 bushels e vende todos
ao preço de mercado de $5 por bushel.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Qualquer firma, competitiva ou não, escolhe sua quantidade de acordo com a
regre:
Custo Marginal = Receita Marginal
Figura 3
Para uma firma competitiva a receita marginal é igual ao preço de mercado.
Assim, podemos afirma que:
A firma competitiva escolhe sua quantidade de acordo com a regra:
custo marginal = preço
Esta regra para escolha de quantidades deve ser intuitiva. A firma se defronta
com o preço de mercado ao qual ela pode vender seus bens. Ela produz bens enquanto
ela pode fazê-lo a custos marginais menores que o preço de mercado. Quando o custo
marginal excede o preço, qualquer unidade adicional produzida iria subtrair algo do
lucro da firma. A hora de se parar de produzir é exatamente aquela anterior, quando o
custo marginal de produzir um produto é exatamente igual ao preço ao qual este
produto pode ser vendido.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Suponha que o preço de mercado do trigo seja $6 por bushel. Observando-se a
curva de custo marginal na figura 3, podemos ver que a fazendinha poderia prover 5
bushels de trigo, a quantidade na qual o custo marginal iguala $6 por bushel. Se o
preço de mercado aumentasse para $7, a fazendinha poderia prover 6 bushels. Estes
fatos estão ilustrados na figura 4. A fogura 3 contém os dados referentes a curva de
custo marginal da fazendinha e mostra as quantidades que a fazendinha poderia
produzir a cada preço. Como observado, e ilustrado pelo gráfico, ao preço de $5 ela
poderia ofertar 4 bushels, ao preço de $6 ela poderia ofertar 5 bushels e ao preço de $7
ela poderia ofertar 6 bushels. Estas observações estão registradas nas três últimas linhas
da tabela B. As outras linhas são deduzidas da mesma forma.
Figura 4:
Para cada preço, a tabela B nos diz qual quantidade a fazendinha irá ofertar.
Nós temos um nome para esta tabela: plano de oferta. A representação gráfica desta é a
chamada curva de oferta. De fato, nós já vimos a curva de oferta. Ela é idêntica a curva
de custo marginal, ilustrada na figura 4.
Em que pese as curvas de custo marginal e de oferta serem idênticas, existe
uma diferença conceitual importante entre elas. Para usar a curva de custo marginal,
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
você “entra” uma quantidade (no eixo horizontal) e lê o custo marginal correspondente
em unidade monetária por item (no eixo vertical). Para usar a curva de oferta, você
“entra” um preço (no eixo vertical) e lê a quantidade correspondente (no eixo
horizontal). Todavia, em que pese as diferenças conceituais, o fato de que as curvas são
idênticas na aparência irá provar algo importante.
A irrelevância dos custos fixos
No curto prazo, os custos fixos são inevitáveis. Como resultado, eles não
influenciam qualquer decisão econômica.
A figura 5 mostra as condições da fazendinha sob duas diferentes suposições
sobre os custos fixos. No primeiro exemplo, assumimos um custo fixo de $2 no
segundo, um custo fixo de $20. Em cada caso, ela produzirá no ponto onde custo
marginal iguala o preço de $5: ela produzirá 4 bushels de trigo.
No exemplo 1, a fazendinha realiza lucro máximo de $4; no segundo, o lucro
máximo é de -$14. Mesmo -$14 sendo um número negativo (a fazendinha está
realizando prejuízo), ela ainda assim está maximizando seu lucro no sentido de que
para qualquer outro nível de produto suas perdas seriam maiores.
Uma questão natural agora é: não seria melhor a fazendinha parar sua produção
no segundo exemplo? Se nós estivéssemos examinando o comportamento de longo
prazo, a resposta seria sim, mas no curto prazo a resposta é não. No curto prazo, a
fazendinha está amarrada a gastar $20 sob a forma de custo fixo, que existe mesmo que
ela não opere. Por exemplo, o custo fixo de produção pode ser o arrendamento da terra.
Até que o contrato de arrendamento seja findo, o arrendatário terá que pagar o valor de
arrendamento. Se o arrendatário de nossa fazendinha decide parar de produzir trigo, seu
lucro será de -$20, ao invés de -$14.
Assim, o custo fixo é irrelevante para a decisão de oferta de curto prazo da
firma.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Figura 5:
QUANTIDADE
RECEITA
TOTAL
RECEITA
MARGINAL
CUSTO
TOTAL
CUSTO
MARGINAL
LUCRO
1 bushel
$5
$5 por
bushel
$4
$2 por
bushel
$1
2
10
5
7
3
3
3
15
5
11
4
4
4
20
5
16
5
4
5
25
5
22
6
3
6
30
5
29
7
1
(Exemplo 1: Custo Fixo =
$2)
QUANTIDADE
RECEITA
TOTAL
RECEITA
MARGINAL
CUSTO
TOTAL
CUSTO
MARGINAL
LUCRO
1 bushel
$5
$5 por
bushel
$22
$2 por
bushel
-$17
2
10
5
25
3
-15
3
15
5
29
4
-14
4
20
5
34
5
-14
5
25
5
40
6
-15
6
30
5
47
7
--17
(Exemplo 2: Custo Fixo = $20).
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
A decisão de oferta com uma curva de custo marginal em forma de U
A fazendinha possui uma curva de custo marginal em forma de U, como aquela
representada na figura 6, onde o preço de mercado é $5. Nós sabemos que tal firma, se
ela produz algo, ela produz uma quantidade na qual o custo marginal e o preço de
mercado são iguais. Nós podemos ver no gráfico que existem duas quantidades nas
quais isto ocorre: Q1 e Q2. Qual será a escolhida pela firma?
Suponha que ela produz Q1 unidades. Neste caso será possível produzir uma
unidade adicional do produto a um custo marginal menor do que o preço de mercado.
Isto ocorre porque a curva de custo marginal é decrescente na vizinhança de Q1. A isto
segue que a firma pode aumentar seu lucro produzindo uma unidade a mais. Ela
continua produzindo enquanto o preço excede o custo marginal até que esteja
produzindo Q2.
Figura 6:
Uma firma competitiva, se ela produz algo, irá sempre escolher a quantidade
onde preço iguala custo marginal quando o custo marginal é crescente. Assim,
podemos afirmar que somente a porção crescente da curva de custo marginal é
relevante para a decisão de produção da firma.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
A decisão de fechar
Nós sabemos a quanto uma firma produzirá se ela decide produzir. Nós
podemos ainda perguntar como uma firma decide entre manter-se em operação e
encerrar suas atividades.
Para que isto faça sentido, o proprietário da firma deve comparar o lucro obtido
quando em operação com o lucro obtido quando encerra fecha suas portas. Se a firma
fecha, ela deve manter os pagamentos de seus custos fixos, enquanto sua receita cai a
zero. Portanto, seu lucro é negativo: -CF, onde CF significa custo fixo. Se a firma
permanece operando, produzindo uma quantidade Q, seu lucro é RT - CT, onde RT é a
receita total e CT é o custo total. Se RT – CT > 0, ela certamente permanece operando.
Mesmo se RT – CT < 0, pode ser o caso onde a firma permaneça operando. A firma
desejará permanecer aberta se, e somente se,
RT – CT > - CF
Substituindo a identidade CT = CF + CV, esta condição fica:
RT – CF – CV > - CF, ou RT > CV.
A última desigualdade deve fazer sentido intuitivo: dado que os custo fixos
devem ser pagos em ambos os casos, eles são irrelevantes para a decisão de
fechamento. Os custos variáveis são os custos adicionais que a firma irá incorrer se ela
continua operando, eles podem ser evitados e, portanto, são relevantes para a decisão
de fechamento. Permanecer em operação somente é uma boa idéia se a receita total que
a firma pode ganhar for maior que estes custos adicionais.
Lembrando que RT = P. Q (P é preço e Q é quantidade), nós temos:
P. Q > CV => P > CV / Q
Em outras palavras, a firma permanece operando se, após escolher a quantidade
ótima a produzir, ela descobrir que o preço é maior que o custo variável médio de
produção.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Curva de oferta de curto prazo
Na figura 7 vemos três possíveis preços de mercado com os quais uma firma
competitiva pode se defrontar. Ao preço de P1, a firma produz Q1. A esta quantidade,
P1 é maior que ambos o custo médio e o custo variável médio. A firma irá permanecer
em operação, produzindo Q1 e obtendo lucro positivo.
Figura 7:
Ao preço de P3, o produto ótimo da firma é Q3. Todavia, o custo variável médio
excede P3. Permanecer operando iria produzir uma redução líquida nos lucros de forma
que a firma fecha.
Ao preço de P2, o produto ótimo da firma é Q2. Aqui, o custo variável médio é
menor do que P2 de forma que a firma permanece aberta. Todavia, o custo médio de
produção (incluindo custo fixo) é maior que P2, de forma que o lucro da firma é
negativo. Mesmo assim, a firma perde menos ao continuar operando do que se fechasse
sua porta.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
O preço P no qual a curva de custo marginal cruza o custo variável médio é
chamado de preço de fechamento da firma. Isto está representado na figura 8. Podemos
concluir que:
A curva de oferta de curto prazo da firma competitiva é idêntica a parte da
curva de custo marginal localizada acima de sua curva de custo variável médio.
Figura 8:
A inclinação positiva de curva de oferta
Quando a curva de custo marginal da firma competitiva possui forma de U, sua
curva de oferta consiste da parte da curva de custo marginal que reside acima do custo
variável médio. Como a curva de custo corta a curva de custo variável médio vindo
debaixo, toda a curva de oferta possui inclinação positiva.
Assim, a curva de oferta é crescente porque as curvas de custo marginal e de
curto médio possuem forma de U. Isto está correto, mas dá origem seguinte pergunta:
Por que as curvas de custo possuem forma de U? A resposta passa pela presença de
retornos marginais decrescentes dos fatores variáveis de produção
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Retornos Marginais Decrescentes: é a circunstância na qual cada unidade de
insumo variável permite a produção de um produto marginal menor do que o último
anterior.
Elasticidade da Oferta
A elasticidade da oferta de firma é definida como a variação percentual na
quantidade ofertada que resulta de um aumento em 1% no preço. A fórmula é a
seguinte:
Elasticidade = Variação Percentual na Quantidade
Variação Percentual no Preço
= 100 . ΔQ/Q
100. ΔP/P
= P. ΔQ
Q. ΔP
A elasticidade de oferta é positiva porque um aumento no preço gera um
aumento na quantidade ofertada. Dadas duas curvas de oferta passando no mesmo
ponto, a menos inclinada possui elasticidade maior.
2. A INDÚSTRIA COMPETITIVA NO CURTO PRAZO
Uma indústria competitiva é aquela na qual todas as firmas são competitivas e
na qual firmas podem entrar ou sair livremente. Todavia, em que pese as firmas
poderem entrar e sair livremente, elas não podem fazer isso imediatamente. Nós, então,
distinguimos entre longo prazo – um período de tempo no qual entrada e saída são
possíveis – e curto prazo – um período de tempo no qual o número de firmas operando
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
não se altera. O tamanho de cada prazo depende das características tecnológicas da
indústria. Todavia, a caracterização é genérica o bastante.
É importante não confundir a saída com o fechamento da uma firma. Uma firma
que produz quantidade zero tem suas portas fechadas, ou suas atividades encerradas.
Todavia ela permanece pagando seus custos fixos. A firma somente sai da indústria
quando ela deixa da pagar os custos fixos. Fechamento é um fenômeno de curto prazo;
saída, de longo prazo.
A Curva de Oferta de Curto Prazo de uma Indústria Competitiva
No curto prazo, saídas e entradas não são possíveis, de forma que o número de
firmas na indústria é fixo. Dadas as curvas de oferta das firmas individuais, nós
construímos a curva da oferta da indústria somando as das firmas individuais. A um
dado preço, nós nos perguntamos a quantidade que cada firma irá prover; então nós
somamos estes números para obter a quantidade ofertada da indústria a um preço em
particular.
Porque as firmas possuem preços de fechamento que são diferentes, o número
de firmas em operação tende a ser menor quando o preço é mais baixo. Como
resultado, a curva de oferta de indústria tende a ser mais elástica que a curva de oferta
das firmas individuais. Isto pode ser verificado na figura 9. Nesta figura temos as
curvas de oferta de três firmas: A, B e C. Ao preço de P1, somente a firma A produz e,
portanto, a quantidade ofertada pela indústria é a mesma ofertada por A. Ao preço mais
elevado de P2, a firma B também produz e, portanto, a oferta de indústria consiste da
soma das quantidades produzidas por A e B. A um preço suficientemente grande a
firma C também produz e, conseqüentemente a oferta da indústria é ainda maior.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Figura 9:
O efeito preço do fator
Em certos momentos é conveniente modificar a interpretação da curva de oferta
da indústria, como foi vista acima, para levar em consideração o efeito preço do fator.
Isto ocorre quando a indústria em questão representa uma fração substancial da
demanda pelo fator variável de produção. Por exemplo, a indústria de aço representa
uma fração substancial da demanda por ferro. Neste caso, um aumento no preço do aço
causa um amento na produção, o que gera aumentos na demanda pelo insumo variável
ferro. Porque esta consiste em uma fração significativa da demanda total pelo insumo
variável, o preço do insumo se eleva. Este aumento no preço do fator eleva a curva de
custo marginal de todas as firmas na indústria, causando uma redução na produção.
Na presença deste efeito, um aumento no preço irá gerar aumento na oferta da
indústria, mas em proporções menores do que aquela que nós poderíamos esperar.
Similarmente, uma queda no preço irá gerar redução na oferta, mas em proporções
menores. A figura 10 ilustra esta situação. O efeito preço do fator tende a tornar a curva
de oferta da indústria mais inclinada, ou menos elástica.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Oferta, Demanda e Equilíbrio de Curto Prazo
Agora que já derivamos a curva de oferta da indústria, somente precisamos
adicionar a curva de demanda para determinar o preço e a quantidade de equilíbrio.
Nós fazemos isso para nossa indústria de trigo na figura 10, onde a curva de oferta é
designada por O e acurva de demanda por D. A única combinação preço e quantidade
de equilíbrio é a um preço de $3 e a quantidade de 50 milhões de bushels, na qual a
oferta e a demanda se interceptam (ponto E). A preços mais baixos, tal como em $2,25,
a quantidade demandada (72 milhões de bushels – ponto A) será maior do que a
quantidade ofertada (45 milhões de bushels – ponto C). Assim, o preço será puxado
para cima através de um mecanismo semelhante ao de um leilão, até que atinja o nível
de $3 por bushel. O oposto acontecerá quando o preço for mais elevado, como por
exemplo, $3,75, que está acima daquele de equilíbrio.
Figura 10:
Note que para uma indústria competitiva, diferentemente da firma competitiva,
a curva de demanda possui inclinação negativa. Isto ocorre porque cada firma é tão
pequena que isoladamente não afeta o preço, como visto anteriormente. Mas se toda
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
firma na indústria expandisse sua produção, uma substancial diferença se faria sentir.
Consumidores podem ser induzidos a comprar as quantidades adicionais no mercado
somente se o preço pelo bem se reduzisse.
O ponto E é o ponto de equilíbrio para a indústria competitiva porque ao preço
de $3 os vendedores estão desejando oferecer exatamente a mesma quantidade que os
consumidores estão desejando comprar – 50 milhões de bushels.
Devemos esperar que o preço tenda, em realidade, ao seu nível de equilíbrio?
Sim! Observe o que ocorre quando o preço é menor. A um preço de, por exemplo,
$2,25 os consumidores estão dispostos a comprar mais; ele também irá fazer as firmas
produzirem menos (lembre que muitas fecharão suas portas). Cada consumidor irá,
então, fazer tudo que pode para obter o bem que deseja. A competição entre
compradores fará o preço se elevar. Note que à medida que o preço se eleva,
consumidores deixam o mercado, ao passo que firmas entram. O preço sobe, então, até
que atinja seu nível de equilíbrio. O raciocínio inverso ilustra o mecanismo de ajuste
quando o preço está acima do seu nível de equilíbrio.
Na prática, em muitos mercados competitivos, os preços se movem em direção
ao equilíbrio durante um longo período de tempo. Todavia, várias influências
transitórias podem deslocar um mercado real de seu ponto de equilíbrio – uma greve de
trabalhadores que reduza produção, uma mudança brusca nos gostos dos consumidores,
etc.
Todavia, como visto, forças importantes empurram os preços em direção ao seu
nível de equilíbrio onde oferta iguala demanda. Estas forças são de fundamental
importância para a análise econômica. Se tais forças não existissem, os preços não
lembrariam aqueles de equilíbrio e, então, não haveria sentido em se estudar a análise
de oferta e demanda. Felizmente, as forças requeridas existem e induzem os mercados
a seu nível de equilíbrio.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
3. EQUILÍBRIO DA INDÚSTRIA E DA FIRMA NO LONGO PRAZO
O equilíbrio de uma indústria competitiva no longo prazo pode diferir daquele
de curto prazo que acabamos de ver. Isto pode duas razões: (i) o número de firmas na
indústria não é fixo no longo prazo e, (ii) no longo prazo as firmas podem variar o
tamanho de suas plantas variando aspectos que são, diferentemente, fixos no curto
prazo. Conseqüentemente, as curvas de custo de longo prazo das firmas (e da indústria)
não são as mesmas que as de curto prazo.
O que irá induzir a entrada de novas firmas na indústria ou encorajar a saída de
velhas indústrias? Em uma única palavra: lucro. Lembre que quando uma firma
escolha a quantidade de produto que irá produzir ela o faz de forma que P = CMg. Isto
pode produzir lucro ou prejuízo, como visto anteriormente. Tais lucros ou prejuízos
são, todavia, temporários para uma firma competitiva, pois novas firmas estão livres
para entrar na indústria se os lucros são atrativos. Pela mesma razão, firmas ativas irão
sair da indústria se elas não puderem cobrir seus custos no longo prazo. Suponha que
as firmas na indústria estejam fazendo lucros muito elevados, acima da taxa de retorno
normal da economia. Então, novas firmas acharão atrativo entrar neste ramo o que
causará expansão na produção que forçará o preço de mercado de volta ao seu nível
inicial.
Em competição perfeita novas firmas podem entrar sob as mesmas condições
que as firmas já ativas. Assim, as novas entrantes possuirão a mesma curva de
demanda individuas que as ativas. Se o preço de mercado não cai, novas firmas entram;
o conseqüente aumento no número de firmas, produzindo as mesmas quantidades,
implica em aumento na quantidade total e na criação de excesso de demanda que, é
claro, empurrará os preços para baixo.
A entrada de novas firmas na indústria, atraídas pela perspectiva de um lucro
positivo, aumenta o produto total, gera excesso de demanda e empurra os preços para
baixo.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
A figura 11 mostra como o processo de entrada funciona. Neste diagrama, a
curva de demanda D a curva de oferta (de curto prazo) original S0 são as mesmas da
figura 10. A entrada de novas firmas em busca de lucros maiores desloca a curva de
oferta de curto prazo da indústria para a direita, em S1. O novo equilíbrio de mercado
ocorre no ponto A (ao invés de E), indicando um produto total de 72 milhões de
bushels vendidos a um preço de $2,25 por bushel.
A entrada de novas firmas aumenta produto e reduz preço.
Figura 11:
Se o preço não caísse, a quantidade ofertada após a entrada seria de 80 milhões
de bushels – ponto F. O preço cai porque a curva de demanda da indústria é
negativamente inclinada: consumidores irão comprar mais somente a preços reduzidos.
Para ver o ponto onde a entrada de novas firmas cessa, devemos considerar
como as novas firmas afetam o comportamento de firmas existentes. Considere a figura
12, onde estão justapostos o diagrama de uma firma competitiva em equilíbrio com o
diagrama de equilíbrio em uma indústria competitiva. Antes de haver qualquer entrada,
o preço de mercado era $3 (ponto E da figura 12(B)) e cada uma das firmas ativas na
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
indústria (assume 1.000) produzia 50.000 bushels – o ponto onde custo marginal e
preço são iguais (ponto e da figura 12(A)). Cada firma se defronta com uma curva de
demanda horizontal D0 na figura 12(A). As firmas dentro da indústria obtinham lucro,
pois o custo médio de produção dos 50.000 bushels por firma era menor do que o
preço.
Figura 12:
(A)
(B)
Suponha, agora, que 600 novas firmas são atraídas por estes lucros elevados e
entram na indústria. Cada firma se defronta com a estrutura de custos indicada pelas
curvas de CMe e CMg na figura. Como resultado da produção dos entrantes, a curva de
oferta da indústria se desloca para a direita, como indicado, e o preço cai para $2,25
por bushel. Dado que a curva de demanda de firma é igual ao preço, a curva de
demanda da firma é deslocada para baixo, D1. As firmas na indústria reagem a este
deslocamento da demanda e, conseqüente, preço baixo. Como podemos ver na figura
12(A), cada firma reduz seu produto para 45.000 bushels (ponto a). Mas agora temos
1.600 firmas de forma que o produto total é 45.000 x 1.600 = 72 milhões de bushels,
ponto A na figura 12(B).
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
No ponto alucros positivos ainda estão presentes, pois o preço de $2,25 excede
o custo médio (dado pelo ponto b). Assim o processe de entrada não está completo.
Toda a dinâmica se repete até que todos os lucros sejam extinguidos. Nos painéis da
figura 13 estão representada uma firma competitiva e sua indústria no equilíbrio de
longo prazo. Todos os lucros serão extinguidos quando a entrada de novas firmas
deslocar a curva de oferta de indústria para S2 (na figura 13(B)), onde cada firma
individual se defronta com uma demanda que passa pelo ponto de mínimo da curva de
custo médio (ponto m na figura 12(A)).
Figura 13:
(A)
(B)
Note que no ponto m da figura 12(A), cada firma escolhe seu produto de forma
a maximizar seu lucro. Isto ocorre quando P = CMg. Mas a livre entrada também força
o CMe = P no longo prazo (ponto M em 12(B)) pois, se P não fosse igual ao CMe, as
firmas estariam fazendo lucro ou prejuízo.
Quando uma indústria em competição perfeita está no longo prazo, firmas
maximizam lucro de forma que P = CMg e a entrada força os preços para baixo até que
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
a curva de preço seja tangente à curva de custo médio de longo prazo (P = CMe).
Como resultado, no equilíbrio de longo prazo será sempre verdade que P = CMg =
CMe.
4. CONCORRÊNCIA PERFEITA E EFICIÊNCIA ECONÔMICA
Vimos anteriormente que quando a firma está no equilíbrio de longo prazo ela
deve ter P = CMg = CMe, com indicado acima. Isto implica que o equilíbrio
competitivo de longo prazo da firma irá ocorrer no ponto de custo médio mais baixo.
Assim, os produtos da indústria competitiva são produzidos ao ponto de custo mais
baixo para a sociedade.
Um exemplo irá mostrar porque é mais eficiente se cada firma na indústria
competitiva produz no ponto onde CMe é o menor possível. Suponha que a indústria
está produzindo 12 milhões de bushels de trigo. Este quantia pode ser produzida por
120 fazendas, cada uma produzindo 100.000 bushels, ou por 100 fazendas produzindo
120.000 bushels cada ou, ainda, por 200 fazendas produzindo 60.000 bushels cada. É
claro que o mesmo pode ser feito por várias outras combinações, mas por simplicidade
vamos considerar somente estas três possibilidades.
Suponha que os custos médios para cada caso são os apresentados na tabela 2.
Suponha, ainda, que um produto de 100.000 bushels corresponda ao ponto mais baixo
da curva de custo médio, onde o CMe = 0,70 por bushel. Qual das três alternativas é a
mais barata para se produzir estes 12 milhões de bushels de trigo? Observando a coluna
5 da tabela 2 vemos que o custo total de produção da 12 milhões de bushels de produto
é o mais baixo possível 120 firmas produzem ao nível de produto de 100.000, o qual
minimiza custo.
Isto ocorre porque para qualquer nível de produto da indústria, Q, o custo total
da indústria (CMe x Q) será o menor possível se, e somente se, o CMe de cada firma
for o menor possível, ou seja, se o número de firmas realizando a tarefa é tal que cada
uma está produzindo no nível para o qual o CMe é o menor possível.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Tabela 2: Custo Médio da Firma e o Custo Total para a Indústria
Produto da
CMe
Firma
Número de
Produto da
Custo Total
firmas
Indústria
da Indústria
(1)
(2)
(3)
(4)
(5)
60.000
$0,90
200
12.000.000
$10.800.000
100.000
0,70
120
12.000.000
8.400.00
120.000
0,80
100
12.000.000
9.600.00
Podemos ver nas figuras 12 e 13 que este tipo de eficiência de custo caracteriza
competição perfeita de longo prazo. Antes que o equilíbrio de longo prazo seja atingido
(figura 12) firmas podem não estar produzindo ao menor custo. Por exemplo, as 50
milhões de bushels sendo produzidas por 1.000 firmas nos pontos e e E das figuras
12(A) e 12(B) podem ser produzidas a um custo menor por mais firmas, cada um
produzindo um volume menor, pois o ponto de custo médio mínimo se localiza à
esquerda do ponto e em 12(A). Contudo, este problema é corrigido no longo prazo com
a entrada de firmas procurando lucros. Na figura 13 nós vimos que após o processo de
entrada é completo, todas as firmas estão produzindo em seu nível de produto mais
eficiente (mínimo CMe).
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
II. MONOPÓLIO
1. DEFINIÇÃO
Os requerimentos para a definição de um monopólio puro são muito estritos.
Primeiro, somente uma firma existe na indústria. Segundo, não existem produtos
substitutos próximos para aquele ofertado pelo monopolista. Assim, por exemplo,
mesmo que uma cidade possua apenas um ofertante de gás natural, este não é
necessariamente um monopolista – as pessoas podem usar eletricidade, lenha ou
querosene para aquecer suas casa ou cozinhar, por exemplo. Terceiro, deve haver
alguma razão que justifique a não existência (ou entrada) de potenciais competidores.
Caso um destes requerimentos não seja satisfeito o monopólio não se sustentaria.
Estes requerimentos rígidos fazem do monopólio uma raridade no mundo real.
O posto dos correios, ou a companhia telefonia, de uma pequena localidade podem ser
exemplos de indústrias com uma única firma que não se defronta com competição
efetiva. Todavia, a maioria das firmas se defronta com algum grau de competição
representada por produtos substitutos. Se apenas uma ferrovia serve a sua cidade ela
deve competir com linhas de ônibus, companhias de transporte rodoviário de carga e
serviços de transporte aéreo. Similarmente, o produtor de uma marca particular de
cerveja pode ser a única companhia a ofertar este produto, mas existem várias cervejas
substitutas de modo que a cervejaria não constitui um monopolista. Pelo fato de muitas
cervejas serem substitutos próximos, cada cervejaria irá perder oportunidades de
negócios para as outras ao tentar elevar seu preço muito acima dos preços das outras
marcas. Mesmo os correios e as companhias telefônicas enfrentam competição em
áreas mais populosas.
Existe outra razão porque um monopólio puro irrestrito como estudado pela
teoria econômica é raro na prática. Nós veremos com mais detalhe adiante que o
monopólio puro pode gerar um número de fatos indesejáveis. Assim, mesmo em
mercados onde o monopólio puro pode prevalecer, o governo tem intervido de forma a
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
prevenir a monopolização ou limitar o poder discricionário do monopolista em fixar
preço.
2. ORIGENS DO MONOPÓLIO: BARREIRAS A ENTREDA E VANTAGENS DE CUSTOS
Um requerimento chave para a preservação de um monopólio é a exclusão de
rivais em potencial do mercado. Uma forma de se obter isso é através algum
impedimento específico à entrada de novas firmas na indústria. Economistas chamam
tais impedimentos de barreiras à entrada. Alguns exemplos são:
•
Restrições Legais: a EBCT possui uma posição de monopólio
porque o Congresso lhe deu esta posição. Companhias privadas que
poderiam competir com a EBTC são proibidas de fazê-lo. Monopólios
locais de vários tipos são estabelecidos, muitas vezes, porque o governo
concede algum tipo de privilégio (exemplo: concessão para comercialização
de alimentos em um estádio municipal) ou previne outras firmas de entrar
na indústria (exemplo: conceder licença para apenas uma companhia de TV
a cabo).
•
Patentes: Algumas firmas se beneficiam de uma classe especial
de impedimentos legais chamada de patentes. Para encorajar investimentos,
o governo dá direitos exclusivos de produção por um período de tempo aos
inventores de certos produtos. Enquanto a patente estiver em vigorando, a
firma estará em uma posição protegida e deterá o monopólio. Exemplo: a
Xerox deteve, por muitos anos, o monopólio em cópias em papel padrão.
Muitas companhias farmacêuticas também detêm monopólios na produção
da drogas que desenvolvem. (Laboratório Eli Lilly deteve, até 2003, a
patente sobre o Prozac – o mais consumido antidepressivo no mundo.).
•
Controle de Recursos Escassos ou Insumos: se uma certa
mercadoria pode ser produzida apenas utilizando-se um insumo raro, a
companhia que detém o controle sobre a origem daquele insumo pode ser
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
um monopolista. Exemplos são raros: extração sindicalizada de diamantes
na África do Sul.
•
Barreiras geradas de forma deliberada: uma firma pode tentar,
deliberadamente, criar dificuldades à entrada de novas firmas. Uma forma é
mover ações judiciais muito caras contra rivais. Outra forma é a de se gastar
quantias exorbitantes em publicidade e propaganda, forçando todo entrante
em potencial a fazer o mesmo.
•
Grandes custos enterrados: a entrada em uma indústria irá ser
tanto mais arriscada quanto maiores forem os investimentos iniciais
necessários. Em especial, se este investimento inicial é enterrado
(significando que ele não poderá ser recuperado mesmo por um período
considerável de tempo). Assim, a necessidade de grandes investimentos
enterrados desencoraja a entrada na indústria. Muitos analistas consideram
este ser o mais importante tipo barreira imposta naturalmente. Por exemplo:
a indústria de construção de aeronaves requer grandes investimentos iniciais
enterrados e isto ajudou, por muito tempo, a Boeing a ser um monopolista
na construção de aviões grandes com propulsores à jato e de longo alcance
(com o jumbo 747). A Airbus somente conseguiu competir com a Boeing
após grandes investimentos serem patrocinados por um consórcio de
governos europeus.
Tais barreiras podem manter rivais fora da indústria e assegurar que uma
indústria seja monopolística. Todavia, monopólio pode também ocorrer mesmo na
ausência destas barreiras se uma única firma possui vantagens de custo sobre as rivais.
Dois exemplos disto são: superioridade técnica e economias de escala.
- Superioridade técnica: uma firma cuja expertise e domínio da tecnologia é tão
superior em comparação com suas competidoras pode manter, por um período de
tempo, um monopólio. Por exemplo, durante algum tempo a IBM deteve uma
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
vantagem tecnológica tão grande que ela virtualmente não enfrentou concorrência.
Mais recentemente, a Microsoft estabeleceu uma posição de liderança na indústria de
softwares, especialmente sistemas operacionais, através de uma combinação de
capacidade inventiva e esperteza mercadológica.
- Economias de Escala: quando o tamanho da firma é suficiente para garantir
vantagens em termos de custo sobre uma rival menor, é possível que a firma grande
domine a indústria.
3. MONOPÓLIO NATURAL
As vantagens de custo geradas por economias de escala são muito importantes e
merecem atenção especial. Em algumas indústrias, as economias de escala na
produção, juntamente com as economias de escopo (geradas pela produção simultânea
de um grande número de itens relacionados como, por exemplo, motores de
automóveis) são tão significativas que o produto da indústria pode ser produzido a um
custo bem menor por uma única firma do que por várias firmas menores. Em tais casos,
nós dizemos que existe um monopólio natural. Quando uma firma cresce muito mais
do que suas rivais, suas vantagens naturais de custos acabam por eliminar os
competidores.
Note, ainda, que o que importa é o tamanho relativo da firma em relação à
demanda de mercado. Assim, por exemplo, um banco pequeno em uma pequena cidade
rural, ou um posto de gasolina nesta mesma cidade podem ser monopólios naturais.
Neste caso, contudo, existe vantagem em ser o primeiro.
A figura 1 mostra este tipo de vantagem de custo. Nesta figura são
representados custos médios decrescentes – significando que quanto mais a firma
produz, menores são seus custos médios - que podem conduzir a uma situação de
monopólio natural. Suponha que uma firma produza jogos para videogames: esta firma
possui uma curva de custo médio semelhante aquela da figura 1. Suponha que existam
duas firmas na indústria: uma grande que produz 2 milhões de jogos a um custo médio
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
de R$2,50; e uma menor que produza 1 milhão de jogos a um custo médio de R$3,00.
Claramente, a firma maior pode expulsar e firma menor se ele oferece seus produtos no
mercado por um preço R$2,99 (a firma menor poderia vender pelo mesmo preço
somente
realizando
prejuízos).
Conseqüentemente,
um
monopólio
nascerá
naturalmente, mesmo na ausência de barreiras à entrada.
Uma vez estabelecido o monopólio, as economias de escala atuam como uma
força importante para a manutenção do próprio monopólio. No exemplo da firma que
produz jogos de videogame, ao expulsar a firma menor, a firma maior poderá produzir
2,5 milhões de jogos a um custo médio de R$2,00.
Figura 1:
Note que se o monopolista utiliza seu custo baixo para aumentar seus preços
baixos, o interesse público será bem servido. Todavia, o problema é que a firma pode
elevar seus preços após as outras terem deixado a indústria.
Muitas firmas de utilidade pública operam como monopólios regulados
exatamente por essa razão. A idéia é a de que a tecnologia de produção ou distribuição
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
torna possível para este tipo de firma produzir a custos menores ao se produzir grandes
quantidades. Assim, é preferível que este tipo de firma detenha o mercado inteiro e,
então, se obrigue esta firma a cobrar preços mais baixo através de supervisão de um
regulador. Exemplo: distribuição de água potável.
Existem duas razões básicas para a existência de um monopólio: barreiras à
entrada, tais como restrições legais e patentes, e vantagens de custo resultantes de
tecnologia superior ou economias de escala que produzem monopólios naturais. Em
geral, considera-se indesejável quebrar uma firma grande cujos custos são baixos
devido à escala de produção.
4. A DECISÃO DE OFERTA DO MONOPÓLIO
Uma firma monopolista não possui uma “curva de oferta” como definida no
caso de concorrência perfeita. Um monopolista não está à mercê do mercado; a firma
não deve aceitar o preço de mercado como dado e se ajustar a ele. Um monopolista
possui poder em fixar preço, ou em selecionar uma combinação de preço e quantidade
sobre a curva de demanda que melhor atende aos seus interesses.
Em outras palavras, um monopolista não é um tomador de preços que
simplesmente se adapta a um preço determinado pela oferta e demanda da indústria. Ao
invés disso, um monopolista é um fazedor de preço que pode, se assim ele desejar,
aumentar o preço de venda do produto. Para qualquer preço que o monopolista escolhe,
a curva de demanda por seu produto indica quantas unidades serão demandadas pelos
consumidores.
A curva de demanda que um monopolista enfrenta é, diferentemente daquela de
uma firma perfeitamente competitiva, negativamente inclinada. Isto significa que um
aumento de preço não resultará em perda de todos os consumidores, mas somente a
perda de alguns consumidores. Quanto maior o preço, menos o monopolista espera
vender.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
O mercado não pode impor um preço ao monopolista como ele impõe a uma
firma perfeitamente competitiva. Contudo, o monopolista não pode escolher ambos,
preço e quantidade, simultaneamente. De acordo com a curva de demanda, quanto
maior for o preço, menos ele venderá.
Ao decidir que preço melhor atende seus próprios interesses, o monopolista
deve considerar se seus lucros aumentam quando o preço se altera. A curva de
demanda negativamente inclinada pode causar uma situação onde um aumento
adicional no preço reduz o lucro do monopolista.
Como qualquer firma, o monopolista deseja maximizar seus lucros. Se o
monopolista estiver apto a realizar lucros positivos, ele poderá se manter nesta situação
por um longo período de tempo devido à presença de barreiras a entrada.
Maximização de lucro. Para maximizar lucros, o monopolista deve comparar sua
receita marginal com o custo marginal. A figura 2 mostra uma curva de custo marginal
(CMg) e uma curva de receita marginal (RMg) para um monopolista típico. A curva de
demanda (D) indica, também, a receita média. Ao vender uma quantidade Q de
produto, vendendo cada unidade ao preço P, a receita média por unidade de produto
vendida deve ser igual ao preço. Como a curva de demanda nos dá o preço ao qual uma
quantidade particular pode ser vendida, temos automaticamente P = RMe dado pela
quantidade. Note que a curva de receita marginal está sempre localizada abaixo da
curva de demanda, significando que a RMg é sempre menor que o preço. Isto é
importante e fácil de explicar: o monopólio cobra o mesmo preço de todos seus
consumidores. Se a firma deseja aumentar suas vendas em 1 unidade, ele deve reduzir
o preço de todas as unidades, não somente daquela unidade marginal. Quando ele corta
seu preço para atrair novas vendas, todos os consumidores antigos que já haviam
decidido por comprar o bem são beneficiados. Assim, a receita adicional que o
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
monopolista toma quando suas vendas aumentam em 1 unidade é o preço recebido por
esta unidade marginal menos à receita perdida via redução do preço pago pelos
consumidores antigos. Isto significa que RMg é necessariamente menor do que o
preço; graficamente, isto implica que a curva de RMg está abaixo da curva de
demanda, como na figura 2.
Figura 2:
Determinando o produto que maximiza lucro. Como qualquer outra firma, o
monopólio maximiza seu lucro fixando RMg igual ao CMg de produção. Ele seleciona
o ponto M na figura 2, onde o produto é de 150 unidades. Mas o ponto M não nos diz o
preço pois, como sabemos, preço é maior do que a RMg para o monopolista. Para obter
o preço devemos usar a curva de demanda para encontrar o preço para o qual os
consumidores estão dispostos a comprar cada uma das 150 unidades que o monopolista
produz. A resposta é dada pelo ponto P diretamente acima de M. O monopolista cobra,
então, preço unitário de R$9. Sem surpresa, o preço excede ambos, CMg e RMg.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
O lucro do monopolista é indicado pela área escurecida da figura 2. ele é dado
pela diferença entre preço e custo médio, vezes a quantidade produzida Q. Neste
exemplo, os lucros são de R$5 por unidade, ou R$750.
Para obter a decisão de produção de uma monopolista que maximiza lucro:
1. ache o produto para o qual RMg = CMg;
2. ache a altura da curva de demanda para este nível de produto e determine o preço
correspondente;
3. compare a altura da curva de demanda com a altura da curva de custo médio para ver
se o resultado líquido é lucro ou prejuízo.
Comparando Monopólio e Concorrência Perfeita. Para completar esta análise
vamos comparar a decisão de preço e quantidade do monopolista com aquela de uma
firma competitiva.
1) o lucro do monopolista persiste: a primeira diferença entre concorrência perfeita
e monopólio decorre diretamente da presença de barreiras a entrada na indústria
monopolista. Os lucro, como vistos na figura 2, poderiam ser extintos de
houvesse livre entrada na indústria, com a competição entre as firmas puxando
o preço para baixo. Lembre que uma firma competitiva faz lucro econômico
igual a zero no longo prazo; isto é, ela somente ganha o suficiente para cobrir
seus custos de produção, incluindo o custo de oportunidade dos fatores de
produção próprios empregados. No caso de monopólio, lucros positivos podem
persistir, gerando contestação por parte do público. Como resultado,
monopólios são regulados pelo governo, o que limita seus lucros.
2) Redução de produção para gerar aumento de preços: o preço excessivo é um
problema, mas um problema ainda mais sério é o menor nível de produto:
comparado com concorrência perfeita, o monopolista restringe sua produção e
cobra preços maiores. Lembre que no caso de competição o preço é igual ao
custo marginal e ao custo médio. No caso de monopólio, o preço é superior ao
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
custo médio significando que o monopolista poderia fazer lucro na margem. Ao
produzir uma unidade a mais o monopolista poderia cobrar um preço específico
por este item superior ao seu custo marginal e esta seria consumida por um
consumidor marginal. Mas o monopolista não o faz. Esta situação é
considerada, pelos economistas, como uma ineficiência, pois existem
consumidores desejando pagar por um bem um preço maior que seu custo de
produção, mas, mesmo assim, este bem não é produzido.
Devido a existência de barreiras a entrada, uma firma monopolista pode ganhar
lucros positivos superiores ao custo de oportunidade de produção. Ao mesmo
tempo, o monopolista gera ineficiência na alocação de recursos ao produzir uma
quantidade pequena e cobrar um preço elevado. Por estas razões, algumas das
virtudes de um livre mercado são extinguidos se uma indústria se torna um
monopólio.
A figura 3 mostra a diferença de redutos e preço entre monopólio e competição:
Figura 3:
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Benefícios do Monopólio.
1)
Monopólio favorece inovações: alguns economistas argumentam
que não podemos comparar as curvas de custo de uma firma monopolista e de
uma competitiva em um único ponto no tempo. Pela simples razão de ser
protegido de possíveis rivais e poder capturar lucros maiores, o monopolista
pode se apropriar de qualquer redução de custo que um eventual avanço
tecnológico lhe proporcione. Assim, o monopolista tem um incentivo bem forte
para investir em pesquisa e desenvolvimento que gere novas tecnologias de
produção e novos produtos.
2)
Monopólio-natural produz da forma mais barata possível: lembre
que o monopólio natural foi definido como aquele onde uma firma possui
custos médios decrescentes, isto é, possui custos de produção sempre
decrescentes (note na figura 2, onde descrevemos um monopólio não-natural,
onde os custos de produção são crescentes). Nestes casos, pode ser bom para a
sociedade permitir que o monopólio continue pois os consumidores podem ser
beneficiados pelas grandes economias de escala na produção. Neste caso,
contudo, será apropriado que o governo regulasse o monopolista especificando
limites legais para os preços.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
III. REGULAÇÃO DE MONOPÓLIOS
1. LIMITANDO O PODER DE MERCADO
Nós vimos que uma indústria monopolística pode produzir resultados não tão
desejados pelo interesse público como um mercado perfeitamente competitivo
produziria. Ainda assim, para muitas indústrias a concorrência é um objetivo
impossível. Isto é principalmente verdade na presença de grandes economias de escala
– significando que quanto maior for a oferta de uma firma, menores serão os custos de
produção. Economias de escala significam, portanto, que firmas grandes vão expulsar
firmas pequenas da indústria, acabando com a competição. Como resultado, indústrias
com economias de escala terminam, em geral, tendo um pequeno número de firmas,
cada uma com uma grande fatia de mercado. Em outras palavras, esta indústria está
condenada a ser um oligopólio ou um monopólio.
Mas o que isso tem de ruim? Em alguns casos nada, mas em outros o interesse
público será ameaçado pelo simples fato de a(s) firma(s) na indústria possuir(em)
poder de monopólio. Poder de monopólio (ou poder de mercado) é usualmente
definido como a habilidade que uma firma possui em aumentar e manter os preços de
seus produtos substancialmente acima dos níveis de competição. Em outras palavras, se
uma firma possui poder de mercado ela pode cobrar preços altos sem sofrer qualquer
ameaça de perda de consumidores para potenciais rivais. Assim, um monopólio é, em
geral, indesejável por várias razões. Algumas são óbvias:
1)
preços elevados reduzem o bem-estar dos consumidores: os
consumidores pagam preços mais elevados e, portanto, consomem menos de
todos os bens disponíveis na economia;
2)
preços elevados produzem distorção na alocação de recursos:
preços elevados tendem a reduzir a quantidade demandada; isto significa menos
trabalho, capital e outros insumos empregados no processo produtivo do bem
em questão. Assim, mais destes recursos serão transferidos para a produção de
bens em concorrência perfeita. Assim, teremos subprodução na indústria
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
monopolística e superprodução na indústria competitiva. Como resultado a
economia não irá produzir as quantidades que melhor atendem o interesse
público.
3)
Poder de monopólio cria um obstáculo à melhora na qualidade
do produto ofertado: como o monopolista não se defronta com competidores
que podem tomar parte (ou a totalidade) de seu mercado, os produtos tendem a
ser de baixa qualidade em comparação com a qualidade que poderiam ter se a
firma operasse sob a ameaça dos competidores.
Problemas relacionados à eficiência da economia com um todo são
inerentes ao poder de monopólio. Esta é, portanto, a razão mais forte para a
intervenção governamental no sentido de regular o monopolista e controlar sua
habilidade de manipular preços.
Como e por que a regulação surgiu? A regulação de uma indústria é um processo
estabelecido por lei que restringe ou controla algumas decisões feitas pela firma
regulada, sendo desenhada para proteger o público da exploração por parte de firmas
com poder de monopólio. A regulação é, geralmente, executada por uma agência
governamental especialmente criada para interpretar e administrar a lei. A agência pode
também atuar como uma corte que faz cumprir as leis reguladoras.
A regulação, como definida acima, começou nos EUA quando a população se
levantou contra o abuso que as companhias ferroviárias nacionais e levou a criação da
Interstate Commerce Commision (ICC), em 1887. Somente bem mais tarde é que
foram criadas a Federal Power Commission (FPC) e a Federal Communications
Commission (FCC) em, respectivamente 1920 e 1934. Atualmente, existem várias
agências reguladoras em vários países do mundo.
Em que pese às boas intenções, a regulação tem sido alvo de críticas tais como
a de causar ineficiências e custos excessivos ao público consumidor. Um fato básico
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
sobre a regulação e outras formas de intervenção do governo desenhadas para afetar
operações de mercados é que nem os mercados e nem os reguladores funcionam
perfeitamente. Por exemplo, poder de mercado pode surgir em um mercado não
regulado, mas regulação excessiva ou má concebida pode também produzir efeitos
nocivos.
O que é regulado? Por quem? Em geral, nos países ocidentais as agências
reguladoras são divididas em dois grupos: aquelas que limitam o poder de mercado de
firmas reguladas (ANEEL e ANATEL, por exemplo) e aquelas cuja principal função é
a de proteger consumidores e garantir segurança ao trabalhador (ANVISA e MTE).
2. ALGUNS OBJETIVOS DA REGULAÇÃO
Controle do Poder de Mercado Resultante de Economias de Escala e Escopo. Já
vimos que uma das principais razões para a regulação de indústrias é prevenir que uma
firma adquira poder de mercado. Em algumas indústrias é mais barato ter a produção
realizada por uma única firma do que por várias firmas. O poder de mercado pode ser
construído através da produção em grande escala. Por exemplo, no caso de ferrovias o
custo total de se construir e manter trilhos com tráfego de 100 vagões por dia não é
muito maior do que quando somente 1 vagão os utiliza. Assim, existe uma grande
redução de custo médio como resultado do aumento no tráfego: economias de escala
produzem uma curva de custo médio sempre decrescente no produto total (veja figura
1).
Uma única grande firma pode, ainda, apresentar vantagens de custo sobre um
grupo de pequenas firma quando se torna mais barato se produzir conjuntamente um
número de produtos diferentes. A redução de custo como resultado da produção
conjunta de diferentes bens é chamada de economias de escopo. Um exemplo de
economias de escopo é a manufatura de automóveis de passeio e utilitários por um
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
mesmo produtor. As técnicas empregadas na produção destes dois bens são similares, o
que garante a vantagem, em termos de custo, em se produzir ambos.
Na presença de economias de escala e/ou escopo, uma intervenção
governamental com objetivo de garantir a existência de muitas firmas pode ser nociva
no sentido de aumentar custos de produção.
Quando a produção sob monopólio é mais barata, a competição não será
preservada e a indústria será referida como um monopólio natural. Nesta situação a
sociedade pode preferir a manutenção do monopólio.
Todavia, mesmo que a sociedade decida-se pela manutenção do monopólio, ela
não desejará que o monopolista utilize todo o seu poder de monopólio para fixar
preços. Portanto, a regulação das decisões da firma, tias como preço e qualidade, entra
em cena.
Controle do Poder de Mercado Resultante de Propriedade de Redes Físicas. Outra
fonte de poder de mercado que tem atraído muita atenção recentemente é a propriedade
única de ativos físicos que outras firmas devem usar para competir com o proprietário
daquele ativo. A forma de determinar o preço pelo uso deste ativo é um problema
importante para o regulador.
Considere o seguinte exemplo: várias companhias ferroviárias, competidores
entre si, necessitam utilizar um túnel sob uma montanha, mas este túnel é de
propriedade de uma das companhias ferroviárias. Observe o caso de companhias
telefônicas nos EUA; as redes físicas pertencem a pequenas companhias locais, mas
devem ser utilizadas pelas grandes MCI, AT&T e Sprint para que estas possam
oferecer seus serviços de longa distância, por exemplo.
Em ambos os casos acima, se o regulador deseja ver a competição prevalecer no
mercado, ele deve se certificar de que a firma detentora da propriedade sobre o ativo
fixo deve ser obrigada a permitir o uso de seu ativo a um preço apropriado.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Garantia de Serviço Universal. Um terceiro objetivo da regulação de preços e outras
escolhas da firma é o desejo por serviços universais. Por serviço universal nós nos
referimos à disponibilidade do serviço para todos, a um preço razoável, em especial
para consumidores de baixa renda e em pequenas comunidades onde a escala limitada
de operação pode fazer os custos muitos elevados. Em tais casos, o regulador pode
encorajar ou requerer que uma firma de utilidade pública (tal como uma distribuidora
de energia) sirva alguns consumidores mesmo que isso implique em prejuízos.
Todavia, estes prejuízos em algumas vendas serão sustentáveis se a firma regulada for
permitida a compensar estas perdas ao cobrar preços maiores de outros grupos de
consumidores (em outros mercados). Isto é chamado de subsídio cruzado.
Todavia, o subsídio cruzado somente é possível se a firma regulada for
protegida de competição via preço e da ameaça de concorrência representada pela
entrada de outras firmas nos mercados lucrativos. Sem essa proteção, a firma regulada
irá se ver privadas das oportunidades de lucro em alguns mercados e não poderá
universalizar o serviço em mercados não lucrativos.
3. DOIS
PROBLEMAS
BÁSICOS
COM
OS
QUAIS
OS
REGULADORES
SE
DEFRONTAM
Como podem os reguladores fixar preços que protejam os consumidores e, ao
mesmo tempo, permitir que a firma regulada cubra seus custos?
Quando os governos regulam preços eles desejam, em geral, prevenir que
aqueles preços sejam tão elevados a ponto de garantir lucro de monopólio para a firma.
Todavia, os governos desejam, ao mesmo tempo, fixar preços compensatórios. Em
outras palavras, os preços devem ser suficientes para permitir que as firmas reguladas
cubram seus custos e, conseqüentemente, sejam financeiramente solventes. Além disso,
aos reguladores é requerido selecionar preços que sirvam o interesse público. Contudo,
estes dois objetivos podem ser conflitantes:
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Preços que promovem o interesse público podem causar problemas financeiros
para as firmas.
Preço igual ao custo marginal? Ou igual ao custo médio?
Muitos economistas advogam, sempre que possível, a fixação do preço igual ao custo
marginal porque esta política gera incentivos para as firmas produzirem quantidades
que melhor atendem os desejos dos consumidores, em termos de eficiência. Todavia,
um problema prático previne o emprego desta regra de determinação de preço em
indústrias reguladas: as firmas poderiam falir. Isto segue dos fatos abaixo:
a. Existência de significantes economias de escala na produção.
b. Economias de escala tornam as curvas de custo médio de longo prazo
decrescentes que qualquer nível de produto.
c. Se o custo médio é decrescente, o custo marginal deve sempre estar abaixo do
custo médio.
Juntando estes três fatos, vemos que se o regulador fixa preço igual ao custo marginal,
e como o custo marginal é menor do que o custo médio, o preço não será grande o
bastante para cobrir os custos médios: a firma irá falir! Uma solução para este
problema seria fixar preço igual ao custo marginal e, então, cobrir o déficit da firma
com fundos públicos: subsídios.
Uma segunda (e popular) opção é a de fixar preço igual ao custo médio. Mas este
método de precificação somente poderá ser implementado com base em decisões
arbitrárias. Quase toda companhia produz diferentes variedades e quantidades de algum
produto (podendo chegar à casa dos milhares). Em uma firma com muitos produtos,
nós não podemos definir o custo médio (CMe = CT/Q), pois deveríamos somar
diferentes produtos para obter Q.
Para o caso de firmas que produzem muitos produtos, os reguladores tem sido atraídos
pelo método conhecido como Regra de Precificação de Ramsey.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Regra de Precificação de Ramsey. Em uma firma regulada com vários produtos, na
qual preço deve exceder o custo marginal para que a firma mantenha-se operando, a
relação P/CMg deve ser maior para os produtos cujas elasticidades da demanda são
menores.
Explicação: suponha uma firma que produza dois bens, A e B, e que a demanda por A
é mais elástica do que a demanda por B. Isto significa que para um dado aumento
percentual os consumidores serão induzidos a cortar suas compras de A mais do que
suas compras de B. Esta regra tem sido proposta para precificar correios e telefone.
Prevenir que firmas com poder de mercado obtenham lucros excessivos podem
eliminar incentivos para eficiência e inovação.
Oponentes da regulação argumentam que ela gera ineficiência e reduz os benefícios
dos mercados livres. Uma fonte óbvia de ineficiência é a enorme burocracia e batalhas
legais que não permitem a firma responder rapidamente a mudanças nas condições de
mercado.
Em adição, economistas acreditam que interferências sobre preços causam ineficiência
econômica. A imposição de preços diferentes daqueles que poderiam prevalecer em um
mercado livre e competitivo induz os consumidores a demandarem quantidades que
não maximizam os benefícios dos consumidores dada à disponibilidade de recursos na
economia.
Uma terceira fonte de ineficiência é a remoção de oportunidades de lucro e, portanto,
da eficiência associada com o próprio lucro, sensibilidade da demanda do consumidor e
inovação. Com efeito, uma regulação que garanta uma taxa de retorno para a firma,
independentemente se seu gerenciamento é totalmente incompetente ou extremamente
talentoso, retira os incentivos criados pela perseguição do lucro. Esta regra é conhecida
como rate-of-return regulation.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Como exemplo temos os contratos para desenvolvimento e fornecimento de
equipamento militar. As compras deste tipo de equipamento têm seus preços
calculados usando-se de contratos conhecidos como cost-plus – o ofertante tem a
garantia de que seus custos serão cobertos e que, em adição, receberão um lucro préespecificado. Estudos deste tipo de contrato têm mostrado que os ofertantes são muito
ineficientes.
Curiosamente, os atrasos que caracterizam a maioria dos procedimentos regulatórios,
conhecidos como lag regulatório, são vistos como uma forma de contornar o problema
de incentivo gerado pela fixação da taxa de retorno. Para entender isso, suponha que a
agência reguladora tenha especificado preços que garantam à firma uma taxa de retorno
de, por exemplo, 10%. Se o gerenciamento da firma é efetivo e consegue reduzir
custos, a taxa de retorno efetiva da firma, dados os preços especificados anteriormente,
pode aumentar para, digamos, 12%. Se a agência reguladora demora três anos para
ajustar os preços, a firma ganhará um bônus de 2% ao ano, por três anos (o lag
regulatório), por sua eficiência. Por outro lado, se a firma é mal administrada sua taxa
de retorno pode cair para, por exemplo, 7%. Se a agência reguladora necessita de 18
meses para analisar o caso e permitir um aumento de preço, a firma sofrerá uma
punição por sua ineficiência. Deste modo, o lag regulatório atua como uma forma de
premiar (punir) a firma como resultado de sua eficiência (ineficiência), mesmo quando
o lucro da firma é garantido ex-ante.
Price Caps como incentivos à eficiência. Uma inovação regulatória desenhada para
prevenir lucros de monopólio enquanto incentivos são oferecidos para a firma melhorar
sua eficiência produtiva estão sendo usados em vários países (por exemplo, para
eletricidade, telefonia e serviços aéreos na Inglaterra, e telefonia nos EUA). A idéia
básica foi retirada do incentivo gerado pelo lag regulatório.
Prof. Paulo A. de Britto
Notas Para o Curso STFC/SCM
Sob este, o regulador fixa um teto para os preços (chamado de price caps) de firmas
reguladas. Todavia, os price caps (que são medidos em valores reais, ajustados pela
inflação) são reduzidos a cada ano a uma taxa baseada na taxa de redução dos custos
(crescimento da produtividade) obtida pela própria firma no passado. Assim, se a firma
regulada demonstra reduções subseqüentes em seus custos (via inovação ou outros
métodos) maiores do que os obtidos no passado, o custo real da firma irá se reduzir
mais rapidamente do que seus preços e a firma poderá manter seus lucros com uma
forma de recompensa.
É claro que nem tudo é tão simples assim para a firma: se a firma reduz seus custos em
apenas 2% após ter o reduzido em 3% ao ano no passado, o price cap irá se reduzir em
3%. A firma irá sofrer perdas, mas os consumidores continuarão a ser beneficiados pela
queda real nos preços.
Assim, sob este sistema de regulação dos preços, o gerenciamento da firma regulada é
forçado a perseguir continuamente formas mais econômicas de produzir o bem. Note,
finalmente, que este método deixa a possibilidade de lucros elevados para a firma como
uma forma de incentivo para eficiência. Mas ele também protege os consumidores via
controle dos preços, tornando-os menores em termos reais ao longo do tempo.
Regulação em Telecomunicações – Professor: César Mattos ([email protected])
A interconexão talvez seja a questão regulatória mais importante das
telecomunicações. E sua importância deriva de uma característica crucial do setor: A
presença de externalidades no consumo. Para entender melhor esse conceito econômico, já
fazendo a conexão com importância da interconexão como arma competitiva na história da
AT&T nos EUA, cabe a seguinte citação: “O valor do serviço telefônico a um usuário é
diretamente relacionado ao número de outros usuários ligados ao sistema; quanto mais
usuários um sistema tiver, maior o número de pessoas que um dado consumidor poderá
ligar. Como as chamadas constituem a fonte de demanda por serviço, o número de pessoas
com as quais se pode falar determina o valor do serviço. O sistema Bell era o maior e,
portento, poderia ofertar o maior número de pessoas com as quais um usuário prospectivo
poderia conversar. Negando interconexão aos seus competidores-isto é, uma conexão entre
dois sistemas telefônicos que permitissem que os usuários de um sistema pudessem se
comunicar com os de outro – a Bell se tornava capaz de usar seu tamanho como uma arma
competitiva”.
A seguinte citação de Viscusi, Vernon e Harrington (1995) demonstra o quanto a
AT&T evitou a interconexão como estratégia anticompetitiva e como isso gerou a
necessidade de intervenção governamental: Viscusi, Vernon and Harrington (1995):“A
resposta inicial da AT&T à entrada da MCI em 1969 foi simplesmente recusar a
interconexão com a empresa. Na decisão da FCC em 1971, o órgão determinou que a
AT&T deveria interconectar com seus concorrentes, mas os termos foram deixados abertos
à empresa. Isso não melhorou a situação, tendo em vista que a AT&T impôs consideráveis
restrições às empresas concorrentes de longa distância. Apenas em 1974, a FCC
determinou interconecção em sua decisão “Bell System Tariff Offering”. Quando a MCI
expandiu a entrada no serviço de mensagens, o mesmo problema ocorreu. Sua entrada foi
aprovada pela Corte de Apelações Americana em 1975, mas apenas em 1978 a AT&T foi
forçada a interconectar com o serviço “Execunet” da MCI.Apenas em firmas como a MCI
foram autorizadas a interconectar com as companhias operacionais locais como linhas de
longa distância. Mesmo depois de obter esse direito, os concorrentes da AT&T no mercado
de telecomunicações interurbano ainda não estavam sendo tratados de forma equânime.
Acredita-se, em geral, que os concorrentes da AT&T detinham conexões de qualidade
piores pelas companhias operacionais Bell. Enquanto os usuário da AT&T tinham que
digitar apenas 11 dígitos para fazer a conexão com a longa distância, os clientes da MCI
tinham que discar 20 dígitos. O resultado foi que os consumidores tinham a AT&T como
oferecendo um serviço de melhor qualidade, o que forçava os seus concrrentes a oferecer
um bom desconto para competir. Este foi o tipo de comportamento que levou a caso
original de antitruste contra a AT&T.”
No entanto, isso não implica ser um grande consenso a necessidade de intervenção
estatal na interconexão. Muller (1997), por exemplo, realça que uma política ativa de
interconexão gera excessiva padronização de tecnologias, evitando uma saudável
competição entre alternativas. Ademais, o autor refuta o argumento de fechamento de
mercado. O grande problema da crítica de Mueller é não reconhecer que concorrência em
inovações é um processo de longo prazo e interconexão é uma condição necessária para o
entrante se engajar nessa competição no curto prazo.
Uma visão intermediária é dada por Katz, Rosston e Anspacher (1995), requerendo
para uma política ativa de interconexão uma análise similar à “regra da razão” do antitruste.
Daí, haveria uma análise em dois estágios:
•Primeiro Estágio : Avaliação do Poder de Mercado da Operadora. Se for pequeno,
regulador não intervém.
•Segundo Estágio: Se poder de mercado não for pequeno, cabe avaliar se benefício da
intervenção compensa custos de construção e operação de infraestrutura de interconexão,
restrições no design e planejamento na rede das operadoras, assimetria de informação
provável do regulador, etc...
Concretamente , a Federal Communications Commission (FCC) não obrigou
interconexão entre provedores de telefonia móvel pois o mercado relevante foi definido
como o de “terminação de chamadas”. Como apenas um pequeno percentual do total de
chamadas terminava em um celular, a FCC entendeu que as operadoras de celular não
detinham poder de mercado. Isso se derivou em boa parte do fato que nos EUA o sistema
atribui a obrigação de pagar a conexão para as recebedoras de chamadas para celular e não
para quem liga.
Facilita entrada evitando venda casada de elementos desnecessários da rede; b) Auxilia o
concorrente a realizar uma aproximação gradual do usuário, sem a necessidade de pesados
investimentos iniciais na infraestrutura do local loop. De outro lado, também possui
desvantagens: a) a entrada é dependente do incumbente, o que torna ambos menos
aguerridos na concorrência; b)Pode desestimular investimentos (ex: TV a cabo nos EUA);
c) a venda casada pode gerar eficiências.
Um fenômeno que deve ser considerado na precificação de acesso se refere ao
chamado “cream-skimming”. Nesse caso, os entrantes apenas entram nos mercados mais
interessantes financeirament, deixando o que é menos lucrativo, especialmente o que
contém obrigações de serviço universal para os incumbentes. Os Modelos de Precificação
Ótima mais relevantes (Laffont e Tirole-1993) indicam que preço de acesso ótimo deve
levar em consideração a erosão da base de financiamento do custo fixo do dono da rede
quando o entrante está praticando “cream-skimming”. Quanto maior o cream-skimming,
roubando mercados lucrativos do incumbente, maior deve ser o preço de acesso.
•Quanto maior o preço de acesso requerido para financiar custos fixos, maior a
possibilidade de bypass por parte do entrante, escolhendo formas alternativas menos
eficientes, mas financeiramente atraentes de obter acesso. A questão relevante é como
estruturar um mecanismo baseado no preço de acesso que ao mesmo tempo que financie o
custo fixo, induza o entrante a escolher a alternativa de acesso mais eficiente do
incumbente. Uma alternativa teórica seria desvincular o financiamento do custo fixo do
preço marginal de acesso. Isso poderia ser obtido, reduzindo o preço de acesso a um nível
próximo do custo marginal enquanto se cobra uma taxa do entrante sobre seu serviço final a
ser transferida ao incumbente. Nesse caso, não há bypass ineficiente pois se quebra a
relação entre o uso do insumo e seu preço, além do custo fixo poder ser devidamente
financiado.O problema é que essa não é uma alternativa juridicamente viável.
A Lei Geral de Telecomunicações e os contratos de concessão contêm uma série de
dispositivos relacionados a tarifas. Previu-se a possibilidade de eliminação dos controles de
tarifas após 3 anos do início do contrato (meados de 2001), o que configurou uma hipótese
que nem sequer foi cogitada naquele momento. Como é usual em vários contratos de
concessão, previu-se a possibilidade de alteração dos reajustes em face de fatores exógenos
que possam trazer problemas ao equilíbrio econômico-financeiro da empresa. Em
consonância com o propósito de desindexação da economia, o intervalo mínimo entre
revisões tarifárias foi definida como de 1 ano.
A principal regra de tarifas, no entanto, definida em contrato é a que estabeleceu o
reajuste baseado no price-cap, substituindo a regulação por taxa de retorno, tal como se
procedeu no Reino Unido e em boa parte dos EUA. Naquele primeiro país a regra ficou8
conhecida como do RPI (Retail Price Index) – X (Estimativa do Aumento da Produtividade
do Setor). Seus principais aspectos positivos são: a) simplicidade; b) incentivo total ao
aumento da produtividade, dado que a firma é o “reclamante residual” (residual claimant)
de suas economias de custos; c) riscos de aumentos exógenos nos custos transferidos do
consumidor para a firma; d) eliminação da tendência à realocação de custos contábeis e
R&D.
Uma questão relevante é de se o price-cap gera, de fato, preços menores ou não? A
resposta é certamente sim no longo prazo pelo estímulo à produtividade e provável repasse
dessa aos consumidores na forma de preços menores. No curto prazo, essa assertiva
também será verdadeira se houver informação perfeita do regulador sobre quanto o
operador é capaz de reduzir seus custo. Como essa é uma hipótese forte, teremos que a
capacidade de o price-cap reduzir preços no curto prazo será tanto maior quanto menor for
a assimetria de informação do regulador em relação à firma.
No caso brasileiro, não foi escolhido um único fator X para ser aplicado durante a
fase de transição do modelo (1998-2005). Para cada ano, eram definidos diferentes valores
de X, sendo que quanto mais distante do início do período, maior o valor de X. Foram
definidos caps diferenciados para os serviços local, longa-distância e de interconexão e,
dentro desses, foram definidos caps específicos sobre faixas desses serviços e/ou “partes”
da tarifa (fixa ou variável), como ficará claro adiante, e caps mais gerais sobre médias
ponderadas dos preços dessas mesmas faixas. O intervalo mínimo de tempo entre reajustes
é de um ano, podendo ser requerido tanto pela operadora como pela ANATEL.
Vejamos, primeiramente, o caso dos serviços locais. Os contratos de concessão
estabelecem que a operadora deve ofertar a todos os seus usuários o “Plano de Serviço
Básico Local” (PSBL). O PSBL estabelece valores máximos para várias tarifas tais como a
habilitação e a assinatura mensal, que constituem a parte “fixa” da tarifa dos telefones
individuais, e o pulso, que constitui a parte variável da tarifa dos telefones individuais, além
de definir o cap da tarifa de telefone público, o método de tarifação e as chamadas para
telefones móveis. A operadora pode ofertar planos alternativos para os usuários, desde que
previamente sancionados pela ANATEL e que p PSBL seja também oferecido para o
usuário.
Há um cap mais geral e agregado que compreende a tarifa de habilitação
(HAB), a assinatura mensal, (ASS) e o preço variável das chamadas (P-valor do pulso *
nto- número médio de pulsos da última revisão até o presente-) denotando um esquema de
preços não linear e caps específicos para cada um desses componentes. No caso dos pulsos,
o primeiro minuto e os minutos subsequentes possuem caps diferenciados. Esse conjunto de
components tarifários é chamado de a cesta básica local. O cap geral é dado por:
⎛ IGP − DI t ⎞
⎟⎟ * ( HABto + Assto + η to * Pto )
HABt + Asst + η to * Pt ≤ (1 − k ) * ⎜⎜
⎝ IGP − DI to ⎠
sendo k o fator X do price-cap brasileiro. O valor de X nesse cap global foi fixado
em 0% até dezembro de 2000 e 1% até dezembro de 2005. Há também 7 caps parciais, três
para a habilitação e três para a assinatura, compreendendo residencial, não-residencial e
truncking. O sétimo cap específico é o valor do pulso, P. Todos esses caps específicos
possuem o mesmo fator específico X de 9%, sendo que a mesma fórmula geral para os sete
caps, exemplificada, pelo cap da habilitação residencial (HABRes) é:
⎛ IGP − DI t ⎞
⎟⎟
HAB Re st ≤ HAB Re sto *1.09 * ⎜⎜
−
IGP
DI
to ⎠
⎝
No caso da longa distância, há também dois conjuntos de caps. Primeiro, o conjunto
de um único elemento que é uma média ponderada de vários grupos de
distâncias/dias/horas:
⎡ 5
⎢∑
⎢⎣ i =1
⎛ M ijto ⎞⎤
⎛ M ijto
(IGP − DI t ) ⎡ 5 24
⎜
⎟
⎜⎜
(
)
*
1
*
*
*
≤
−
T
k
T
⎥
⎢
∑
∑∑
ijt
ijto
⎜ M ⎟
−
IGP
DI
j =1
i
=
1
j
=
1
⎥
⎢
to
⎝ t ⎠⎦
⎝ Mt
⎣
24
⎞⎤
⎟⎟⎥
⎠⎥⎦
Segundo, há 120 caps específicos definidos para grupos de dias/horas e distâncias,
com a seguinte fórmula geral:
⎛ IGP − DI t ⎞
⎟⎟
Tijt ≤ Tijto *1.05 * ⎜⎜
⎝ IGP − DI to ⎠
onde
Tijt e Tijto – tarifas máxima e corrente, respectivamente, do Plano do Serviço Básico
da Longa Distância Nacional para o dia/hora “j” e grupo de distância “i”.
Mijto - minutos do serviço de longa distância nacional observado no Plano Básico do
Serviço de Longa Distância de acordo com os dias (dias úteis, feriados, fins de semana) e
horas do dia e no grupo de distâncias “i” desde a última revisão.
MT - total de minutos do serviço de longa distância nacional observado desde a
última revisão.
Uma tabela consolidando os fatores X no Brasil entre 1999 e 2005 para os
consumidores finais é apresentada abaixo:
Tabela – Fatores Anuais de Redução Real nas Tarifas do Sistema de Telefonia
Fixa no Brasil (ou os Fatores X dos Price Cap Agregados e Específicos)– 1999/2005
Serviços
X do Cap Agregado da Cesta Básica
Local (equação 2)
1999
2000
2001
2003
2005
0
0
1
1
1
X dos Caps específicos da Cesta
Básica Local (7 caps tal como
exemplificado pela equação 3 )
X do Cap Agregado do Serviço
Interurbano Nacional (equação 4)
X dos Caps específicos do Serviço
interurbano (120 caps tal como
exemplificado na equação 5)
X do Cap agregado dos serviços
internacionais
X dos Caps específicos do serviço
internacional para cada grupo de
países
Fonte: ANATEL
-9
-9
-9
-9
-9
2
2
4
4
5
-5
-5
-5
-5
-5
5
15
15
15
15
-5
-5
-5
-5
-5
Note que os fatores X dos serviços internacionais apresentam a queda mais
pronunciada, seguida do serviço de longa distância nacional e da cesta do serviço local.
Esse padrão se deriva de dois fatores:
1) O regulador acredita que o rebalanceamento tarifário no Brasil não havia sido
ainda completado no momento da privatização em 1998;
2) É possível que a perspectiva de introdução de cabos de fibra ótica no serviço de
longa distância nacional seria tão abrangente que implicaria um aumento muito
rápido da produtividade (pelo menos maior que o serviço local). A maior
concorrência naturalmente esperada na longa distância contribuiria ainda para
estimular esse salto de produtividade maior na longa distância.
Finalmente, note-se que os valores de X passam a aumentar de forma ainda mais
forte quando se projetava o início da política de livre entrada que se iniciaria em 2001.
Há dois problemas fundamentais no price-cap: 1) falta de “commitment” face aos
elevados lucros auferidos (ex. da energia elétrica em 1995 e telecomunicações em 1991 no
Reino Unido), o que depende das dotações institucionais do país (poder judiciário,
consensos sobre economia de mercado e trade-offs sobre o price cap); 2) •na presença de
assimetria de informação, o ótimo é uma mistura entre incentivos de alto e baixo poder
como em Laffont e Tirole (1993) para fazer face ao trade-off extração de renda/incentivos.
Recentemente, o Governo tem proposto a introdução da metodologia do Long run
Incremental Cost (LRIC) para as tarifas de interconexão. A idéia do LRIC é fixar os preços
de acesso com base em um benchmark de preço eficiente ao invés de se basear nos custos
(embedded-enterrados) atuais. Isso evita a ineficiência do regime que liga custos atuais com
preços e estimula redução de custos e, portanto, eficiência estática. Constitui a principal
prática internacional (TELRIC nos EUA, FL-LRAIC na Europa e LRIC no Japão), mas
sofre pesadas críticas.
Primeiro, não obedece princípios econômicos básicos pois com custos fixos
elevados nenhum operador estará incentivado a investir com essa regra. Tende a ser
confiscatório dado o passo de desenvolvimento tecnológico do segmento e o elevado
período de vida dos equipamentos. A previsão da taxa de progresso tecnológico se torna
fundamental neste contexto. Segundo, aumenta o incentivo a fechar mercado para a
entrantes por via de métodos fora preço (qualidade da interconexão), aumentando
necessidade de maior interferência regulatória. Terceiro, há grande dificuldade de computar
custos marginais aumenta necessidade de interferência regulatória, o que amplia
possibilidade de ação discricionária, minando incentivos. Quarto, •Laffont e Tirole (2000)
mostram que a perspectiva de inovação torna desejável um subsídio cruzado intertemporal
com lucros mais altos antes da inovação que vão compensar lucros mais baixos após a
inovação. Enfim, há dificuldades relevantes na aplicação da regra tais como: 1) O que é o
longo prazo em um setor dinâmico como telecom? 2) •Sobre qual volume os custos
incrementais devem ser medidos? 3) Qual é a função custo em um monopólio quando este é
ineficiente? 4)•O que está incluído nos custos dado o incentivo de mover custos das linhas
de negócio não reguladas para as não reguladas? 5) Como tratar os custos comuns? 6) O
custo de oportunidade entra no custo marginal ou não?
No que diz respeito ao financiamento do serviço universal no Brasil, o principal
ponto se refere à refutação do uso do esquema de subsídios cruzados interno às firmas via
distorção de preços relativos no longo prazo. A principal fonte de financiamento da Lei do
FUST é uma taxa de 1% sobre a receita bruta de todos os setores de telecomunicações, o
que configura um subsídio cruzado externo às firmas. O sistema de “leilão de subsídios
para serviço universal” é uma boa idéia, evitando discricionariedade do regulador (Ver
Laffont e Tirole 2000 e Sorana 2000), sendo que o Regulamento de Implementação da
Aplicação dos Recursos do FUST de 2001 baseia o critério em leilões fechados (menor
lance), tal como previsto na Lei 8666, mas há casos onde a licitação pode ser evitada e a
ANATEL escolher o operador.
SISTEMA DE TELEFONIA FIXA COMUTADA: TECNOLOGIAS
Leonardo Rodrigues Araújo Xavier de Menezes
Professor do Departamento de Engenharia Elétrica
Introdução
O Objetivo deste texto é mostrar o sistema público de telefonia fixa comutada em
conjunto com os seus principais elementos e as tecnologias envolvidas no seu
funcionamento. Para atingir este objetivo existem diversos caminhos que podem ser
seguido. O caminho adotado aqui é um pouco diferente. Ao invés de introduzir as escolhas
tecnológicas e as idéias envolvidas no sistema como se externas ao processo de evolução, o
caminho escolhido foi o de introduzir a evolução do sistema público de telefonia fixa
comutada, doravante mencionado como STFC, dentro do seu contexto histórico. A razão é
que sob este prisma, permite-se entender quais foram as escolhas tecnológicas que
definiram a forma do sistema como ele se apresenta hoje, bem como os caminhos que
foram percorridos para tanto. Para entender o mundo das telecomunicações hoje é
necessário entender seu passado. É possível que com esta compreensão que seja factível
imaginar um pouco sobre seu futuro.
A criação do telefone
A palavra telefonia vem do grego Tele (distância) em conjunto com Phonos (voz).
Em uma tradução direta significa voz à distância. Portanto, a telefonia pode ser entendida
como o processo de realização da conversação entre duas ou mais parte, tendo como
característica básica a separação física entre as mesmas. Para os propósitos já delineados
anteriormente na introdução deste texto, a telefonia consiste no estudo dos equipamentos e
técnicas envolvidos na realização da conexão telefônica. O objeto principal do sistema
telefônico, pelo menos no seu início, é o telefone. Este consiste em um dispositivo que
envia a voz através de um meio físico por meio da conversão da mesma em sinais elétricos.
Antes do telefone surgir existiam outros meios para se realizar a comunicação a
distância. O meio mais difundido no século IXX era o telegráfo. Este dispositivo enviava
sinais codificados à distância ao invés da própria voz. A palavra telegráfo vem do grego
Tele (distância) em conjunto com Graphos (escrita). O princípio básico do telegráfo foi
mostrado em 1825 pelo professor Joseph Henry em uma aula na Academia de Albany
(EUA). Nesta aula, o professor utilizava a variação da corrente elétrica em um circuito para
tocar sinos através de eletromagnetos. O circuito se baseava nas idéias do eletromagnetismo
em estudo na época que mostravam que uma variação na corrente elétrica em um caminho
fechado de corrente criavam um fluxo magnético. Este fluxo magnético apresentava a
capacidade de mover objetos com magnetismo permanente (tais como agulhas de bússolas).
Com base neste princípios, já que a variação de corrente produz um efeito quantitativo
observável, Samuel Morse cria o telégrafo elétrico em 1837. Nesta criação juntam-se os
conceitos dos efeitos que uma variação de corrente causa com um mapeamento entre o
alfabeto de escrita (A,B, C, D, E, etc...) e os efeitos observáveis da variação da corrente
elétrica (rápida e lenta).
Figura 1 - O conceito do circuito envolvido no telégrafo. O circuito consistia de duas chaves, dois elementos
produtores de som e um bateria. Quando as chaves eram operadas os elementos produtores de sons
funcionavam indicando o símbolo que foi transmitido.
O conceito desta idéia obteve bastante sucesso. Em 24 de maio de 1844, o telégrafo
teve sua primeira linha inaugurada nos Estados Unidos. Mas o sucesso não foi restrito ao
novo mundo, em 17 de agosto de1850 a Europa passou a utilizar cabos submarinos entre
Dover (Inglaterra) e Calais (França) para ligações telegráficas. A introdução do telégrafo
levou a humanidade a uma nova era de comunicações. Pode-se sem sombra de dúvida
afirmar que o mundo passou a se tornar um lugar menor com sua introdução. Eventos que
ocorriam em lugares distantes passaram a ser relatados em questão de dias ao invés de
meses. As nações do mundo passaram a se comunicar com muito mais frequência e em
maior volume. No entanto a introdução do telégrafo em uma escala global demandou a
criação do primeiro orgão regulador de telecomunicações do mundo. Em 17 de maio de
1865, foi fundada a União Telegráfica Internacional (UTI) em Paris, França. Este orgão foi
promovido nos anos 30 para a União Internacional de Telecomunicações (UIT) com sede
em Genebra, Suiça. O único senão do telégrafo era que a maioria das pessoas não podia
utiliza-lo. E isto naturalmente era um obstáculo para que este se torna-se um meio de
comunicação verdadeiramente universal.
Um problema natural por trás do telégrafo, é que para opera-lo era necessário saber
o código por trás do envio do alfabeto natural das pessoas. Portanto, era necessário saber
telegrafia. Ao contrário do telégrafo, a transmissão da voz era o modo mais natural de
comunicação. Este era um método que iria ser, sem sombra de dúvida, bastante popular e
realmente universal. Por este motivo enquanto em 1861 o Estados Unidos ligavam o litoral
leste com o oeste através do telégrafo, pesquisadores e empreendedores buscavam formas
de transmitir sinais mais complexos através de fios elétricos. Neste ano, o professor alemão
Phillip Reis realiza as primeiras transmissões de sinais musicais através de fios.
Esta pesquisa avançou bastante. Apesar de transmitir sinais musicais ser
interessante, o objetivo principal era a transmissão de sinais de voz. Afinal, somente a voz
poderia trazer o caráter de comunicação universal. Em 1871, o italiano Antônio Meucci
patenteia o que pode ser considerado a primeira versão do telefone. O aparelho consiste
“num diafragma vibrante e de um magneto eletrizado por um fio espiral que o envolve.
Quando o diafragma vibra...modifica a corrente do magneto...Esta modificação da
corrente, transmite-se ao outro fio e vai imprimir análoga vibração ao diafragma que a
recebe e que, desse modo, reproduz a palavra”. Antônio Meucci é considerado por alguns
como o verdadeiro inventor do telefone, no entanto não existe patente em seu nome, apenas
Registros e Renovações no Escritório de Patentes dos Estados Unidos, até 1873. De
qualquer modo, este dispositivo tem notável similaridade com o telefone que seria
patenteado alguns anos mais tarde.
A corrida que o mundo conheceu se deu entre duas pessoas diferentes. Uma delas
persistia a busca pela transformação de voz em sinais elétricos do ponto de vista elétrico. A
outra, que havia sido professor de surdo-mudos, buscava o mesmo objetivo do ponto de
vista acústico. Em 1875, Elisha Gray e Alexander Graham Bell descobrem que estão
trabalhando no mesmo projeto: a invenção do telefone. Enquanto Bell buscava solução pelo
lado acústico, Gray buscava pela aplicação da corrente elétrica. Em 1874, Gray concluiu
seu projeto mais extraordinário: com um diafragma de aço diante de um eletroimã, havia
construído um receptor praticamente igual aos dos telefones atuais. Mas não dispunha de
transmissor. Em 14 de fevereiro de 1876, por extrema coincidência, os dois ingressam com
o pedido de patente. Com apenas uma vantagem para Bell: seu requerimento chegara ao
U.S. Patent Office duas horas antes de Gray. Até aqui ninguém havia conseguido realmente
conversar pelo telefone. Gray parece perder as esperanças e considera-se derrotado pela
diferença de duas horas na primazia do registro. Embora tivesse excelentes idéias e
estivesse no caminho certo, nada faz para desenvolver os projetos que elaborou. E perde
assim, a corrida nos anos críticos que se seguem.. Em 7 de março de 1876, Alexander
Graham Bell obtém a patente nº 174.465, de invenção do telefone. Três dias depois,
acidentalmente, Bell e Watson conseguem a transmissão da primeira frase completa por
telefone (“Mr. Watson, come here, I need you”). A 25 de junho desse ano, o imperador do
Brasil, Dom Pedro II, visitando a Exposição de Filadélfia, exclama diante do telefone de
Graham Bell: “Meu Deus, isto fala!”. Deste ponto em diante, o processo de popularização
do telefone se acelerou. A 12 de fevereiro de 1877 é transmitida, por telefone, a primeira
reportagem para um jornal (o repórter Henry Batchlder, entrevista Graham Bell, em Salem
para o Daily Globe, de Boston).
O telefone de Alexander Graham Bell é baseado em um príncipio elétrico bem
conhecido. Este princípio é a chamada Lei de Ohm. A corrente em um circuito resistivo é
diretamente proporcional a tensão aplicada. A constante de proporcionalidade é chamada de
condutância elétrica (G). O inverso desta constante de proporcionalidade é chamada de
resistência (R). O que Bell conseguir realizar foi um componente com a seguinte
propriedade:
-
A condutância elétrica do dispositivo era diretamente proporcional a pressão
acústica aplicada. Como a pressão acústica é proporcional a voz, então a
corrente que atravessa o elemento será diretamente proporcional a voz que é
falada sobre o dispositivo.
-
Se em outra extremidade do circuito temos um dispositivo que é capaz de vibrar
um diafragma através do uso de um eletroimã, teremos um aparelho que
converterá o sinal elétrico em vibração acústica (sinal de voz). No eletroimã,
quanto maior a corrente, maior é a força magnética sobre o diafragma, portanto
maior a pressão acústica gerada.
Em termos matemáticos:
i (t ) =
V DC
= G ( p (t ))V DC = p (t ) gV DC
R ( p (t ))
No caso do aparelho de Graham Bell, a modificação da resistência do fio era
realizada por um fio que mergulhava em ácido, quanto mais o fio mergulhava em ácido
maior era a condutância elétrica (portanto maior a corrente).
Figura 2 – O telefone de Graham
G
Bell, quuanto mais o fiio afundava noo ácido maior era
e a condutânccia
entre os
o dois terminaais de saída de eletricidade.
e
C
Como
o afundam
mento do fio erra definido pella pressão de vooz
sobrre o diafragmaa, então a corrennte elétrica de saída era proporcional a voz aplicada sobree o diafragma.
Desta form
ma o disposittivo de Bell conseguia trransformar efetivamente
e
e sinais de voz
v
em sinnais elétrico
os. Entretantto, este esquuema tinha alguns
a
probllemas. Entree eles pode--se
destaccar que o ellemento connversor de sinais de vozz em sinais elétricos utilizava
u
áciddo.
Portannto, apresenttava um probblema de seggurança paraa seu uso. Um
m caso aneddótico é que foi
f
justam
mente por caausa do áciddo ter sido derramado em Bell em
m um experrimento quee a
famosa frase “Mr. Watson, com
me here, I need you” foii dita.
Em 1878, Hughes
H
inveenta o microofone de carvvão, cujo priincípio é utillizado até hooje
nos teelefones. Th
homas Edisson aperfeiççoa ainda nesse
n
mesm
mo ano o receptor.
r
Esste
microffone é baseado na com
mpressão de grãos de caarvão que se
s tornam mais
m
ou mennos
próxim
mos dependeendo da presssão de voz aplicada
a
sobbre eles. Destta forma quaando a presssão
é grannde, os grão
os se tornam
m mais próxximos (conduutância maior) e quanddo a pressãoo é
pequenna os grãos se tornam mais
m separaddos (condutânncia menor)). Este microofone funcioona
de modo similar ao de Bell, coom a vantageem adicional de maior seegurança.
Figura 3 – O microfone de carvão aperfeiçoado por Thomas Edison e o conceito da condutância
variável envolvido em seu funcionamento. A medida que os grãos de carvão se tornam mais próximos ou
separados, a condutância aumenta ou diminui.
O nascimento da companhia Telefônica
A partir deste ponto começou a surgir um dos gigantes de telecomunicações. Em
1877, Bell, Sanders & Hubbard, formam a primeira companhia telefônica Bell. Contra
todas as criticas Hubbard decide licenciar franquias ao invés de vender telefones. Esta
decisão tornou a Bell forte por mais de 100 anos. A razão da existência da companhia
telefônica esta mais ligada ao problema de como conectar os telefones do que a sua venda.
Afinal um telefone não adianta muito, é necessário que sejam realizadas as conexões. E
justamente a questão da conexão é que permitiu o avanço das telecomunicações no século
XX. Para entender a importância da conexão, é necessário perceber que para se comunicar
utilizando o telefone é necessário que os mesmos estejam ligados por um par de fios (a
primeira vista dois pares, mas este ponto será delineado mais afrente). Portanto, se temos
dois telefones precisamos de um par de fios. Mas o que acontece quando há mais telefones
envolvidos? Bem, é fácil ver que a progressão rapidamente seja a valores assombrosos.
Para três telefones ligados diretamente são necessários três pares, para quatro telefones são
necessários seis pares. A medida que aumentamos o número de telefones ligados
diretamente, o número de pares de fios necessários para liga-los cresce bastante.
Na realidade, utilizando expressões matemáticas de soma este número de pares de
fio (L) cresce como número de conexões (N) como:
L=
N ( N − 1)
2
Portanto não é prático conectar todos os assinantes diretamente. A solução mais
prática é conectá-los de modo centralizado. Neste caso o número de pares de fio (L) é igual
ao número de conexões (N).
Figura 4 – O Caso da connexão, se forem
m utilizadas as conexões direttas, o número de
d pares de fios
crescce quadraticam
mente. Mas se foorem utilizadass conexões com
mutadas, este número
n
cresce de modo linearr
A diferença entre estess dois tipos de
d conexão podem
p
ser viistas na figurra 5.
Figura 5 – Os dois tipos de abordagem.. A conexão direta elimina a necessidade
n
dee um orgão quee
fique responsável
r
peela conexão, maas ao mesmo teempo demandaa um alto númeero de ligaçõess. Ao contrário a
centrralização dimin
nui o número de
d conexões, mas
m demanda um
m orgão que reealize o papel de
d conector dass
ligações.
Desta forma a abordagem adotada tornou as centrais de conexão, que passaram a ser
chamadas de centrais de comutação, como elemento responsável pela ligação telefônica. A
comutação é definida desta forma como o processo de ligação da chamada telefônica. Esta
é a principal responsabilidade da companhia telefônica, ou como hoje é mais conhecida da
operadora telefônica.
Com a adoção deste formato, surgiu a operadora de telefonia e os elementos que
conhecemos hoje como parte do sistema telefônico:
-
Residência de origem
-
Acesso de origem (ou rede de acesso – rede local)
-
Central local (CO)
-
Troncos de ligação (ou rede de transporte)
-
Central de destino (CO)
-
Acesso de destino
-
Residência de destino
No entanto, nos idos de 1878, a conexão entre os telefones (a central local e a de
destino) necessitava ser realizada de modo manual. Para tanto, criou-se a posição da
operadora do sistema. Esta também era conhecida como telefonista. Seu trabalho era
conectar os assinantes locais ao terminal de destino. Por este motivo seu trabalho era duplo.
Quando os assinantes locais desejavam se conectar a outros assinantes locais, a
telefonista realizava esta conexão diretamente na mesa telefônica (switchboard). Era
responsabilidade da telefonista avisar aos assinantes que iriam receber a ligação da
ocorrência da mesma. Para resolver o problema de como os assinantes deveriam ser
avisados, Thomas Watson cria a campainha telefônica em 1878. O primeiro sistema
adotado era do tipo bateria local, onde a fonte de alimentação (pilha) era acondicionada no
próprio equipamento (mesa operadora e aparelho telefônico), ou muito próximo dele. Nessa
época, junto ao equipamento ficava uma manivela (crank) que fazia parte de um conjunto
denominado magneto, que deu nome a este sistema. Para fazer uma ligação, o usuário
girava a manivela do telefone, gerando corrente elétrica alternada, fazendo acionar o alarme
na mesa operadora. A telefonista atendia colocando a pega (cordão) no orifício (jack)
assinalado. A chamada era completada com a outra pega correspondente no orifício
solicitado. A telefonista então, girava a manivela da mesa e, no telefone chamado, a
campainha tocava.
Figura 6 – Mesa telefônica da telefonista. Note a manivela no canto direito da mesa utilizada para
alertar os assinantes através da campainha telefônica.
A Segunda parte do trabalho da telefonista estava relacionada com os momentos
que os assinantes locais queriam se comunicar com telefones a distâncias maiores. Neste
caso, cabia a telefonista iniciar todo o processo de comunicação com a central local do
assinante de destino para realizar a conexão do sistema.
Inicialmente, os primeiros telefones utilizavam o mesmo bocal para falar e escutar.
Mas como os assinantes ficaram confusos, este foi substituído por um modelo de dois
bocais separados (pai do que conhecemos hoje). Em 28 de janeiro de 1878 começa a operar
a primeira mesa telefônica comercial em New Haven. Esta servia a 21 telefones com 8
linhas. Em 17 de fevereiro a Western Union abre a primeira grande central telefonica em
San Francisco. Nascia a rede de telefonia pública comutada (RTPC).
No germe do início do sistema telefônico já estavam plantadas as sementes que
demandariam a inovação como marca característica do sistema. Note que em breve se
tornaria patente que existiam três fatores que implicavam na alteração do modo como a
comutação era realizado.
1. Era economicamente inviável o aumento indefinido de telefonistas em grandes
centros urbanos
2. Era economicamente inviável a manutenção de telefonistas em pequenos centros
urbanos dentro de cargas horárias ininterruptas (24 hs)
3. A expansão do sistema era contrabalançada pelos fatores trabalhistas das
telefonistas
Estas demandas iriam finalmente se materializar na criação da central de comutação
automática algumas décadas mais tarde.
Em 1879 no Brasil, o imperador Dom Pedro II autoriza o funcionamento da
primeira “Companhia Telephonica Brasileira”. Começam a funcionar os primeiros
telefones do Rio de Janeiro. Estes tinham especificamente a funcionalidade de ligar
Petrópolis ao Paço Imperial no Rio de Janeiro.
Nos Estados Unidos, em 1888, a Bell Telephone Company capitaneava 133000
telefones. Neste mesmo ano, Bell ganha a patente do circuito metálico (dois fios por
telefone). Anteriormente, só um fio saia do telefone, sendo o retorno realizado por um fio
terra ( o que gerava muito ruído). Isto começou a tornar possível a transmissão de longa
distancia. Originalmente são necessários dois pares de fio para comunicação entre
telefones. Um dos pares é necessário para transmitir e o outro para receber. Alguns anos
antes foi verificado que o circuito a dois pares poderia ser reduzido para o circuito com
apenas um par, se nos aparelhos telefônicos fosse introduzido um circuito de conversão de
quatro para dois fios. Este circuito é conhecido como híbrida. Entretanto, as pessoas
pensarão que poderiam simplificar o problema mais ainda se utilizassem a terra como
retorno da corrente. O problema é que esta parte do retorno de corrente introduzia muito
ruído na conversação. Com a mudança para o par metálico, este ruído diminuiu e a ligação
telefônica passou a cobrir maiores distâncias. Ainda neste ponto, a ligação intercontinental
de telefones ainda era impraticável.
Nos anos de 1882 a 1884, o Brasil passou a se integrar com maior presença no
sistema telefônico. Em 1882, a cidade do Rio de Janeiro já conta com mais de 300
telefones. No ano seguinte foi instalada por Walter Hemsley, com 75 assinantes a primeira
estação telefônica na cidade de Santos, talvez a primeira do Estado de São Paulo. Em 1884,
começam a funcionar os primeiros telefones na cidade em São Paulo, instalados em janeiro
desse ano por dois concessionários que se unem após uma semana de discussões.
Uma data de muita importância para o sistema telefônico é 28 de fevereiro de 1885.
Neste dia a American Telephone and Telegraph (AT&T) nasceu. O papel da AT&T era
prover conexões de longas distâncias para operadoras telefônicas locais. No entanto,
somente companhias sancionadas pela Bell poderiam ser conectadas a rede da AT&T. Em
1889, William Gray instala o primeiro telefone público do mundo, em Connecticut, no
Hartford Bank.
Um avanço particularmente importante ocorreu em 1890, prosseguindo no
aprimoramento e rapidez das ligações, as baterias foram centralizadas nas estações
telefônicas, surgindo um novo sistema o bateria central. Os aparelhos telefônicos deixam de
ter manivelas e locais para pilhas, reduzindo seu tamanho. Neste sistema, bastava o usuário
retirar o fone do gancho e a telefonista já o atendia. A ligação era completada ainda da
mesma forma, porém, para chamar o telefone pedido era acionada apenas uma chave. Com
as baterias centralizadas, perseguia-se a rapidez no acesso. Ainda no cinema do início do
século XX é comum ver telefones aonde o protagonista tem de utilizar uma manivela para
realizar uma ligação telefônica. A importância da bateria central é que como toda energia
passou a ser fornecida pela bateria na central telefônica, não existia mais necessidade para o
usuário girar uma manivela para avisar a telefonista da sua intenção de realizar a ligação.
Bastava apenas que o mesmo retirasse o fone do gancho.
A Criação da central automática de comutação
Em 1891 é criada a primeira central automática de comutação telefônica. A central
automática não foi adotada pela Bell antes de 1919. No entanto, a automatização de centrais
era o passo necessário para os problemas já mencionados anteriormente criados pela
utilização de telefonistas.
Figura 7- O problema da comutação manual. A expansão do sistema era contrabalançada pela própria
dificuldade inerente a implantação de centrais em duas frentes: questão imobiliária e questão trabalhista.
Por estes motivos pode-se afirmar que a criação de centrais automáticas foi
elemento chave na expansão do sistema telefônico. Em 1891, Almon Brown Strowger,
empresário funerário de Kansas City com grande habilidade na construção de aparelhos
elétricos e telegráficos, cria o embrião da primeira central telefônica automática comercial.
Seu objetivo era simples e claro: livrar-se da concorrência desleal de uma telefonista
de La Porte, Indiana, esposa de outro proprietário de empresa funerária, que não
completava as ligações de possíveis cliente para seu estabelecimento. A telefonista se
“equivocava” quando alguém pedia uma ligação para a funerária de Strowger. Na realidade
esta história é apócrifa, mas o fato real é que Strowger inventou a primeira central
automática de comutação
Para realizar estas tarefas a central Strowger possuía um circuito de assinante, um
seletor de linha (linefinder), um apontador (alloter), seletores de grupo e um seletor final. A
seleção e o apontamento eram realizados por movimentos verticais e horizontais. De
qualquer modo através da movimentação vertical e horizontal, era possível conectar um
telefone a outro dado telefone.
(a)
(b)
(c)
Figura 8 – A idéia por trâs da central Strowger. (a) o objetivo primordial da central automática de
comutação era conectar telefones sem a intervenção de um operador humano. (b) A central Strowger realizava
isto combinando movimentos de elevação com movimentos de rotação. (c) no entanto a central completa
possuia diversos módulos baseados no mesmo princípio para realizar a comutação.
A central de Strowger era baseada em vários elementos, mas para entender quais são
estes elementos, tem-se de entender quais são as tarefas que uma central automática deve
realizar para completar uma ligação telefônica:
-
Detectar que o assinante chamador tirou o fone do gancho
-
Tornar ocupada a sua linha tal que ele não seja interrompido
-
Reservar equipamento para o usuário se possível
-
Indicar ao usuário que ele pode prosseguir com sua chamada
-
Aceitar as informações para conexão do chamador e rotear a chamada de acordo
-
Conectar a chamada ao assinante a ser chamado
-
Retornar informação de ocupado se ocupado ou tocar campainha se livre
-
Tocar a campainha e cessar de tocar quando o assinante atender
-
Detectar que o assinante atendeu e registrar isto na conta do chamador
-
Avisar aos engenheiros em caso de falha
O circuito de Linha de Assinante realizava a tarefa de detectar que o assinante tirou
o fone do gancho e tornava ocupada esta linha. Além disto, ele recebia o par de fios
(denominados a e b) do terminal de assinante. A estes, ele juntava mais um par de fios
(Medição e Privado) e utilizava pares de reles (denominados L e K) para realizar a função
de detectar o fluxo de corrente nos fios do assinante. O Seletor de Linha (Linefinder) e
apontador (alloter) realizavam a tarefa de reservar equipamento para o usuário se possível.
Como a central tem muitos usuários e poucos seletores, o seletor de linha procura um
seletor livre. Do mesmo modo o apontador tinha a finalidade de conectar o assinante ao
seletor de grupo. Geralmente o apontador tinha movimentos tanto de elevação quanto de
rotação (servindo de 100 a 200 assinantes). Os seletores de grupo é que efetivamente
realizavam a conexão do telefone. Cada seletor de grupo era responsável pelo tratamento de
apenas 1 dígito da ligação (determinado somente pelo movimento vertical), apenas o seletor
final era responsável por dois dígitos (tanto o movimento vertical quanto o de rotação).
Figura 9 – O seletor de Strowger. (a) a patente de 1891. (b) Foto de um seletor real. Note que o
mesmo pode realizar movimentos de elevação e rotação.
Um ponto muito importante é que com a eliminação das telefonistas em centrais
automáticas, perdeu-se a forma de comunicação mais tradicional em que o usuário avisava
a telefonista com qual assinante ele queria se conectar. Passou-se a ser necessária a
determinação de uma forma de sinalizar de modo automático a forma de proceder a ligação.
Um ponto importante é que a central automática era bastante cara. Portanto, exceto em
centros urbanos de grande volume de ligações, a disseminação deste tipo de central foi
bastante limitada.
Mas quanto a sinalização, 1896 surgiu o disco decádico que é ainda utilizado nos
dias de hoje. O sistema anterior de 1892 (criado com a central automática de Strowger)
utilizava botões. No sistema a disco: o número de pulsos do número discado informa a
central Strowger de quanto deve ser a elevação nos grupos seletores e a elevação e rotação
no estágio final. Esta informação era transmitida através de pulsos. Se a sequência de
pulsos 123 fosse transmitida, significava que o telefone iria emitir um pulso, em seguida
dois pulsos e finalmente três pulsos. Esta mesma sinalização pode ser realizada através do
gancho do telefone. Por este motivo, o uso de cadeados em discos decádicos nunca
realmente impediu alguém de realizar uma ligação telefônica.
Esta transmissão de dados tem o objetivo de informar ou sinalizar para central o
número a ser chamado. Com a substituição parcial das telefonistas por sistemas
eletromecânicos torna-se necessário definir como estes sistemas processam uma ligação
telefônica. Este processamento constitui o que é chamado de sinalização telefônica. Ou
seja, a sinalização representa os meios através dos quais a rede é gerenciada e as chamadas
são estabelecidas, mantidas e finalizadas. A mesma é necessária para que as informações de
controle sejam trocadas entre as centrais e para que a comutação ocorra entre todas as
centrais de um país e até mesmo em diferentes países. Na processo de sinalização são
trocadas entre as centrais (e mesmo para o terminal telefônico do assinante) informações de
encaminhamento, estado das linhas e controle das conexões.
A importância da sinalização com advento das centrais automáticas é clara na
medida que consideram-se as seguintes questões:
1) Como informar para a central que um dos assinantes desligou o telefone?
2) Como informar para a central que o telefone esta ocupado?
3) Como informar para a central que a ligação com outra central não pode ser
completada?
4) Como realizar o processo de tarifação de uma chamada?
Podemos dividir em primeira aproximação a questão da sinalização em duas
categorias. A primeira é a sinalização acústica que esta intrinsecamente ligada ao assinante.
Esta constitui uma comunicação audível com o usuário, a transmissão do número
discado/teclado entre as centrais na tentativa de estabelecer chamadas telefônicas e um sinal
para fazer o telefone tocar. Nesta categoria temos ainda o tom de discar (sinal de 425 Hz), o
sinal de chamada (campainha de 25 Hz) e outros tons de chamada. Na outra categoria
temos a sinalização entre equipamentos. Esta pode ser entre centrais ou entre centrais e
terminais de assinante. Neste tipo de sinalização tem-se a transmissão de informação entre
centrais indicando que a chamada foi finalizada e que os meios utilizados podem ser
liberados, a transmissão de informação entre centrais indicando que a chamada não pode
ser completada, a transmissão de informação utilizada para tarifação e por fim informação
utilizada para detectar e isolar sistemas com falhas.
As funções da sinalização são supervisão, endereçamento e informações sobre a
chamada. Na supervisão a sinalização é utilizada para monitorar o estado dos circuitos de
voz. No endereçamento a sinalização fornece as informações de encaminhamento (ex.
dígitos discados pelo usuário chamador). No caso de informações sobre a chamada a
sinalização é responsável pelo tom que o assinante chamado está sendo avisado, ocupado,
congestionamento na rede).
Com este avanços, em 1902 os telefones se tornaram mais parecidos com os de
hoje. Este telefones tinham bateria na Central, disco decádico, bocal para transmitir e
auscutador para receber. Naturalmente, O desenvolvimento da Central de Passo por
Strowger permitiu ao sistema telefônico alcançar maior número de assinantes. Mas ainda
havia alguns problemas para resolver. O primeiro era a questão de como transmitir a voz
por longas distâncias. O segundo era como otimizar centrais automáticas em regiões com
grande número de assinantes. Estes temas serão discutidos em seções posteriores
Ligações telefônicas de longa distância
Ao mesmo tempo, em outros locais do mundo diversos acontecimentos relevantes
para as telecomunicações ocorreram. Em 1893 no Brasil, o Padre Landell de Moura realiza
com êxito, na cidade de São Paulo, as primeiras transmissões de sinais telegráficos e da voz
humana em telefonia sem fio no mundo. Curiosamente, anos mais tarde ele foi
praticamente expulso da cidade de Campinas tendo sido acusado de bruxaria. Grande parte
de seus experimentos foram destruídos pelos acusadores. Em 1895, Gugliemo Marconi
demonstra a possibilidade de transmissão de sinais rádio elétricos e faz experiências nos
jardins da casa de seu pai, em Pontecchio, Itália. Marconi tem então apenas 21 anos. Suas
mensagens transmitidas por rádio (sem fios) já atingem uma milha (1,6 km) de distância.
Korn tenta com êxito, a transmissão de fotografias por meio de fios (telefotografia). Na
Rússia Imperial, Popov utiliza antena aérea e faz funcionar um telégrafo sem fio. Em 1896,
Marconi consegue, em Londres, a primeira patente mundial para o telégrafo sem fios. Ao
chegar da Itália, a alfândega britânica danifica os “misteriosos aparelhos” que ele trouxe
para demonstrar a viabilidade da transmissão de sinais de rádio. No Brasil é inaugurada a
Companhia Rede Telefônica Bragantina (CRTB) que, à época (1896 a 1916), talvez tenha
sido a maior companhia a operar em território brasileiro (1641km de linhas telefônicas).
Em 1897, Marconi consegue completar uma comunicação sem fio entre navios de guerra
italianos.
Com relação ao problema das longas distâncias, a primeira solução para aumentar
substancialmente o raio de atuação dos telefones é desenvolvida pelo Prof. Michael Pupin.
O processo mais tarde se chamará de pupinização. A idéia é baseada no carregamento da
linha por indutores. O carregamento tem como objetivo contrabalançar o efeito capacitivo
natural das linhas telefônicas. O carregamento por indutores permite alcançar maiores
distancias que sem o mesmo. Com o carregamento indutivo, tem-se o seguinte objetivo:
diminuir as distorções do canal telefônico na faixa de voz através do aumento destas
distorções fora da faixa de voz. Com isto o sinal através de linhas pode alcançar maiores
distâncias em detrimento da limitação da faixa de voz de 0 Hz a 4 kHz. Este fato terá
consequências posteriores quando forem desenvolvidos os primeiros sistemas de
comunicações de dados.
Com relação a transmissão de voz por longas distâncias, em 1901 Marconi consegue
transmitir sinais telegráficos, pelo telégrafo sem fios, através do Oceano Atlântico, entre a
Terra Nova (Canadá) e Cornualha (Sul da Grã-Bretanha). Em 1903, o físico alemão Korn
transmite imagens utilizando o telégrafo. Theodore Roosevelt e Clarence Mackay trocam o
primeiro telegrama à volta do mundo, em nove minutos. Mas em 1904, o cientista inglês
John A. Fleming inventa a válvula termoiônica eletrônica (ou válvula de Fleming),
patenteada com a finalidade expressa de “detectar sinais de rádio”. Em 1906, Reginald A.
Fessenden, físico norte-americano, faz a primeira demonstração da emissão radiofônica
autêntica, transmitindo a voz humana e tocando seu próprio violino para seus raros
“ouvintes” no primeiro “programa” de “broadcasting” da história. Enquanto isso, na
Alemanha, Karl Ferdinand Braun (que dividirá o Prêmio Nobel com Marconi em 1909) vê
sua válvula de raios catódicos ser aplicada no primeiro aparelho de televisão construído no
mundo, numa experiência pioneira.
Mas o ponto mais relevante para a transmissão telefônica de longa distância foi
dado por Lee de Forest ao inventar a válvula de três pólos (triodo) em 1906. Esta válvula
pode ser utilizada como amplificador de sinais elétricos. Em 1907, Theodore Vail
(presidente da AT&T) encomendou aos pesquisadores da Bell para construírem um
amplificador baseado na válvula. No final a AT&T comprou a patente de de Forrest. Com o
sucesso da válvula triodo, a primeira ligação transcontinental logo ocorreu. A válvula triodo
se baseia no princípio que dois dos terminais são responsáveis pela passagem de uma
corrente significativa. Entre os dois terminais existe um outro terminal que regula quanta
corrente pode efetivamente atravessar. Se este terminal for ligado a um sinal elétrico fraco,
a corrente que atravessará a porta será determinada por o sinal fraco. Na realidade a
corrente será proporcional a este sinal fraco. Sendo portanto uma cópia do sinal fraco com
muito mais potência.
Em 25 de janeiro de 1915 Alexandre Graham Bell, na solenidade da inauguração da
ligação transcontinental, Nova York- São Francisco, repete a seu velho amigo Thomas
Watson a frase de 10 de março de 1876: “Mr. Watson come here. I need you.”. Watson, na
outra ponta da linha, a mais de 4 mil quilômetros, responde: “Desta vez, o senhor terá que
esperar um pouco mais para que eu atenda o seu chamado. Dentro de uma semana estarei
em Nova York.”. O limite anterior era de Nova York a Denver, contando com dois circuitos
metálicos, 2500 toneladas de cobre e 130000 postes. Tinha ainda um número enorme de
indutores de carregamento (pupinizados). E ainda assim só funcionava se os interlocutores
gritassem. A partir da introdução da válvula triodo como amplificador, o problema de
ligações telefônicas transcontinentais estava resolvido.
Tráfego telefônico
No entanto, o problema de como otimizar centrais automáticas em regiões com
grande número de assinantes ainda precisava ser solucionado. A solução foi dada por Agner
Krarup Erlang. Este pesquisador dinamarquês, conhecido como A. K. Erlang, foi o
primeiro a estudar o problema de redes telefônicas. Através do estudo de uma central em
sua vila ele chegou a formula hoje consagrada em todas as companhias telefônicas. Seu
primeiro trabalho foi publicado em 1909 e o segundo mais influente em 1917.
O problema que Erlang se dedicou foi como um grande numero de usuários podem
compartilhar de um pequeno numero de canais? De modo similar, este problema é
equivalente ao de como dimensionar os circuitos e troncos de centrais. A solução é permitir
o acesso de acordo com a demanda de uma série de canais disponíveis, ou seja,
disponibilidade de canais de acordo com chamadas. Este é um problema de tráfego (mais
apropriadamente da teoria de filas e de cadeias de Markov). Ao ouvir a palavra tráfego
muito possivelmente a primeira idéia é a de carros em uma via. Podemos imaginar um
sistema (loja, barbearia, etc.)cujo objetivo é atender os usuários. A este volume de
solicitações que o sistema deve atender é que associamos a idéia de tráfego. O estudo do
tráfego telefônico é importante pois permite às operadoras dimensionar e ampliar suas
centrais e os meios de transmissão que as interligam oferecendo um serviço de qualidade
bem determinada a um custo baixo.
No caso da telefonia, a chamada ocupa um determinado circuito, por um certo
tempo. Durante este tempo, outra chamada não pode ocupar este circuito. Então, tráfego é a
ocupação de um circuito, medido pelo tempo desta ocupação, em segundos, minutos, horas,
etc... Então, como a intensidade do tráfego telefônico é definida a partir da taxa de
ocorrência de chamadas e da duração dessas chamadas. Quanto maior a taxa de ocorrência
e/ou maior a duração dessas chamadas, maior será a intensidade de tráfego. A intensidade
de tráfego telefônico está diretamente ligada ao número de minutos que o circuito é
ocupado em um período de observação. Se em um tempo de observação de 60 minutos
ocorreram 6 chamadas telefônicas com tempo médio de 10 minutos, então o volume de
tráfego é de 60 minutos. A unidade de tráfego é o Erlang (Erl) que indica a razão entre o
volume de tráfego e o tempo de observação. Neste caso: tráfego é de 1 Erlang.
Existem outras unidades de tráfego em utilização no mundo, entre estas podemos
destacar:
-
A Traffic Unit (TU) e a Verkehseinheit (VE), como o Erlang, indicam a
quantidade média de chamadas simultâneas.
-
As unidades Cent Call Seconds (CCS), Hundred Call Seconds (HCS) e Unit Call
(UC) indicam a quantidade média de chamadas por hora, tomando-se como base
um tempo médio de chamada de 100 s.
-
Finalmente, as unidades Appels Réduits a L`heure Chargée (ARHC) e Equated
Busy Hour Call (EBHC) indicam a quantidade média de chamadas por hora,
tendo por base um tempo médio de chamada de 120s
Como o tráfego é variável ao longo do tempo, utiliza-se o conceito de hora de maior
movimento (HMM) para dimensionar os circuitos telefônicos. A variação do tráfego ao
longo do tempo pode ser vista na figura 10.
Figura 10 – Variação do tráfego ao longo de um dia (24 horas). Além desta variação, o tráfego sofre
variações semanais, mensais e sazonais.
O tráfego em conjunto com o número de canais disponíveis determina o que é
chamado de qualidade de serviço ou grau de serviço (Grade of Service -GoS). Este é um
padrão usado para definir o desempenho desejado de um sistema dada a especificação da
probabilidade desejada que o usuário obtenha acesso a um canal dado um certo numero de
canais no sistema. Tipicamente se valor é igual a probabilidade que uma chamada seja
bloqueada ou que uma chamada tenha um atraso maior que um determinado tempo. Em
outros termos seu valor numérico é igual à porcentagem das chamadas oferecidas que são
rejeitadas (por exemplo 1 chamada não completada em cada 100).
Erlang estudou dois tipos de sistemas de acesso a circuitos telefônicos. O primeiro é
chamado de Erlang B (B de Blocked). Neste esquema as chamadas que não conseguem
canais livres para realizar a conexão são descartadas. O segundo é chamado de Erlang C (C
de Cleared). Neste esquema as chamadas que não conseguem canais livres para realizar a
conexão são alocadas em uma fila para atendimento posterior.
Em Erlang B supõe-se uma distribuição de probabilidade de Poisson para a
ocorrência de chamadas, com um número infinito de usuários. Estes usuários podem
requisitar chamadas a qualquer hora. O tempo de retenção da chamada (tempo de chamada)
tem uma probabilidade do tipo exponencial decrescente e o número de canais disponíveis é
finito. Neste esquema, a probabilidade de bloqueio de uma chamada (qualidade de serviço)
é dada pela expressão:
AC
Pr(bloqueio) = C C! k
A
∑
k = 0 k!
Onde C e o numero de canais e A e o tráfego total (em Erlangs). Com esta
expressão é possível responder a questões como: Para um sistema com 20 Canais e taxa de
bloqueio de 1% (1 chamada bloqueada em cada 100 chamadas) com chamadas de tempo
médio de 2 minutos e 2 chamadas por hora, Qual o número de usuários possível?
Com o uso da expressão chega-se que o número de 180 usuários.
Em Erlang C supõe-se haja uma fila para armazenar chamadas bloqueadas. Neste
caso a Qualidade de serviço medida como probabilidade que uma chamada seja bloqueada
depois de esperar determinado tempo na fila. Erlang C permite determinar atraso médio no
sistema. Apesar deste cálculo não ser demasiado interessante para sistemas telefônicos
comuns, sua aplicação maior está na utilização para dimensionar memórias (buffers) em
sistemas de roteamento por comutação de pacotes.
Para um sistema com C canais e tráfego A:
Pr( atraso > t ) =
AC
C −1
A⎞
⎛
A C + C!⎜1 − ⎟∑
⎝ C ⎠ k =0
⎛ [C − A]t ⎞
exp⎜ −
⎟
H ⎠
A
⎝
k!
k
O atraso médio do sistema e dado por:
Atraso =
AC
C −1
A⎞
⎛
A C + C!⎜1 − ⎟∑
⎝ C ⎠ k =0
H
A C−A
k!
k
Assim com estas expressões é possível responder a questões como a de um sistema
com probabilidade de 5% de chamada atrasada tem 15 canais com uma carga por usuário
de 0.029 Erlangs com uma taxa de requisição de 1 chamada por hora. Quantos usuários o
sistema suporta?
Este sistema suporta 310 usuários e o atraso médio é de 0.87 segundos.
A teoria de tráfego de Erlang ainda levou muitos anos antes de ser adotada no
projeto de sistemas telefônicos. No entanto, hoje em dia esta teoria se encontra presente no
dimensionamento de diversas partes do sistema.
A evolução da telefonia e a multiplexação
A evolução das centrais automáticas continuou. Em torno de 1910 a central crossbar
foi inventada, mas nao foi utilizada em massa ate 1930. Em 1920, nasce a radiodifusão no
mundo, com a inauguração da emissora KDKA, em Pittsburgh, que inicia sua programação
regular. A 9 de julho, o tenor dinamarquês Lauritz Melchior irradiava sua voz num
programa experimental de rádio na Inglaterra transmitido pela Marconi Company. No
Brasil, em 1922, no dia do Centenário da Independência do Brasil, Roquete Pinto e
Henrique Morize transmitem o discurso de Epitácio Pessoa pelo rádio, fazendo com que
centenas de paulistas ouvissem a voz do Presidente da República por meio de alto-falantes
instalados na Praça da Sé. A estação transmissora foi instalada no alto do Corcovado. Era a
primeira transmissão radiofônica no Brasil. Induzidos no país os serviços de telegrafia e
telefonia via rádio entre Rio de Janeiro, Nova Iorque, Roma, Paris, Londres e Berlim,
havendo, na oportunidade, comunicação direta entre os presidentes Epitácio Pessoa, do
Brasil, e Herbert Hoover, dos Estados Unidos. Na Capital do Rio Grande do Sul, Porto
Alegre, no dia 30 de abril, é inaugurada a primeira central telefônica automática do país, a
terceira da América. Em 1923 em um laboratório da Westinghouse, o cientista Vladimir
Kosma Zworykin (nascido na Rússia e naturalizado norte-americano) desenvolve o
iconoscópio, elemento básico para a futura realização da televisão. No Brasil, em 1925 é
inaugurada, em Rio Grande (RS), a 21 de novembro, a segunda central telefônica
automática do país.
Em 1926 são conseguidas as primeiras ligações telefônicas intercontinentais através
do Atlântico Norte. No Brasil, em 1927 é inaugurada em Recife (PE), a 03 de dezembro, a
terceira central telefônica automática do país. No mesmo ano são realizadas as primeiras
demonstrações de televisão na Inglaterra (Baird) e nos Estados Unidos (Laboratórios Bell)
e é desenvolvido o projeto do amplificador com realimentação negativa (negative feedback)
de Harold S. Black.
As ligações telefônicas intercontinentais exigiram mais um avanço com relação aos
sistemas de transmissão. Mesmo em 1913, foi inaugurado o primeiro cabo interurbano
subterrâneo no Brasil, constituído de 30 pares ligando Santos e São Paulo, numa distância
de cerca de 70 quilômetros. Mais tarde foi obtida permissão para ligar Campinas. No
entanto a transmissão transatlântica exige um sistema de rádio para tanto. A ligação era
entre a Inglaterra (Rugby) e New Jersey (Deal) - Tinha 14 canais (frequências). A
transmissão dos 14 canais necessitava que os sinais de áudio de 4 kHz (3.1 kHz) fossem
transladados em frequência. Criou-se de uma forma natural a hierarquia multiplex FDM. A
multiplexação é o processo pelo qual se pode transmitir, “simultaneamente”, diversos sinais
através de um único canal e separá-los no extremo-receptor.
Sinal 1
Sinal 1
Sinal 2
MUX
Canal de
Transmissão
Sinal 2
DEMUX
Sinal n
Sinal n
Figura 11 – Esquema da multiplexação. Diversos sinais são inseridos em um único canal de transmissão (com
maior banda naturalmente).
No FDM, com a criação do esquema de multiplexação nasceu ao mesmo tempo uma
hierarquia para transmissão. A hierarquia tinha a seguinte formação:
-
O primeiro MUX: Grupo Básico – composto por 12 canais telefônicos,
ocupando a faixa padronizada de 60 a 108kHz.
-
O segundo MUX: Super Grupo Básico - composto por 5 grupos de 12 canais,
tendo um total de 60 canais, formando o “Super Grupo Básico” e ocupando a
faixa de 312 a 552kHz.
-
O terceiro MUX : Grupo Mestre - formado por 5 super grupos, uma banda base
de 300 canais, chamada Grupo Mestre e ocupando a faixa de 812 a 2044 kHz.
-
O quarto MUX : Super Grupo Mestre - formado por 3 grupos mestre, uma banda
base de 900 canais, chamada Super Grupo Mestre.
-
O quinto MUX : Banda Básica de 60 MHz - formado por 12 super grupos
mestre e uma banda base de 10800 canais.
Figura 12 – Montagem da hieraquia de multiplexação FDM.
Em 1928 no Brasil é inaugurada a primeira (quarta no país) central telefônica
automática na cidade de São Paulo (SP), com o prefixo “5”. No ano seguinte foi
inaugurada, em 24 de dezembro, a primeira central telefônica automática na então capital
da República (Rio de Janeiro).
Em 1931, as ligações telefônicas entre França e Inglaterra, no Canal da Mancha, já
são feitas por microondas. Este tipo de ligação é bem mais sofisticado e com banda base
muito superior a ligação de 14 canais de 1926. Este tipo de enlace é chamado de enlace em
visada direta. Suas vantagens inerentes tornaram sua escolha como o padrão para conexão
de longas distâncias continentais até o aparecimento do enlace por satélite nos anos 60. Um
ponto interessante é que as hierarquias FDM (na realidade todas as outras também) exigem
frequências mais elevadas para transmissão de voz nos grupos superiores ao grupo mestre.
Esta necessidade impulsionou o desenvolvimento de sistemas de frequências mais elevadas
com capacidade de transmitir um número maior de canais. É também deste período o
desenvolvimento do transceptor super-heteródino. Este tipo de transceptor é fundamental
para o desenvolvimento de sistemas de comunicação com maior capacidade de canais.
Naturalmente, o desenvolvimento de uma hierarquia de multiplexação não ocorreu
isoladamente, o desenvolvimento de uma hierarquia de centrais foi uma ocorrência
paralela. Nos idos dos anos 30, a hierarquia apresentava-se de modo diferente da mostrada
neste texto. A razão é que a denominação atual é significativamente mais moderna. O
CCITT padronizou a hierarquia de centrais seguindo classes. A central de classe mais
elevada é a classe 5. Este tipo de central é determinada por estar ligada a pelo menos uma
central trânsito internacional. Abaixo destas temos as classes 4 (trânsito interurbana), 3
(trânsito urbana), 2 (tandem) e 1 (local). A central classe 1 é a conhecida central local (CO).
Esta capilaridade é importante para poder atender os requisitos de roteamento e presença.
Um exemplo dos tipos de conexões entre centrais é mostrado na figura 13.
Figura 13 – Hierarquia das centrais e a capilaridade com as respectivas conexões.
Em 1937 as linhas de longa distancia nos EUA passam de aéreas para subterrâneas.
Neste mesmo ano, FDM foi utilizado com cabos coaxiais nos EUA. A razão desta mudança
pode ser facilmente entendida a partir da figura 14.
Figura 14- Razões para multiplexação com cabos coaxiais
Em 13 de fevereiro de 1938 o sistema Bell instala a primeira central CrossBar nos
EUA. Conhecida com No.1 Um comutador crossbar consiste de uma malha de barras
verticais e horizontais magneticamente ativadas. O equipamento de controle comum
ativava os comutadores. Os equipamentos chave eram:
-
Registradores - buffers utilizados para guardar o numero chamado. Este
números eram guardados ate um marcador se tornar disponível
-
Marcadores - responsáveis por atuar nas barras.
O Sistema da crossbar era caracterizado por ter Acessibilidade Limitada (nem todas
as ligações eram possíveis), sendo construído a partir de módulos de comutação. A
comutação deixou de ser passo a passo como na Strowger. Por este motivo houve a
implicação no desenvolvimento de uma hierarquia de centrais. Em conjunto com a
multiplexação há uma necessidade inerente no aperfeiçoamento da sinalização. Um
exemplo de módulo comutador crossbar e de uma central crossbar podem ser vistos na
figura 15.
Figura 15 – Módulo comutador crossbar e central crossbar.
A revolução digital
A partir de 1939, o mundo entrou na Segunda guerra mundial. O Estados Unidos
passaram a fazer parte da guerra no final de 1941. No entanto, após o final da guerra as
telecomunicações passaram por uma revolução (no sentido mais revolucionário da palavra).
A razão é que na década de 1948 a 1958 foi o período que se desenhou a mudança de
paradigma das telecomunicações e da eletrônica. Foi durante este período que surgiram: o
transistor, códigos corretores de erro, a teoria da informação, a modulação por codificação
de pulsos (PCM) e o início das comunicações ópticas (Lasers) e de satélite (Masers).
O desenvolvimento do transistor tem uma razão de ser. Com o triodo o sistema
telefônico conseguia alcançar longas distancias. De modo similar com as centrais Crossbar,
o sistema conseguia comutar grandes quantidades de tráfego. No entanto, havia problemas.
O Triodo consumia muita energia e as centrais consumiam muita energia e eram muito
grandes. A solução era a miniaturização. Ou seja, desenvolver um componente em estado
solido miniaturizado que pudesse realizar as funções do triodo e desenvolver um
componente em estado solido miniaturizado que pudesse realizar as funções de chave
(barras de comutação). Esta solução se materializou no transistor.
O transistor - construído em 1947, o transistor foi apresentado ao mundo em 1o de
julho de 1948. Seus criadores foram John Bardeen, William Shockley e Walter Brattain.
Este novo dispositivo podia funcionar tanto na amplificação quanto como chave.
Figura 16 – Os criadores do transistor, seu uso em um circuito de amplificação e uma foto de um
protótipo
Um outro problema que surgiu com os estudos é as transmissões de longa distancia
dependiam da potência do transmissor e da sensibilidade do receptor. Em última análise: a
relação sinal-ruído limitava a transmissão de sinais analógicos. A solução para transmitir
mais a longa distância era o uso de sinais digitais (não contínuos em amplitude e no tempo -
facilita recuperação). O uso de sinais binários (+ X Volts e – X Volts) facilita a recuperação
do sinal original. Pois a informação que o sinal é binário ajuda a reconstrução da forma do
sinal. Para garantir que o sinal corrompido pelo ruído seja recuperado é necessário enviar
bits extras de verificação (ocorreu o erro ou não?). Com isto surgiram os primeiros códigos
corretores de erro. Nascia a codificação de canal. Em 1948, Richard W. Hamming cria os
primeiros códigos corretores de Erro. Isto permite a primeira verificação de uma mensagem
enviada em formato digital. A idéia por trás dos códigos corretores de erro é a introdução
de redundância controlada (bits a mais) de modo que a probabilidade de erro seja
minimizada do valor que for desejado.
A mudança da transmissão analógica para digital trouxe uma outra questão: quanto
de informação eu posso transmitir pelo canal se eu me valer da transmissão digital? Em
1948, Claude Elwood Shannon desenvolve a teoria matemática da informação. Esta teoria
permite calcular o máximo de informação que um canal pode transmitir dada a sua banda
(Bw) e relação sinal ruído (S/N). Shannon chegou a seguinte expressão para um canal
estacionário com ruído branco gaussiano:
S⎞
⎛
C = Bw log 2 ⎜1 + ⎟(bit / s )
N⎠
⎝
Exemplos de aplicação das formulas de Shannon
- Canal Telefônico
C = 3100 log 2 (1 + 3981) = 37.074kbps
- Rede de Acesso (Loop de Assinante – ADSL)
C = 772000 log 2 (1 + 63.09) = 4.663Mbps
Portanto a máxima taxa possível de ser transmitida entre dois assinantes é de 37
kbps. No entanto, a máxima taxa possível de ser transmitida entre um assinante e a central é
de 4.6 Mbps. Esta é a razão pela qual o modem ADSL é significativamente mais veloz que
o modem comum.
Como o sinal digital possui tantas vantagens e posso enviar informação é
interessante montar o sinal telefônico de modo a aproveitar esta nova tecnologia. Para tanto
a multiplexação necessita ser efetuada no tempo, a razão é a que o canal passa a ser digital.
Em 1948, Claude E. Shannon, John R. Pierce e Bernard M. Oliver criam o código PCM que
permite transmitir múltiplas conversações telefônicas por o mesmo fio. Como o PCM foi
desenvolvido nos Estados Unidos, criou-se uma padronização própria (que não foi seguida
ao redor do mundo). O canal de voz de 4 kHz era amostrado a uma taxa de 8000 amostras
por segundo, e cada uma destas amostras era quantizada com 7 bits (128 níveis). Isto
permitia uma taxa de 56 kbps. Além destes 7 bits, 1 bit a mais era utilizado para
sinalização. A taxa total de transmissão era de 64 kbps. Como cada quadro PCM tem 24
canais, a taxa global do quadro é de 1.544 kbps. Este esquema é conhecido como T1.
No restante do mundo o PCM tomou outra forma. O canal de voz de 4 kHz era
amostrado a uma taxa de 8000 amostras por segundo, e cada uma destas amostras era
quantizada com 8 bits (256 níveis). Isto permitia uma taxa de 64 kbps. Cada quadro PCM
suportava 30 assinantes, mas além destes 30 canais, 2 canais foram adicionados para
sinalização e serviços. Como cada quadro PCM tem 30+2 canais, a taxa global do quadro é
de 2.048 kbps. Este esquema é conhecido como E1.
32 canais
24 canais
Tempo
Tempo
8 bits
7 + 1 = 8 bits
(a)
PAÍS
EUA &
Canadá
Inglaterra
(b)
ETAPA DE MULTIPLEXAÇÃO
1°
24
2°
x4
3°
96 x7
6,312Mb/
s
30
x6
x1
4
x3
s
x4
2,048Mb/
s
120
480
EUROPA
x4
8,448Mb/
s
Itália
Itália
Japão
(NTT)
4°
672
EUA & CANADÁ
44,736Mb/
1,544Mb/
s
Alemanha
Brasil &
França
Janela do Canal 3
Janela do Canal 2
Tempo de Guarda
Janela do Canal 1
Freqüência
Janela do Canal 3
Tempo de Guarda
Janela do Canal 2
Tempo de Guarda
Janela do Canal 1
Freqüência
Tempo de Guarda
Quadro
Quadro
24
1,544Mb/s
x4
5°
4032
274,176Mb/
s 4032
120Mb/s
1440
x4
108Mb/s
x4
5760
442Mb/s
1920
34,368Mb/
s
139,264Mb/
x4s
1920
7680
x4
139,264Mb/
565Mb/s
s
480
1440
5780
x4
x5
x4
32,064Mb/s 97,728Mb/s
397,2Mb/s
96
JAPÃO
6,312Mb/s
(c)
Figura 17 – Quadros PCM. (a) quadro PCM T1. (b) Quadro PCM (E1). (c) Hierarquia plesiócrona.
A criação do TDM permitiu o T1 em 1962. A partir do T1 formou-se a hierarquia
digital plesiócrona (PDH). Mas devido a questões de padronização diversas
implementações foram realizadas
Em 17 de agosto de 1951, o primeiro sistema transcontinental de microondas passou
a operar. 137 repetidoras espaçadas 45 km ligavam Nova York a San Francisco. O inicio
foi em 1947, 600 conversações ou dois canais de televisão poderiam ser enviados por este
meio.
Enquanto isto, em 1950 no Brasil entra em funcionamento a primeira estação de
televisão da América Latina em São Paulo (PRF-3-TV), a então TV Tupi, canal 3, no dia
18 de setembro. No ano seguinte, os norte-americanos fazem a primeira transmissão de TV
a cores em Nova York. Em 1957 é lançado, pela URSS, o primeiro satélite artificial Sputinik .No mesmo ano no Brasil em 8 de agosto tem início a operação da primeira central
manual de telex.
O primeiro cabo submarino veio em 1956. Este sistema era composto por 2 cabos
coaxiais separados de 60 km que cruzavam o atlântico, 50 repetidores eram utilizados no
sistema. O sistema podia transmitir inicialmente 12 conversações simultâneas. Este sistema
ainda utilizava tecnologia analógica. O problema de comunicações a longa distância ainda
não estava totalmente resolvido, dois anos antes da inauguração deste cabo submarino John
R. Pierce sugeriu que sinais refletidos de um objeto passivo refletor grande em órbita
poderiam ser utilizados para comunicação de longa distância.
Em 1957,os físicos Charles Townes e Arthur Schawlow expõem o princípio do
“Maser” (Microwave amplification by estimulated radiation) - Usado para comunicações
via satélite em 1962. Em 1958,os mesmos físicos expõem o princípio do “Laser” (Light
amplification by estimulated radiation). Este seria peça fundamental na revolução das fibras
ópticas das décadas de 70 e 80. Neste mesmo ano de 1958 é posto em funcionamento, após
4 anos de trabalho, desde a fase de planejamento até sua entrada em serviço, o primeiro
sistema de ligações por microondas da América Latina, ligando São Paulo, Campinas e Rio
de Janeiro. E também, o novo sistema de discagem direta à distância entre Santos e São
Paulo, através de cabo coaxial, o primeiro da América do Sul.
Em 1960, surgia o Echo. Este era fruto das idéias de John R. Pierce e da utilização
do Maser de Townes e Schawlow. O Echo consistia de uma grande esfera inflável com
revestimento metálico atuando com um refletor passivo no espaço.
Figura 18 – O Echo. Este satélite artificial foi utilizado como refletor passivo no espaço
Redes de Comunicação de Dados e Centrais Digitais
No mesmo ano do Echo, Joseph Kleimack e Henry Theurer desenvolveram a
técnica de crescimento epitaxial de semicondutores. Esta técnica possibilitou, anos mais
tarde, o nascimento da microeletrônica (Circuitos Integrados – Chips).
Nos anos de 1961 e 1962, dois artigos de grande importância foram publicados.
Curiosamente, poucas pessoas deram a importância devida quando da sua publicação. Em
31 de maio de 1961 Leonard Kleinrock do MIT publicou “Information Flow in Large
Communication Nets”. Este é o primeiro texto em teoria de comutação por pacotes. Em
agosto de 1962 J.C.R. Licklider & W. Clark também do MIT publicam “On-Line Man
Computer Communication”. Este texto introduz o conceito de uma rede Galática com
interação social distribuída.
No mesmo ano de 1962, outro evento importante ocorreu. O primeiro satélite
mundial de telecomunicações, o Telstar, construído pelos Laboratórios Bell, nos Estados
Unidos, permite a transmissão de TV intercontinental, a 10 de julho desse ano. A 31 de
agosto, é constituído o Comsat, consórcio internacional de comunicação via satélite,
antecessor do INTELSAT. No Brasil, a lei 4.117, institui o Código Brasileiro de
Comunicações e cria o Conselho Nacional de Telecomunicações – Contel.
O nascimento do satélite de comunicações permite a transmissão de ligações
telefônicas para praticamente todos os locais do mundo. Além disto o satélite possibilita a
transmissão de televisão intercontinental. Pode-se afirmar que a globalização das
telecomunicações tem suas primeiras sementes plantadas neste momento. O satélite Telstar
é muito mais do que o repetidor passivo representado pelo Echo. Este novo satélite tem
equipamentos para recepção, amplificação e transmissão de sinais. Este funciona portanto
como um repetidor ativo. A importância é a melhoria na qualidade do sinal transmitido e
recebido pelas estações terrenas. As estações terrenas podem utilizar transmissores e
receptores menos caros.
Figura 19 – O sistema Telstar
Em 1963, o Bell Labs desenvolveu o DTMF (Dual Tone Multiple Frequency) para
substituir a sinalização decádica do telefone a disco. Com isto novos tipos de serviços se
tornaram possíveis. O DTMF é utilizado ainda hoje nos telefones atuais. No Brasil, a lei
4117 transforma-se no Código Brasileiro de Telecomunicações, marco inicial da política
nacional do setor.
Em 1964 ocorre o Golpe de Estado no Brasil. Como consequência, a doutrina de
segurança nacional associada a substituição de importações tem um impacto profundo no
rumo das telecomunicações do Pais. Inicia-se um processo de nacionalização das
telecomunicações. É importante observar que o serviço de telecomunicações antes do golpe
tinha pouca qualidade. No mesmo ano, Paul Baran da RAND (Reserach And Development)
publica o artigo seminal “On Distributed Communications Networks” (Sobre Redes de
Comunicação Distribuída). Este artigo sobre redes de comutação por pacote de dados como
alternativa a redes de comutação por circuito (rede telefônica normal) terá um papel
importante para que departamento de defesa dos Estados Unidos (DoD) inicie a criação da
internet (no início ARPANET).
Em 1965 no Brasil em 16 de setembro é criada a Empresa Brasileira de
Telecomunicações (Embratel). No mesmo ano, após quase uma década de pesquisa e
desenvolvimento a central 1ESS (Electronic Switching System) e lançada nos EUA. Fruto
do Projeto ESSEX no Bell Labs consumiu US$ 500 milhões. Possui Memória (Controle
por Programa Armazenado - CPA). A 1ESS não é uma central digital, mas já apresenta
componentes de estado sólido (transitores e diodos). A comutação era realizada através de
Reles REED, portanto eletromecânica. A grande novidade era o controle de programa
armazenado (CPA).
Figura 20 – A 1 ESS, fruto do projeto Essex.
No Brasil, o projeto de Nacionalizacao vai de vento em popa. Em 1966, o governo
Brasileiro decide adquirir a Companhia Telefônica Brasileira, até então controlada por
capitais particulares canadenses. A antiga CTB atuava em 5 Estados (na Região Sudeste) e
era responsável por 66% dos telefones do país, inclusive a maioria dos que operavam no
Estado de São Paulo. Em 1967, o Decreto-lei nº 200, de 25 de fevereiro, prevê a criação do
Ministério das Comunicações, que se instala a 15 de março. Em 1969, a 3 de março é
lançada a nave Apolo IX e a 16 de julho o homem pisa pela primeira vez na Lua com
transmissão ao vivo pela TV. Criada a ARPANET. O Brasil recebe as primeiras imagens do
Intelsat II. Inaugura-se em 28 de fevereiro, a estação terrena de Tanguá, que permite ao
Brasil integrar-se ao sistema mundial de comunicação por satélite (Intelsat), marcada pela
transmissão ao vivo da benção do Papa Paulo VI. A Embratel inaugura os primeiros
grandes troncos de microondas (Tronco Sul, Rio-Brasília, e parte do Tronco Nordeste). Em
1970 surgem as primeiras fibras ópticas para telecomunicações. Durante esses anos Dennis
Ritchie e Ken Thompson desenvolvem um sistema operacional que se tornou base para as
modernas centrais de comutação digital O sistema é conhecido como Unix.
Na década de 70, o Brasil evoluiu bastante nas telecomunicações. Em 1970, o Brasil
assiste pela primeira vez um campeonato mundial de futebol em transmissões diretas pela
TV e a Seleção Brasileira ganha a Copa no México. No ano seguinte a CTB, sob nova
direção e profunda reformulação, lança o Plano de 1 Milhão de Telefones. Em 1972, a
Embratel completa a implantação do Sistema Básico de Microondas, interligando todos os
Estados e Territórios por troncos de microondas de alta qualidade e serviços de elevada
confiabilidade. A 9 de novembro, instala-se a Telecomunicações Brasileiras S.A., a
Telebrás, empresa “holding” do setor, responsável pela modernização das empresas
governamentais de serviços públicos de Telecomunicações no País. Os primeiros
“Orelhões” (telefones públicos nas calçadas) são instalados em janeiro no Rio de Janeiro e
São Paulo. É realizada a primeira transmissão de TV em cores, no Brasil, a Festa da Uva,
em Caxias do Sul (RS). No ano seguinte é ativado o primeiro cabo submarino para
comunicações internacionais, o Bracon I, de Recife a Las Palmas, na costa da África. Em
1975 o Brasil integra-se ao sistema de discagem direta internacional (DDI). O Governo
Federal decide estudar um sistema doméstico de comunicação por satélite para integrar
todas as regiões ainda não atingidas por serviços públicos de telecomunicações.
Industrializado do primeiro telefone público inteiramente nacional. A 1º de agosto entra em
operação a Rede Nacional de Telex. Em 1976 no Brasil durante Centenário do telefone de
Graham Bell. Inaugura-se do primeiro Museu do Telefone no Brasil, em Bragança Paulista.
No ano seguinte inaugura-se o Museu do Telefone de São Paulo.
Paralelamente a estes acontecimentos, começaram a surgir as primeiras centrais de
comutação digitais. As centrais de comutação eletrônicas criam novos serviços com o uso
de CPAs (Programas Armazenados).Estas centrais utilizam múltiplos estágios para
diminuir o uso da memória (bastante cara nesta época). A centrais mais avançadas passam a
ser digitais. Naturalmente, isto cria um ímpeto a digitalização da rede. A comutação nas
centrais passa a ser temporal (T) além de espacial (S). A comutação espacial (S) é o método
natural para centrais eletromecânicas. Mas a comutação temporal é perfeita para centrais
digitais. A razão é que a comutação temporal nada mais é do que uma troca de bits no
tempo. Na prática, as centrais digitais utilizam-se tanto da comutação temporal quanto
espacial. Normalmente as centrais digitais utilizam comutação TST (Temporal-EspacialTemporal). As centrais TST permitem menor complexidade que as espaciais. Permitem
maior economia com relação as espaciais (dependendo da carga da central). A primeira
central a utilizar esta tecnologia foi a 4ESS (1976). Esta é uma central digital (comutação
T).
Figura 21- Comutação em uma central digital (estrutura TST)
O ímpeto de digitalização da rede levou a mudanças no processamento da ligação:
mudanças na sinalização de registrador (MFC - canal associado para SS7 - canal comum),
mudanças na sinalização de linha (E& M para R2 digital) e digitalização dos canais entre
centrais. Antes a sinalização de Linha utilizava a chamada sinalização E & M (contínua
e/ou pulsada).Quando passou-se para uma rede digitalizada passou-se a uma sinalização
digital (R2). A sinalização de linha em sistemas digitais é a R2 digital. Esta utiliza canais
do PCM para realizar a sinalização (a & b), podendo controlar diversas conexões.
A sinalização de linha pode ser dividida em duas partes: sinalização de linha de
assinante e sinalização de linha entre centrais. A função da sinalização de linha de
assinantes é transmitir informações sobre o estado dos circuitos (ocupação, atendimento,
desligamento, tarifação, disponível ou bloqueado). A identificação do estado da linha é
realizada através da verificação do monofone no gancho ou não através da corrente que
circula no circuito, emissão do número do terminal chamado através do disco ou teclado
decádico. A codificação é a do teclado multifrequencial (DTMF - combinação de
freqüências duas a duas). A sinalização de linha entre centrais é responsável pela
supervisão enlace a enlace dos circuitos que interligam duas centrais. Neste ponto é que a
mudança de sinalização de linha passou a ocorrer.
Figura 22 – Sinalização de linha em diversos meios de transmissão.
No sistema anterior esta sinalização entre centrais era realizada pela transmissão de
pulsos através do canal E e M. A sinalização E + M Contínua se valia da presença ou
ausência de sinal e por utilização de Corrente Contínua (esta era utilizada na interligação
entre centrais. a dois fios, através da variação da intensidade da corrente do circuito). Na
sinalização R2 digital, dois canais PCM são utilizados para envio do sinal e dois PCM para
recepção do sinal. Os canais são:
-
af: monofone no gancho ou não
-
bf: indica falhas na saída do PCM
-
ab: condições da linha do chamado
-
bb: estado do equipamento de comutação de saída (livre ou não)
A mudança na sinalização de registradores teve mais impacto (apesar de ainda não
estar consolidada no mundo até os dias de hoje). A sinalização adotada anteriormente no
Brasil era a MFC. Nos Estados Unidos, esta sinalização era a MF. Além de diversas
diferenças, a sinalização MFC é compelida. Isto significa que cada comando exige uma
resposta. Além disto esta sinalização é multifrequencial (composta de um grupo de
frequências altas e outro de baixas). A frequência de referência é de 1260 Hz. Os sinais
criados podem ser para frente (da central chamadora) ou para trás (para a central
chamadora). Esta sinalização esta gradualmente dando lugar a sinalização por canal
comum.
Enquanto o sistema telefônico corria a passos largos em direção de uma rede
comutada a circuitos totalmente digital, surgiam as primeiras redes comutadas a pacote no
horizonte (ARPANET). Com o aparecimento da ARPANET, também foram criadas as
primeiras aplicações de tráfego de dados servidos pelo sistema telefônico. Ao contrário das
rede comutadas a circuito esta redes eram comutadas a pacotes.
Figura 23- Redes comutadas a circuitos e a pacotes
A transmissão de dados em ambiente comutado a circuitos (linhas telefonicas) era
realizada utilizando MODEMS (Modulador/Demodulador). Em linhas dedicadas poderiam
ser utilizados MODEMS DIGITAIS (Modems Banda Base) ou Interfaces de conexão mais
adequadas (V35, RS232, etc…).Gradualmente passou-se a utilizar canais digitais de maior
capacidade (T1, T2, T3, E1 e E2). O Modem v.22 bis era utilizado em ligação ponto-aponto com linhas dedicadas e operação em modo duplex em linha telefônica comutada; os
canais eram separados por divisão de frequência, o modem possuía equalização adaptativa
e tinha taxas de transmissão de 2.4 kbps e 1.2 kbps com detecção automática da taxa de
transmissão. Estes modems foram bastante comuns no início das ligações de dados para
BBS (Bulletin Board Services).
A evolução dos modems levou a um de grande sucesso que foi o v.32 bis. Este era
utilizado para ligação ponto-a-ponto com linhas dedicadas e operação em modo full-duplex
em linha telefônica comutada. O modem implementava separação de canais por técnicas de
cancelamento de eco. A Modulação era QAM para cada canal com transmissão. síncrona a
2400 símbolos/s. E ainda podia trabalhar a 14.4 kbps, 12 kbps, 9.6 kbps e 7.2 kbps (com
codificação de treliça).
Estes modems eram o prenúncio de algo muito maior no horizonte próximo.
Em 1978 foi ativada, no Japão, a Telefonia Móvel Celular. Dois anos mais tarde no
Brasil, em fevereiro foi implantado o sistema internacional de satélites de comunicação Inmarsat - cobrindo as regiões dos oceanos Atlântico, Índico e Pacífico. Em maio é
introduzido o primeiro serviço de comunicação de dados da América do Sul, o Trandata
interligando Rio de Janeiro - São Paulo - Brasília. Frame relay e concebido no Bell Labs
para uso na ISDN (RDSI). No ano seguinte, é criado o projeto Ciranda, primeiro sistema de
informação, no Brasil, a interligar computadores pessoais (1981-1985). O Projeto Ciranda,
da Embratel, em 1981, marcou o primeiro esforço de informatização da sociedade ocorrido
em um país do Terceiro Mundo. No mesmo ano é criada a BITNET (Because Its There
NETwork) nos EUA.
Em 1982 é instalada em abril, na cidade de São Paulo (Brasil), a primeira Central
CPA (Central com Controle por Programa Armazenado), da América Latina, com o prefixo
572. Em agosto foi inaugurado o primeiro TP Comunitário (telefone público que recebe
chamada) em São Paulo, na favela da Vila Prudente. Dois anos mais tarde, são instalados
pela Cetel, no Rio de Janeiro, os primeiros cabos de Fibra Óptica no Brasil, entre as
estações de Jacarepaguá e Cidade de Deus. São colocados, também, os primeiros pedidos
de escala de Videotexto junto a indústria brasileira (da ordem de milhares de unidades).
Introduzido o primeiro serviço público de correio eletrônico, no Brasil. Ativada a Rede
Nacional de Comunicação de Dados por Comutação de Pacotes - Renpac. A Renpac é o
nome comercial de um conjunto de modalidades de Serviço de Comunicação de Dados por
Comutação de Pacotes, que propicia a interligação entre terminais de dados,
microcomputadores e computadores de grande porte, localizados em qualquer parte do
território nacional e no exterior. O Serviço RENPAC pode ser utilizado por redes
corporativas de grandes empresas, integrando seus equipamentos para a comunicação de
dados, com supervisão e gerência nas dependências da EMBRATEL ou do cliente.
Também atende ao pequeno cliente que deseja ter acesso a bases de dados de seu interesse.
A Renpac foi uma rede publica de comunicação de dados funcionando com ligações
comutadas. Os acessos a rede podiam ser dedicados, via rede telefonica e via rede telex. As
velocidades de acesso eram de 300, 1200, 2400, 4800, (9600, 19.2K, 48K, 64Kbps). A
Renpac se desdobrou em diversos sabores (Renpac 3025, 3028, 2000 e 1000). Cada um
tinha taxas específicas.
Mudanças no cenário de Telecomunicações
Neste mesmo ano (1984) é quebrado o monopólio da AT&T nos EUA. A quebra do
monopólio da AT&T teve repercussões importantes. Podemos destacar o impulso na
utilização de fibras ópticas em BACKBONES (principalmente de longa distancia) alternativa econômica e de banda larga. A criação da possibilidade de novos serviços
através da ligação em BACKBONES de transmissão de dados. O impulso para o
desenvolvimento de uma nova hierarquia digital mais adequada a transmissão de dados e
voz e não só de voz. E além disto, permitiu competição na conexão de longa distância para
operadoras regionais e locais nos EUA (As operadoras podiam escolher o provedor de
longa distância).
No Brasil em 1985, em junho foi instalado o primeiro cabo de Fibra Óptica em São
Paulo entre as estações de Basílio da Gama e Santa Ifigênia. A 8 de fevereiro, o Brasil é o
primeiro país da América Latina a conquistar seu lugar na órbita espacial: lançado o
Brasilsat (Satélite Doméstico Brasileiro), pelo foguete francês Ariene III, da base de Kouru,
Guiana Francesa. Três anos mais tarde ocorre a primeira transmissão de TV com som
estéreo digital do Brasil durante o show da cantora Tina Turner no Maracanã (RJ), cujas
imagens foram recebidas nos EUA pela rede de TV a cabo HBO. O ATM é padronizado
pelo CCITT. Em 1980, pesquisadores do BELL Labs e da France Telecom desenvolvem a
base de um protocolo para transmitir pacotes e dados pela mesma estrutura de comutação
(Funciona com pacotes sob demanda (tamanho 48 bytes)). Este protocolo chamado de
ATM foi padronizado em 1988.
No ano seguinte, é criado no Brasil o Sistema de Tratamento de Mensagens
ampliando o correio eletrônico para qualquer ponto do país ou do exterior. Em setembro
deste mesmo ano é lançado o projeto da RNP no Brasil. Em 1990, o Rio de Janeiro passa a
ser a primeira cidade brasileira a usar a Telefonia Móvel Celular. No mesmo ano é criado o
Frame Relay Forum.
Figura 24 – A RNP em 1991
Em 1991 o Brasil implanta o serviço de videoconferência. No mesmo ano é criado o
ATM Forum. No ano seguinte, no Brasil é instalado, em junho, o primeiro telefone público
(TP) a cartão em nível nacional, no Rio de Janeiro por ocasião da ECO 92. Lançada a Multi
Rede Digital, que permite a integração de rede de voz, dados, textos, inclusive fac-simile e
videoconferência, sob forma totalmente digital. Em 1993, no Brasil é instalado, em
outubro, o primeiro telefone público a cartão na cidade de São Paulo no Museu de Arte de
São Paulo (MASP). Inauguração da Telefonia Móvel Celular em São Paulo, considerado o
último dos grandes mercados do mundo. Implantação definitiva do sistema terrestre de
fibras ópticas com inauguração de 420 km interligando Rio de Janeiro - São Paulo.
Interligação do Brasil à rede mundial de fibras ópticas (17 de dezembro, na Praia do Futuro,
Fortaleza, foi lançado a ponta do cabo submarino América 1 - ativado em setembro de
1994).
Em 10 de agosto de 1994 foi lançado o satélite Brasilsat B1 - 2ª geração do Intelsat.
No ano seguinte é implantada a Internet no Brasil. No Brasil, em abril de1997 dá-se início a
implantação generalizada de telefones públicos que recebem chamada na Cidade de São
Paulo. Em maio entra em vigor uma nova forma de aquisição de linha telefônica; deixando
o Autofinanciamento e entrando na Tarifa de Habilitação, pela qual o assinante paga apenas
uma pequena tarifa na data da instalação e não tem direito a ações da empresa de
telecomunicações. Este novo sistema passou a vigorar integralmente em 1º de julho.
Desativada, em 23 de abril, a primeira Central Telefônica Automática da cidade de São
Paulo, com 68 anos de funcionamento ininterrupto. Promulgada, em 16 de julho, a Lei n°
9.472 - Lei Geral de Telecomunicações - e criada a Anatel (Agência Nacional de
Telecomunicações. Em 17 de novembro, começa a operar o primeiro serviço celular digital
nacional da Banda B, em Brasília.
Figura 25 – A RNP em 1997.
No Brasil em 19 de maio de 1998 são ativados os primeiros celulares digitais da
região metropolitana de São Paulo. Em 22 de maio a Telebrás é dividida em 12 holdings (8
de telefonia celular mais Telenorte-Leste, Telecentro-Sul, Telesp, de telefonia fixa e
Embratel. Em julho é lançado, em caráter pioneiro nacional, no Rio de Janeiro, o TP a
cartão de crédito. Em 29 de julho, as 12 empresas do Sistema Telebrás foram privatizadas
por R$ 22.058 bilhões, a Telesp Participações, com o valor pago de R$ 5.783 bi, tem como
líder no consórcio a Telefónica de España, e a Telesp Celular, com o valor pago de R$
3.588 bilhões, a Portugal Telecom. Em novembro a Telesp Celular lança o seu celular
digital. Na noite do dia 25 de novembro é lançada a marca mundial da Telefônica, no dia 25
de novembro é lançada a marca mundial da Telefônica, no dia 26 a população paulistana
acorda já com os "Orelhões" verde-limão espalhados por vários pontos da capital São
Paulo.
Figura 26 – A RNP em 1998.
Depois desta época o que mudou (2000)?
-
Desregulamentação das Telecomunicações em breve
-
Ênfase em comunicações de dados
-
Diferentes competidores
-
Diferentes meios de acesso - competição para provimento a vista
-
2 redes com backbone nacional - Embratel & RNP
No entanto, em 2001 veio o estouro da bolha das telecomunicações. Em resumo
pagou-se muito sem perspectiva de retorno a curto e médio prazo. Resultado: cenário de
retração nas telecomunicações, com indicações de formação de conglomerados
internacionais para maximizar retorno econômico e minimizar risco. Por outro lado, este
tipo de abordagem pode dificultar a inovação independente (fora dos conglomerados).
Figura 27 – A RNP em 2000.
E quanto ao futuro? Pode-se imaginar que deste ponto em diante diversos caminhos
possam ser tomados. Uma indicação é que o IP (Internet Protocol) se torne dominante
causando o desaparecimento das hierarquias intermediárias. Outra indicação é a
convergência tecnológica, podendo se tornar mais difícil determinar as fronteiras entre a
telefonia e outros serviços de telecomunicações tais como radiodifusão. Espera-se que esta
integração resulte em serviços adicionais para o usuário com transparência quanto ao seu
uso. Uma das palavras chaves aparenta ser mobilidade. Do ponto de vista das operadores de
serviços de telecomunicações estas mudanças implicam em uma gerência integrada de
serviços, base de dados completas de assinantes, agentes inteligentes para criação de perfis
de usuários e adaptação de serviços para as novas oportunidades.
Mas nem tudo são flores, afinal ainda restarão desafios como a inclusão digital
(fundamental para aumentar retorno financeiro), a complexidade inerente a estes sistemas, a
dificuldade de determinar qualidade da informação (autoridades certificadoras talvez se
tornem necessárias), as barreiras culturais a serem vencidas pelo avanço das comunicações
e finalmente as questões de privacidade e segurança.
Entretanto, pode-se afirmar sem sombra de dúvida que as próximas décadas trarão
desafios ainda maiores dos que foram mostrados. O ponto principal deste texto pode ser
visto como a luta dos provedores dos serviços de telecomunicações para maximizar a sua
base de usuários (universalizar o sistema) e aumentar seu retorno financeiro.
REDES DE ACESSO
1. INTRODUÇÃO
Uma rede de telecomunicações é a combinação de um conjunto de elementos que são utilizados para o
intercambio de voz e dados entre os vários usuários conectados à rede. A rede é o suporte ao permitir que um
usuário se comunique com qualquer parte do mundo, e possa transmitir suas informações através de fios de
cobre, cabos coaxiais, fibras óticas e tecnologia de comunicações sem fio, tais como microondas e satélites.
Com o crescimento da Internet, as exigências apresentadas para a tradicional e centenária rede de telefonia têm
se incrementado nos últimos anos. O impacto da Internet na rede de voz se exemplifica ao observar que com
aplicações de voz o tempo médio de conexão entre usuários oscila entre 3 a 6 minutos e no caso da Internet este
tempo médio de conexão é de 19 a-29 minutos. Isto resulta em uma sobrecarga da rede assim como o
estabelecimento de novos critérios de avaliação para projetos de expansão e atualização tecnológica.
O crescimento da Internet nos últimos anos tem sido vertiginoso, assim como o aparecimento de diversos
serviços. Na maioria dos casos, a multiplicidade de serviços produz a necessidade de maiores velocidades de
transmissão em função de critérios de qualidade e apresentação. Os avances tecnológicos trazem a solução para
melhorar a velocidade de transmissão para os usuários finais, desempenhando um papel fundamental na
melhoria dos serviços de telecomunicações e a sua conseqüente evolução.
Este documento apresenta a definição da rede de acesso, elemento da rede de telecomunicações, assim como as
diferentes tecnologias envolvidas na sua implementação.
2. DEFINIÇÃO
A rede de telecomunicações pode ser vista como um modelo de três camadas:
1. Comutação e Serviços: nós de comutação, locais e de trânsito.
2. Camada de Transporte: enlaces entre os nós (tecnologias PDH, SDH e tecnologias de fibra óptica).
3. Camada de Acesso: rede que liga o cliente ao enlace local (comutador local).
Uma definição básica é a que define a rede de acesso. A rede de acesso tem uma visão diferente para cada um
dos diversos participantes da rede de telecomunicações. Entre estes participantes podem se enumerar os usuários
finais, os provedores de serviço de Internet e os provedores de serviços de telefonia, TV a cabo e comunicações
sem fio.
É interesse deste documento centralizar o conceito de rede de acesso nos provedores de serviços de telefonia, TV
a cabo e comunicações sem fio. Neste caso, o acesso é a conexão entre o usuário final (que pode ser um usuário
doméstico ou um usuário corporativo) para um ponto de terminação da planta instalada ligada a um nó de acesso.
Como um exemplo, na área de telefonia isto seria conhecido como um ponto de distribuição local.
Então, o termo rede de acesso denomina a forma de conexão entre a central local e o usuário/cliente. O grosso do
investimento nas telecomunicações é feito na rede de acesso e em muitos casos pode exceder 50% do capital
total investido em uma área de serviço. O problema concentra-se em: fornecer ao usuário uma rede de acesso
que possa atender as necessidades das suas diferentes aplicações e ao mesmo tempo preservar o interesse custo
benefício da operadora de telecomunicações.
Evolução
No inicio da implementação da Internet até a primeira metade dos anos 90, o tráfego dos serviços oferecidos era
baseado principalmente em texto, sem elementos gráficos e multimídia. Em 1995, com a mudança destes
serviços para uma apresentação gráfica a partir do conceito de World Wide Web (WWW), a Internet
experimentou um incremento no seu número de usuários e de serviços oferecidos. De forma geral, no inicio da
difusão do acesso a Internet foram utilizados modems para os usuários residenciais e comerciais de pequeno e
mediano porte. Estes equipamentos conseguiam velocidades de transmissão entre 28.8 Kbps até 56 Kbps. Hoje
1
em dia, são necessários elementos de conexão que permitam maiores velocidades de transmissão, especialmente
para os usuários corporativos.
A transferência de imagens através da Internet, formadas por um grande conjunto de bits, foi o inicio de um
grupo de necessidades crescentes de novos serviços com requerimentos diferenciados de desempenho. Isto levou
ao desenvolvimento e implantação de novas tecnologias de acesso que permitissem ultrapassar a tradicional
velocidade oferecida pelos modems. A tabela 1 mostra os requerimentos de velocidade de transmissão para uma
série de diferentes serviços oferecidos hoje em dia.
Serviço
Voz e Fax
Áudio e radio digital
Texto gráfico e imagens
Vídeo – MPEG1
Jogos digitais com qualidade de CD-ROM
DVD, DirectTV (MPEG2)
Necessidade de largura de Banda
64 Kbps
200 Kbps
1.0 Mbps
1.5 Mbps
3.0 Mbps
6.5 Mbps
Tabela 1 : Necessidades de largura de banda
3. TECNOLOGIAS DE ACESSO
As tecnologias de acesso podem-se classificar em dois grandes grupos : (1) acceso por fio, (2) acceso sem fio.
Na figura 1 é mostrada uma classificação das tecnologias de cada grupo.
3.1 Tecnologias de acesso por fio
Dentro das tecnologias por fio, aquelas que usam o par trançado são as pioneiras e principalmente as mais
utilizadas nos usuários residenciais. A evolução das tecnologias neste tipo de meio tem permitido acessos mais
velozes que os originalmente oferecidos.
As fibras ópticas e cabos coaxiais foram introduzidos para aplicações de difusão de imagens, basicamente
televisão a cabo. Estes sistemas são de banda larga e hoje em dia podem ser aproveitados no suporte de
tecnologias de alta velocidade para o acesso a Internet.
Os meios sem fio surgiram a partir dos sistemas de satélite estabelecidos para difusão de imagens e transmissão
de televisão e dos sistemas de telefonia celular.
A fibra óptica em combinação com as tecnologias SDH (Synchronous Digital Hierarchy) tem sido a opção de
acesso das grandes corporações e no futuro espera-se que a PON (Passive Optical Network) seja a nova opção de
acesso também para usuários residenciais.
Tecnologias de
Acesso
Com Fio
Coaxial
Fibra e
Coaxial
CATV
HFC
Fibra
PON
Sem Fio
Par Trançado
SDH
Modem
ISDN
Satélite
XDSL
Terrestre
LMDS
MMDS
Celular
PCS
Figura 1: Classificação das tecnologias de acesso
2
3.1.1
Acesso por par trançado
Um par trançado é constituído por dois fios de cobre, arranjados em formato espiral. O enlace para a transmissão
é formado por um arranjo e vários pares podem ser agrupados para criar pontos de distribuição. No sistema
telefônico existe uma grande planta de par trançado instalada já que tem sido utilizado como a forma de conexão
entre o assinante e a central de distribuição, chamado de enlace local. Um exemplo simplificado de uma parte
desta planta pode ser visto na figura 2.
Ponto de
Distribuição
(DP)
20 pares
Ponto de
Distribuição
(DP)
50 pares
Ponto de
Cruzamento
de
Conexões
(CCP)
400 pares
Central Local
30 pares
Ponto de
Distribuição
(DP)
Figura 2 : Distribuição de acesso por par trançado no sistema telefônico
O par trançado pode ser utilizado para transmitir ambos sinais digitais e analógicos. Para sinais analógicos são
necessários amplificadores a cada 5 ou 6 km. e no caso de sinais digitais são necessários repetidores a cada 2 ou
3 km. Assim também existem fortes limitações em função da distância, largura de banda e velocidade de
transmissão. No par trançado a atenuação (diminuição da força do sinal) é fortemente influenciada pela distância
e existe também uma alta suscetibilidade às interferências.
Para a transmissão de voz, como a que acontece em um enlace local, a atenuação é aproximadamente de 1dB/km
sobre o intervalo de freqüência de voz.Existem três tipos de acessos que fazem uso do par trançado:
• Modems
• ISDN
• xDSL
Modems
O intercambio de dados na Internet se concretiza entre dois equipamentos digitais, normalmente computadores.
Como os computadores para a transmissão geram sinais digitais, estes sinais devem ser representados em sinais
analógicos para serem transmitidos na linha utilizada para a transmissão de voz. O modem análogico converte
uma série de pulsos binários (dois valores) em um sinal digital ao representar o sinal em uma freqüência
portadora, que no caso do sistema telefônico é na faixa de 3400 Hz. No outro ponto da linha, outro modem
demodula o sinal para reconstruir o sinal original.
Os modems analógicos são equipamentos que realizam o processo de modulação para que os sinais digitais
possam trafegar no meio físico. Modulação é o processo pelo qual são modificadas uma ou mais características
de uma onda denominada portadora, segundo um sinal modulante (informação que se quer transformar pelo
3
meio, na comunicação de dados o sinal digital binário). No caso dos modems, as técnicas de modulação
utilizadas são FSK (Frequency Shift Keying) e QAM (quadrature amplitud modulation).
Quase todos os modems para uso pessoal utilizam a técnica de transmissão assíncrona. É um método de
intercâmbio de informações entre dois computadores diferentes, que operam de maneira independente e não
compartilham nenhuma informação de sincronia. Geralmente, os sinais dos modems que utilizam a rede
telefônica são assíncronos, porque seria mais caro e mais difícil sincronizar sinais através do sistema telefônico,
onde os sinais podem ser redirecionados a qualquer momento, sem aviso. Assim também são utilizadas técnicas
de compressão e correção de erro.
Usando este tipo de acesso, são alcançadas taxas simétricas de 33.6 kbps e assimétricas de 56 kbps upstream e
33.6 kbps downstream. Existe uma estimativa de que hoje no mundo existem em funcionamento 500 milhões de
modems.
ISDN (Integrated Services Digital Network)
É uma rede que é o resultado da evolução da rede digital integrada (RDI) de telefonia, que proporciona
conectividade digital fim a fim, para dar suporte a uma variedade de serviços vocais e não vocais, aos quais os
usuários têm acesso através de um conjunto limitado de interfaces usuário-rede padronizadas.
Os canais utilizados neste tipo de acesso são:
„
„
„
„
„
„
Canal telefônico analógico de 4KHz (A)
Canal PCM (Pulse Code Modulation) de 64 Kbps (B)
Canal digital de 8 ou 16 Kbps (C)
Canal digital de sinalização de 16 Kbps (D)
Canal digital de sinalização de 64 Kbps (E)
Canal digital de 384, 1536 ou 1920 Kpbs (H)
Os canais B podem ser utilizados para duas chamadas separadas de voz, ou uma de voz e uma de dados a 64
kbps, ou duas de dados a 64 kbps. Os sistemas de transmissão digital nas linhas de assinantes utilizando pares
metálicos não são objeto de padronização no âmbito das interfaces físicas da ISDN. As linhas de assinante
podem alcançar até 10 Km. A rede trabalha com o conceito de um Acesso Básico (2B+D) e um Acesso Primário
(30B+D).
xDSL (x Digital Subscriber Line)
Uma linha de assinante do sistema telefônico tem uma limitação na velocidade de transmissão pela existência de
filtros nas centrais para trabalhar na faixa de 3.3 kHz (pensando-se somente na transmissão de voz) e isto é a
principal causa de que no par trançado, usando-se a linha telefônica para transmissão de dados, não se possa
trabalhar em freqüências na faixa dos MHz. Assim também, existe o problema da atenuação, que é uma função
da distância e da freqüência, como pode ser visto na figura 3.
O conceito básico de DSL é referente a um tipo de modem que estabelece um enlace digital. É realizada uma
transmissão duplex de 160 Kbps sobre linhas de cobre em distâncias de até 6Km, fazendo-se uso de faixas de
freqüência diferentes para voz e dados, o que permite a transmissão simultânea de ambos.
A idéia básica do funcionamento do modem DSL é que em função da transmissão em diferentes faixas, a voz e
os dados podem ser separados nos pontos de distribuição e enviados a diferentes destinos (rede de voz e rede de
dados). Assim também, fazendo-se uso de técnicas mais eficientes de modulação, podem-se alcançar velocidades
mais altas de transmissão no par trançado.
Um conjunto de tecnologias xDSL tem sido padronizadas e ainda estão em processo de padronização pelo ANSI
(American National Standards Institute) e o fórum ADSL (Assymetric Digital Subscriber Line), entre outros. As
tecnologias derivadas do DSL podem ser vistas na tabela 2.
4
Atenuação 0
(dB)
1 km
2
2km
3km
4
4km
6
diâmetro do cabo = 0,5mm
8
10
100
POTS
1
Freqüência
(Hz)
POTS : Plain Old Telephone System
Figura 3 : Curva de atenuação do par trançado em função da distância e freqüência.
Tecnologia
Taxa Upstream
Taxa Downstream
Distância Max.
No. pares
ADSL-1
ADSL-3
VDSL
(Very
High
Speed
DSL)
RADSL (Rate
Adaptive DSL)
16-64 kbps
640 kbps
Em padronização
1.5-2.0 Mbps
6.144 Mbps
Em padronização
6 km
4 km
Mais curta que
ADSL
1
1
Ajustável em função
da qualidade do par
trançado
1.5 Mbps
Ajustável em função
da qualidade do par
trançado
1.5 Mbps
4 km
2
64 kbps - 2 Mbps
64 kbps - 2 Mbps
4 km
1
HDSL
(High
Data Rate DSL)
SDSL
(Symmetrical
DSL)
Tabela 2 : Tecnologias xDSL
Para exemplificar, na figura 4 é mostrado um acesso ADSL. Para a instalação física, o modem e o telefone
compartilham a mesma linha de cobre através de um splitter até o nó de acesso e assim o sinal de dados é
multiplexado ao sinal de voz (analógico) na linha de transmissão, sem interferir no funcionamento do mesmo.
Em função da atenuação do par trançado, a distancia entre o terminal de usuário e o nó de acesso, na prática não
ultrapassa 4 Km. Posteriormente, no nó de acesso, o sinal de dados é separado do sinal de voz através de um
outro splitter e cada um é enviado para destinos diferentes. Na prática, o multiplexador é chamado de DSLAM
(Digital Subscriber Line Access Multiplexer).
Para a transmissão dos dados a tecnologia ADSL utiliza a tecnologia DMT (Discrete Multitone) que divide a
faixa de freqüência em 256 subportadoras, de 64 KHz a 1.1 MHz. O DMT utiliza modulação em quadratura
(QAM), onde cada subportadora usa um canal independente.
5
Terminal
PSTN
s
s
s
M
u
l
t
i
p
l
e
x
a
d
o
r
E1 (Voz)
Voz
NxE1 (dados)
Comutador
Telefônico
Comutador
ATM
Rede PSTN
Rede Dados
Central
Nó de
Acesso
Figura 4 : Acesso ADSL
3.1.2
Sistemas híbridos : Acesso por Fibra e Cabo Coaxial
Cabo coaxial
O cabo coaxial, da mesma forma que o par trançado é formado por dois condutores, mas a sua construção
permite uma operabilidade em um intervalo maior de freqüências. É formado por um condutor cilíndrico que
envolve um condutor interno único, tendo um diâmetro de 1 cm a 2.4 cm. Pode ser utilizado para a transmissão
de sinais digitais e analógicos.
Durante muitos anos, o cabo coaxial foi de grande importância na telefonia de longa distância, mas nos últimos
anos foi substituído pelas fibras ópticas, microondas e satélites. Hoje em dia, o cabo coaxial é muito utilizado
nos sistemas de televisão por assinatura (CATV) e em redes locais de dados. Para transmissão de longa distância
com sinais analógicos, são necessários amplificadores a cada poucos quilômetros, com menor espaçamento ao
trabalhar em altas freqüências. O espectro para sinais analógicos é até a faixa dos 400 MHz. Para sinais digitais,
repetidores são necessários quase a cada quilômetro, onde têm sido alcançadas taxas de 800 Mbps com
repetidores a cada 1.6 Km.
Fibra óptica
A fibra óptica é um meio flexível e fino que conduz raios de luz. As primeiras fibras foram fabricadas fazendo
uso de materiais baseados em plástico e vidro, materiais ainda utilizados. Os materiais recentemente utilizados
tem sido baseados em silício.
A transmissão de sinais na fibra óptica é realizada a partir da emissão de luz (de um diodo ou um raio laser),
onde a partir da reflexão, é realizada a transmissão na faixa dos 1014 a 1015 Hz. Existem basicamente dois tipos
de fibras: as que alcançam melhores taxas são as do tipo monomodo (mais finas) e segundo, as multímodo.
Ambas fibras suportam vários comprimentos de onda, centralizados em 850, 1300 e 1500 nanômetros.
O uso da fibra para telecomunicações é vantajoso pois a mesma trabalha em grandes freqüências conseguindo-se
taxas de transmissão na ordem dos Gigabits, com baixa atenuação em longas distâncias e minimização de custos
ao trabalhar com poucos repetidores. Nas telecomunicações existem várias aplicações básicas para a fibra óptica:
• Enlaces de longa distância;
• Enlaces metropolitanos;
• Enlaces entre centrais trânsito (em áreas rurais ou urbanas);
• Enlaces locais (da central a um assinante);
• Redes locais de alta velocidade.
6
Sistemas HFC (Cable TV Hybrid Fiber/Coax)
No final de 1995, vários operadores de cabo se agruparam sob o auspicio da Cable Television Laboratories
(CableLabs) para especificar as especificações DOCSIS (Data Over Cable Service Interface Specifications),
padrão para a transmissão do dados sobre o sistema de transmissão de cabo.
Um sistema de cabo consiste em um ponto de terminação (headend), onde os sinais de vídeo são coletados e
modulados em uma pilha de freqüências, conhecido como fila de canais, e os sinais são enviados para cada
assinante usando cabo coaxial. Cabos de fibra óptica, em topologia de estrela carregam o sinal de cabo a
conjuntos de residências, onde a distribuição do sinal é feita usando-se cabo coaxial em uma topologia de bus.
Um exemplo deste sistema pode ser visto na figura 5.
Cabo coaxial
Nó de
acesso
fibra
headend
Nó de
acesso
fibra
Cabo coaxial
Figura 5 : Sistema HFC
Os sistemas tradicionais possuem somente a capacidade de broadcast em uma direção (downstream). Estes
sistemas trabalham na faixa do 50 para 550/750 MHz com canais de 6 MHz. Os cable modems são utilizados
para permitir o acesso a Internet e transmissão de dados na direção downstream do sistema HFC, conseguindo-se
velocidades de ate 30 Mbps em um canal de vídeo de 6 MHz. O sinal de upstream é provido por um canal
telefônico existente, fazendo-se uso de modems, por exemplo.
Os sistemas HFC bidirecionais possuem capacidade de transmissão em ambas direções. Este tipo de sistemas,
normalmente trabalham com uma largura de banda de 50 a 750 MHz na direção downstream usando-se canais de
vídeo de 6MHz. Na direção upstream, a banda é compartilhada entre todos os assinantes e normalmente é
limitada na faixa de 5 a 40 MHz. As velocidades alcançadas da direção de downstream estão na faixa dos 30
Mbps e no upstream na faixa dos 10 Mbps.
As vantagens do acesso pela combinação de fibra e cabo coaxial é que trabalha relativamente numa alta
velocidade com pouca modificação na rede e funciona com receitas provenientes da telefonia, difusão de TV o
que permite a divisão dos custos entre muitos usuários. As desvantagens concentram-se na sua atual baixa
penetração no mercado (menos de 30% em média) e na expectativa que o par metálico deve superá-lo em breve
em termos de taxas.
3.1.3
Acesso por fibra
O enfoque de levar a fibra mais perto do assinante em combinação com outros meios tais como par trançado e
cabo coaxial tem levado aos conceitos de FTTC (Fiber to the Curb), FTTH (Fiber to the home), FTTO (Fiber to
the Office) entre outros. Em função do custo há uma tendência de concentração em torno dos pontos onde há um
7
retorno imediato, e assim a chegada direta da fibra se da hoje nos pontos que concentram um número de
assinantes ou aplicações que compensem o investimento.
PON
O acesso PON (Private Optical Network) tem como objetivo levar a fibra até o assinante fazendo uso da
tecnologia WDM (Wave Division Multiplexing). A fibra chega ao nó de acesso e desse ponto, usando-se um
splitter, várias fibras são lançadas até o ponto final em uma ONU (Optical Network Unit), onde o assinante as
pode distribuir no seu local. O acesso PON tem a vantagem de fornecer um acesso robusto com baixos custos de
manutenção e permite trabalhar uma grande multiplicidade de serviços de banda larga.
A desvantagem é o alto custo, que em comparação com as outras alternativas de acesso, ainda não representa
uma competitividade especialmente para usuários residenciais.
Nó de
acceso
ONU
WDM
Terminal
Digital
Centro Empresarial
WDM
Splitter
PON
Multiplexador
ONU
WDM
Residencia
ONU
Anel SDH
Fábrica
WDM
Lan 1
Multiplexador
Multiplexador
Lan 1
Lan 2
Lan 3
Campus
Lan 3
Lan 2
ONU : Optical Network Unit
WDM : Wave Division Multiplexing
PON : Passive Optical Network
LAN : Local Area Network
SDH : Synchronous Digital Hierarchy
Rede Corporativa
Figura 6 : Acesso por fibra
SDH
Os anéis SDH (Synchronous Digital Hierarchy) são utilizados para prover acesso de alta capacidade para
comunidades, tais como núcleos industriais, campus universitários, empresas, etc. Um anel SDH permite ter uma
garantia de serviço fazendo uso de uma arquitetura anular bidirecional.
No assinante, um multiplexador é encarregado de prover o transporte ao combinar diversos fluxos de dados em
uma única fibra fazendo uso de um modo de transmissão síncrono (STM em inglês), que agrupa estes fluxos de
dados em tributários. Na prática, os comutadores ATM (Asynchronous Transfer Mode) são utilizados para o
estabelecimento da conexão de rede e da camada de enlace neste tipo de conexões.
A figura 6 mostra exemplos de implementações de PON e SDH.
3.2 Tecnologias sem fio
No final do século XIX, H.G. Hertz, um cientista alemão, mostrou que as ondas de rádio podiam-se propagar
em um meio sem fio, por um caminho entre um receptor e um emissor. Após esta experiência, grandes
desenvolvimento tem se realizado nesta área, resultando em tecnologias de transmissão por microondas. Hoje em
dia, a transmissão por microondas é parte fundamental do cenário das telecomunicações,
8
Microondas por Satélite
Um satélite é uma estação aérea de transmissão do tipo broadcast que é utilizada para criar um enlace entre
estações terrestres. O satélite recebe as transmissões em uma freqüência (uplink), as amplifica ou funciona como
repetidor e depois as transmite em outra freqüência (downlink). Para que um satélite possa funcionar
corretamente, é necessário que mantenha uma posição estacionária ou fixa em relação à terra, pois do contrário
as estações terrestres teriam dificuldades para estabelecer o enlace. Os satélites são usados principalmente nas
seguintes áreas:
• Distribuição de sinais de TV
• Transmissão telefônica de longa distancia
• Redes de Dados privadas
O intervalo de freqüência ótimo para transmissão por satélite é na faixa de 1 a 10 GHz. A banda C, com uplink
entre 5.925 a 6.425 GHz e de downlink entre 3.7 e 4.2 GHz é a mais utilizada. Em função da saturação da banda
C também se trabalha com a banda Ku, entre 12 e 14 GHz, que precisa de satélite com maior potencia de
transmissão em função da atenuação nesta faixa de freqüência.
O uso de satélites para acesso a Internet funciona hoje na faixa dos 12 GHz, com taxas de 400 kbps. O satélite é
um elemento ótimo para distribuição do mesmo conteúdo para um número muito grande de usuários, mas tem
problemas em controlar o retorno. O equipamento na casa do assinante consiste de uma antena parabólica de
aproximadamente 52 cm de diâmetro, um receptor de microondas e um decodificador digital ligado ao
computador. O canal de retorno (uplink) pode ser provido pelo sistema telefônico.
Antena
Antena
Receptor
Antena
Assinante
Head
End
Receptor
Rede
Comutada
Assinante
Modem
Nó de Acesso
Figura 7: Acesso sem fio
3.2 Microondas Terrestres
A principal utilização das microondas terrestres é na área de telecomunicações uma alternativa as tecnologias de
acesso com fio, tais como par trançado, cabo coaxial e fibra óptica. Assim também são utilizadas para
comunicação de redes privadas com sinais digitais (por exemplo, entre dois prédios) e estabelecimento e enlaces
de alta velocidade em pequenas regiões.
O assinante de um sistema de microondas terrestres precisa de um equipamento que lhe permita capturar ondas,
interpretar a informação contida nessas ondas e também, transmitir as suas próprias informações (ver figura 7).
Geralmente, o assinante deve instalar uma antena e um equipamento receptor/emissor (que realiza modulação e
demodulação).
A faixa de freqüência comumente utilizada é de 2 a 40 GHz. Entre maior a freqüência, maior a largura de banda
potencial e conseqüentemente maior a taxa de transmissão. A principal fonte de perda nestes sistemas é a
atenuação, principalmente em função da distancia e de elementos atmosféricos, como a chuva.
9
Sistema MMDS
O sistema MMDS (Multichannet Multipoint Distribution Service) pode fornecer canais de downlink em uma
distância de 50 Km, a partir de um ponto central de transmissão. Nos EUA opera a 2,5 GHz com 33 canais e é
tipicamente oferecida como uma tecnologia ponto a multiponto com taxas típicas de 384 a 512 kbps (downlink)
e 256 a 384 kbps para uplink. O público alvo são residências e pequenas empresas.
Sistema LMDS
O sistema LMDS (Local Multipoint Distribution System) é a principal tecnologia sem fio de banda larga para
transmissão de voz, dados e multimídia acima da faixa dos 20 GHz, alcançando taxas de transmissão 4 vezes
maiores que o sistema MMDS. É utilizada uma arquitetura similar ao sistema celular, mas os serviços são de
natureza fixa, não móvel. Ao contrário dos telefones celulares, os usuários têm localização fixa e permanecem
dentro de uma única célula Os transmissores LMDS cobrem áreas de aproximadamente 3 a 5 Km, os sinais são
transmitidos usando broadcast ponto a multiponto sendo que o canal de retorno do assinante à estação base é
ponto a ponto. Uma rede LMDS consiste basicamente de 4 elementos principais :
• Centro de operações de rede: gerenciador de regiões com grupos de assinantes, sendo que vários centros
são interconectados entre eles.
• Infra-estrutura óptica: Elementos SDH/WDM para enlaces com outras redes (telefônicas e de dados).
• Estações base: onde é realizada a conversão da infra-estrutura óptica em infra-estrutura sem fio. Assim
também é aquí onde são realizadas as funções de transmissão de microondas para os assinantes.
• Estação cliente: Equipamento externo para microondas (antena) e equipamento interno para recepção,
sendo que a forma de acesso à rede pode ser feita usando FDMA (Frequency Division Multiple Access),
TDMA (Time Division Multiple Access) ou CDMA (Code Division Multiple Access).
Nos sistemas LMDS a chuva provoca séria atenuação e portanto limita o alcance confiável a uma faixa de 3-5
Km a depender do clima e da freqüência de operação.
Sistema PCS (Personal Cellular System)
Atualmente, no sistema PCS estão se realizando pesquisas e padronizações para estabelecer o acesso a Internet e
outros serviços de dados. Em função de que o sistema celular utiliza canais de banda estreita, onde são
alcançadas taxas entre 9.6 kbps e 15.5 kbps é necessária uma otimização dos canais para o envio de dados no
momento que se encontram ociosos.
4. CONCLUSÕES
O acesso aos serviços de parte dos usuários é um dos principais fatores que mobiliza o mercado das
telecomunicações. As empresas de telecomunicações precisam facilitar o acesso aos seus usuários para assim
diversificar e consolidar o seu mercado.
A rede de acesso é o ponto de entrada do usuário ao mundo de intercambio de informações. Com a difusão da
Internet e seus serviços, inicialmente muitos usuários fizeram uso da planta telefônica já instalada, mas hoje em
dia o acesso que estes usuários procuram lhes deve permitir integrar uma série de serviços diferentes, tais como
voz, dados e multimídia de uma forma transparente. Esta necessidade tem impulsionado o desenvolvimento de
novas tecnologias que têm como objetivo difundir e expandir a cobertura e volumem de assinantes em um
mercado altamente competitivo e dinâmico.
O desenvolvimento das várias tecnologias de acesso procura balancear os critérios de velocidade, viabilidade e
custo. Assim também, os critérios de qualidade de serviço, congestionamento, atraso entre outros, devem
influenciar o comportamento dos usuários e o futuro desenvolvimento de novas tecnologias.
10
5. BIBLIOGRAFIA
STALLINGS, William, “Data and Computer Communications”, Pearson-Prentice-Hall, 7a. Edição, 2003.
YACOUB Michel D., “Foundations of Mobile Radio Engineering”, CRC Press, 1993.
INTERNET ACCESS, Web Proforum Tutorial, IETF.
LOCAL MULTIPOINT DISTRIBUTION SYSTEMS, Web Proforum Tutorial, IETF.
FELLOWS D, Jones D, ‘DOCSIS CABLE MODEM TECHNOLOGY”, Topics in Broadband Access, IEEE
Communications Magazine, Março, 2001.
ELSENPETER Robert, Velte T., “Optical Networking – A Beginners Guide”, Mc-Graw-Hill Osborne, 2002.
ADSL Forum – www.adsl.com
KRAPF, E. “Fiber Access: The Slog Continues”, Business Communications Review, p. 38-41, Aug. 2001.
TANENBAUM Andrew S, “COMPUTER NETWORKS”, Prentice-Hall International, 2a. Edição.
11
Redes Multimídias
1- Introdução
O desenvolvimento das tecnologias de transmissão de dados possibilitou o
surgimento das redes de alta velocidade com capacidade de transportar informações na
ordem de milhões de bits por segundo. A existência dessas redes tornou possível a
implementação de aplicações que requisitassem grande capacidade de transmissão.
Dentre estas aplicações, podem ser citadas, como das mais importantes, as aplicações
multimídia.
A maioria das aplicações utilizadas nas redes de dados atuais é pouco sensível a
variações de banda e retardo. Os serviços de rede como correio eletrônico e transferência
de arquivo podem executar com a quantidade de banda que é fornecida a eles. Serviços
interativos, tais como login remoto, beneficiam-se pouco de valores de banda maiores.
Esta aplicação envia apenas pequenos pacotes de dados e o maior benefício de ter muita
banda disponível é reduzir a interferência de grandes pacotes sobre pequenos pacotes de
dados, pois os pequenos levam menos tempo para serem transmitidos. A aplicação de
sistema de arquivos distribuído (NFS - Network File System) se beneficia de um maior
valor de banda. Ter uma rede com muita banda passante reduz o tempo para transmissão
de dados do servidor para o cliente. No entanto, o aumento de banda passante para as
aplicações citadas, faz apenas com que elas sejam executas mais rapidamente, mas não
influencia no resultado ou na correção de suas execuções.
As aplicações multimídia geram vários tipos de informação, como texto, dados,
voz, vídeo e imagem. Em uma transmissão multimídia, todas essas informações devem
ser enviadas em um mesmo meio de comunicação. Por esse motivo, e pelo fato de alguns
tipos de informação, como vídeo, por exemplo, possuírem muitos dados, a transmissão
destas aplicações, requer uma grande capacidade de banda passante.
Cada um desses tipos de informação possui requisitos diferentes, no que diz respeito a
retardo de transmissão, taxa de erros, perda de dados e largura de banda.
Assim, uma rede para transmitir uma aplicação multimídia deve oferecer garantias de
qualidade de serviço (QoS - Quality of Service), para que todas as informações
transmitidas tenham seus requisitos atendidos.
A negociação da qualidade de serviço consiste em fazer, no início de cada
conexão, uma negociação dos parâmetros de transmissão necessários a cada tipo de
aplicação e, a partir daí, tanto as aplicações como a rede deve obedecer aos requisitos de
qualidade estabelecidos. Esse tipo de negociação, feito apenas no início da transmissão,
pode ser chamado de negociação estática, pois os parâmetros acordados no
estabelecimento da conexão continuam até que ela finalize.
A negociação dinâmica da qualidade de serviço permite que os parâmetros de qualidade
sejam alterados durante a fase ativa da conexão. Essa negociação pode ser feita para
requisitar mais ou menos recursos. Dessa maneira, se uma aplicação estiver subutilizando
recursos, ela pode liberá-los. Estes recursos podem ser reaproveitados por conexões que,
em um determinado momento, exijam mais recursos ou até mesmo por aplicações que
desejem iniciar uma transmissão. A utilização da negociação dinâmica possibilita uma
melhor utilização do meio de transmissão.
Uma rede, para transportar dados de aplicações multimídia, deve oferecer, portanto, alta
velocidade de transmissão e garantias de qualidade de serviço. Nesse sentido, a
tecnologia de rede ATM (Asynchronous Transfer Mode) tem-se mostrado como uma das
mais eficientes.
2- Tipos de Mídias
As aplicações multimídia atuais integram vários tipos de mídia: texto, gráficos,
imagens, vídeo e áudio. Cada tipo de mídia possui características e requisitos de
comunicação diferentes.
Algumas das características de uma aplicação multimídia são: natureza do tráfego gerado,
retardo máximo de transferência, variação estatística do retardo, vazão média e taxas
aceitáveis de erro em bits ou em pacotes de dados.
Uma das principais características é a natureza do tráfego gerado. Podem existir
três tipos de classes de tráfego: tráfego com taxa de bits constante, onde a taxa média é
igual a taxa de pico; tráfego em rajadas, que possui períodos onde as informações são
geradas próximas à taxa de pico, intercalados com períodos nos quais a fonte não produz
tráfego algum; tráfego contínuo com taxa variável, no qual existem variações na taxa de
bits, durante todo o período de transmissão.
De acordo com o tipo de informação presente em uma mídia, esta pode ser definida como
discreta ou contínua. Texto, gráfico e imagem são exemplos de mídias discretas,
enquanto que áudio e vídeo são exemplos de mídias contínuas. O termo multimídia
geralmente implica que pelo menos um tipo de mídia discreta esteja associado com
informação de mídias contínuas.
2.1- Características das Mídias
Cada mídia possui características e necessidades de desempenho distintas. A
seguir são mostrados os principais tipos de mídia, suas características e seus requisitos.
2.1.1 Texto
O texto tem sido, historicamente, a principal forma de interação entre
computadores e seres humanos. É também, juntamente com difusões armazenadas e
filmes, a principal forma de comunicação assíncrona (comunicação adiada no tempo)
entre humanos, através de livros, jornais, cartas e mais recentemente correio eletrônico.
A mídia de texto pode ser representada de duas maneiras. Uma como texto não
formatado, onde o número de caracteres disponíveis é limitado e em geral, o tamanho dos
caracteres é fixo e estão disponíveis apenas uma forma e um estilo. A outra forma de
representação é como texto formatado, onde o conjunto de caracteres é mais rico, com
múltiplas fontes, tamanhos e capacidades de formatação.
Na maior parte das aplicações, a mídia de texto caracteriza-se por tráfego em
rajada. Não é tolerante a erros e o retardo máximo de transferência e a variação estatística
do retardo não são características muito relevantes.
2.1.2 Gráficos
O formato dos documentos de gráficos possui informações estruturais. Os objetos
podem ser apagados, redesenhados, movidos ou terem seu tamanho alterado. São
formados por objetos tais como linhas, curvas ou círculos. Estes objetos podem ser
removidos, adicionados, movidos, diminuídos ou aumentados. Eles possuem atributos do
tipo espessura, escala de cinza, cor ou padrões de preenchimento.
A mídia gráfica é caracterizada pelo tráfego em rajadas com vazões médias
chegando a algumas dezenas de megabits por segundo. Como em texto, o retardo
máximo e a variação estatística do retardo não são muito importantes. A taxa de erros de
bits e de pacote depende do tipo de gráfico e também se foram utilizadas ou não técnicas
de compressão ou compactação. Para gráficos no formato matricial e sem compressão, a
taxa de erros de bits pode ser bem maior que a taxa de erros de pacotes. Para gráficos no
formato vetorial, onde forem utilizadas técnicas de compressão, o erro em um único bit é
intolerável. Um fato importante a ser considerado, em relação a taxa de erros, é saber se o
gráfico será processado apenas pelo olho humano ou também pelo computador .
2.1.3 Imagens
São conhecidas também como figuras e não contêm informação estrutural. As
imagens de computador são representadas por mapas de bit (bitmaps). Um mapa de bit
simples é uma matriz espacial de duas dimensões feitas de elementos individuais
chamados pixels. Gráficos ou textos podem ser representados ou armazenados como
imagens, sendo convertidos para formato bitmap .
Os requisitos de comunicação da mídia imagem são bem semelhantes daqueles
para mídia gráfica. A mídia imagem também é caracterizada pelo tráfego em rajadas com
vazões médias chegando a algumas dezenas de megabits por segundo. O retardo máximo
e a variação estatística do retardo não são muito importantes. A taxa de erros de bits e de
pacotes depende do tipo de imagem, se foram utilizadas ou não técnicas de compressão
ou compactação, e se a imagem será processada apenas pelo olho humano ou também
pelo computador.
2.1.4 Vídeo
Tanto as imagens quanto os gráficos podem ser mostrados em uma tela de
computador como uma sucessão de visões que criam uma impressão de movimento.
Assim, podem ser chamados de imagens em movimento ou também figuras em
movimento e gráficos em movimento ou também animação de computador.
A característica de imagens ou gráficos em movimento é que todas as visões não
são independentes. Elas são correlatas e em geral cada quadro é uma variante do quadro
anterior. Pode-se entender por quadro como sendo uma visão completa e individual da
tela do computador em um determinado instante, parte de uma sucessão de visões
apresentadas. O retardo entre a aparição de dois quadros sucessivos é geralmente
constante e o número de quadros mostrados por segundo é chamado de taxa de quadro.
Para que se tenha uma real impressão de movimento, a taxa de quadros deve ser acima de
16 quadros por segundo (qps). Filmes são mostrados a uma taxa de 24qps. Padrões da TV
americana e japonesa atuais utilizam 30qps, enquanto o padrão europeu utiliza 25qps.
Um dos muitos padrões de TV de alta definição (High-Definition Television - HDTV),
opera a 60qps.
A mídia de vídeo caracteriza-se por gerar um tráfego contínuo com taxa constante.
Mesmo quando for executada alguma técnica de compactação ou compressão e o
tráfego gerado ficar caracterizado como um tráfego com taxas variáveis, o sinal deve ser
reproduzido no destino em uma taxa constante. O retardo de transferência máximo tem
grande importância e a variação estatística do retardo deve ser compensada.
A taxa de erros de bits pode ser maior que a taxa de erros de pacotes. Mesmo a taxa de
erros de pacotes não é tão crítica, pois como a imagem não é estática, devem ser gerados
vários quadros por segundo. A tolerância a taxa de erros é dependente da utilização de
técnicas de compressão ou não, pois quando estas técnicas são utilizadas, um erro pode se
propagar. Em quadros que contenham uma propagação de erro, o erro em um único bit
pode ser intolerável enquanto quadros que não possuam propagação de erro podem
tolerar erros de bits e de pacotes.
Existem cinco classes de qualidade para vídeo, são elas: televisão de alta
definição (HDTV), televisão digital com qualidade de estúdio, televisão com qualidade
de difusão, televisão com qualidade VCR (Videocassette Recorder) e qualidade de
videoconferência de baixa velocidade.
2.1.4 Áudio
A mídia de áudio, assim como a mídia de vídeo, caracteriza-se por gerar um
tráfego contínuo com taxa de bit constante. O tráfego gerado, caso não seja utilizada
nenhuma técnica de compactação ou compressão, é do tipo CBR (Constant Bit Rate).
Caso contrário, o tráfego pode ser caracterizado como VBR (Variable Bit Rate) ou até
mesmo como em rajadas, no caso da voz com detecção de silêncio. Mesmo no caso do
tráfego em rajadas, o sinal deve ser reproduzido no destino a uma taxa constante.
A variação estatística do retardo deve ser compensada. A estratégia utilizada pelos
algoritmos de compensação baseia-se fundamentalmente em assegurar uma reserva de
pacotes antes de dar início ao processo de reprodução, introduzindo um retardo inicial a
cada surto de voz. O retardo de transferência máximo é crítico, principalmente no caso de
conversações. Os problemas de retardo tornam-se críticos apenas para aplicações que
exigem comunicação interativa em tempo real.
A mídia de áudio tolera uma taxa de erros de bits ou de pacotes relativamente alta, pois
os sinais de áudio possuem um alto grau de redundância. É importante, no entanto, que os
pacotes não sejam muito grandes para não se perder muito tempo no empacotamento e
conseqüentemente aumentar o retardo de transferência.
3 – Aplicações Multimídias
As aplicações multimídia possuem muitas características em comum com outros
tipos de aplicações, mas também possuem características particulares. Dentre as
principais características específicas podem ser citadas as seguintes: podem necessitar de
transmissão em tempo real de informação de mídia contínua (áudio e vídeo); o volume de
dados trocados é substancial e muitas vezes considerável, devido à codificação de
informação de mídia contínua; muitas aplicações são inerentemente distribuídas.
As aplicações multimídia podem ser executadas em um sistema multimídia
individual, no modo stand-alone, ou através de uma rede de computadores. Uma
aplicação multimídia local utiliza apenas os recursos presentes no sistema local para
oferecer os serviços multimídia e não faz uso da capacidade de armazenamento remoto.
Exemplos desse tipo de sistema multimídia são: Treinamento individual baseado em
computador (Individual computer-based training - CBT) e Educação individual baseada
em computador (Individual computer-based education - CBE). Aplicações executadas
através de uma rede de comunicação são ditas distribuídas. Duas razões principais para se
ter aplicações multimídia distribuídas são:
• Suporte a aplicações naturalmente distribuídas. Aplicações que oferecem serviços de
comunicação à distância, como videoconferência, correio eletrônico multimídia e
transmissão de pacotes de áudio e vídeo para vários nós de uma rede.
• Implementação do modelo cliente-servidor. Para alguns sistemas multimídia, pode ser
mais vantajoso utilizar recursos dos vários sistemas espalhados pela rede.
Como exemplo destes recursos, pode ser citada a capacidade de armazenamento
oferecida por um servidor para que os vários sistemas possam acessá-lo remotamente.
As aplicações multimídia distribuídas podem ser apresentacionais ou conversacionais. As
aplicações apresentacionais fornecem acesso remoto a documentos multimídia. Estes
documentos podem estar armazenados digitalmente em um ou mais dispositivos de
armazenamento de alta capacidade (computadores servidores) e os usuários podem
recuperar a informação multimídia em tempo real de servidores multimídia através de
uma rede de banda larga para os seus dispositivos de apresentação.
As aplicações conversacionais envolvem tipicamente comunicação multimídia em tempo
real. Podem ainda ser classificadas em serviços sob demanda ou de difusão.
Muitas aplicações possuem aspectos apresentacionais e conversacionais.
3.1 – Exemplos de aplicações Multimídias
Alguns exemplos de aplicações multimídia são videoconferência, correio
eletrônico multimídia, vídeo-sob-demanda e filme-sob-demanda. Estas aplicações são
mostradas a seguir.
3.1.1 Videoconferência
A videoconferência tem como principal objetivo proporcionar uma comunicação
de alta velocidade entre parceiros remotos, através da transmissão de áudio e vídeo, para
melhorar o trabalho colaborativo. A videoconferência pode se dar entre duas partes, como
no videofone, ou entre muitas partes, como na distribuição de vídeo, mas nas duas formas
implica em comunicação bidirecional. As principais características da videoconferência
são as seguintes:
• Grupos. Envolve pelo menos um grupo de pessoas em uma das localizações. Os
participantes podem tanto estar em um escritório utilizando sistemas desktop quanto em
salas de reuniões, mas em ambos os casos existirão muitas pessoas que devem aparecer.
• Documentos. Geralmente é necessário que ocorra troca de documentos entre os
participantes. Documentos podem estar na forma de papel, visível em um lugar tipo
quadro-negro ou no formato eletrônico.
• Comunicação de grupo. A quantidade de sistemas que podem participar depende se a
conferência é simétrica ou assimétrica. Em uma conferência simétrica, as contribuições
são balanceadas entre todos os participantes. Em conferências assimétricas, alguns
participantes são menos ativos que outros, e pode ser suportada uma dúzia de
participantes.
• Compromisso entre resolução e movimento. Exceto no caso de existirem
documentos, a resolução pode ser de média qualidade.
• Qualidade de som. Este requisito é muito importante em videoconferência, pois a
identificação de quem está falando em um dado momento ajuda os participantes a
identificarem a parte ativa. Uma outra razão desta importância é que o som deve ter
qualidade suficiente para ser amplificado por alto-falantes.
3.1.2 Correio eletrônico multimídia
O correio eletrônico é uma aplicação que permite aos usuários fazer a
composição, troca, leitura, armazenamento, recuperação e manipulação de mensagens de
computador. Estas mensagens são representadas em uma forma digital e manipuladas por
computadores. Uma mensagem multimídia possui uma parte de áudio ou vídeo misturada
com qualquer outro tipo de informação. O correio multimídia apareceu em 1992 com a
adoção do padrão correio multimídia da Internet, chamado MIME (Multipurpose
InternetMail Extensions). Em relação ao armazenamento, cada minuto de áudio, com o
mais comum e menos eficiente esquema de codificação, requer 500Kbytes. Seqüências
de vídeo para correio multimídia são geralmente de qualidade VCR e, no melhor caso de
compressão, um minuto de vídeo requer 10Mbytes. Portanto, o tamanho do correio
multimídia deve ser limitado. Seqüências de vídeo devem ser extremamente pequenas e
as seqüências de áudio devem ser limitadas a poucas dúzias de segundos.
3.1.3 Telemedicina
Aplicação multimídia importante, especialmente em casos de emergência e
localizações remotas. Em telemedicina, todos os dados de pacientes são registrados e
armazenados eletronicamente. Instituições e equipamentos médicos são conectados
através de uma rede multimídia. A telemedicina provê as seguintes funções:
• Consulta instantânea com médicos especializados através do uso de áudio e vídeo de
alta qualidade.
• Acesso a registros de pacientes em qualquer lugar e a qualquer momento por pessoal
médico em caso de emergência.
• Acesso a informações em todo o mundo tal como disponibilidade e necessidade de um
tipo especial de sangue ou órgãos.
3.1.4 Vídeo-sob-demanda
O termo vídeo-sob-demanda, abreviado como VOD (Video-on-demand), engloba
uma grande quantidade de aplicações onde os usuários podem requisitar o acesso a
servidores de vídeo de imagens estáticas ou em movimento. Algumas características
deste tipo de aplicação são citadas a seguir.
• Vídeo-sob-demanda não diz respeito apenas a vídeo em movimento, também engloba a
demanda a imagens estáticas.
• A definição de VOD não especifica onde o servidor está localizado nem quem o opera.
VOD pode ser um serviço corporativo provido em um site dentro de uma organização,
bem como pode ser um serviço público.
• A definição não especifica o nível de interação que o usuário pode se beneficiar, uma
vez que a sessão esteja estabelecida.
• VOD não implica em qualquer tipo específico de vídeo em movimento. Apesar do
principal campo de aplicação ser a distribuição de filmes, aplicação de VOD cobrem todo
tipo de seqüências de vídeo.
• A definição diz que o usuário pode requisitar uma imagem ou figura em movimento a
qualquer tempo, mas ela não diz que o usuário pode vê-la a qualquer tempo.
3.1.5 Filme-sob-demanda
Filme-sob-demanda, abreviado como MOD (Movie-on-demand), é um serviço
público de vídeo-sob-demanda oferecido a usuários residenciais ou clientes de hotéis,
onde o objeto acessado é um filme armazenado. O objetivo do MOD é substituir dois
serviços convencionais com um produto melhorado.
• O serviço pay-per-view (PPV). A melhoria seria o fato de se oferecer uma maior
quantidade de filmes que possam ser escolhidos e que o usuário possa requisitar e assistir
a qualquer momento.
• O serviço de aluguel de fita de vídeo. A idéia é eliminar a busca e retorno da fita à
locadora, eliminando a manipulação física da fita. Para filme-sob-demanda, uma
qualidade equivalente a de videocassete VHS, requer uma taxa de transmissão de apenas
1,5Mbps, o que é compatível com a velocidade T1. Implementações existentes do padrão
de compressão de vídeo MPEG-2 (Motion Picture Expert Group) operam a 6Mbps com
uma qualidade ligeiramente superior a qualidade de TV de difusão. É esperado que se
consiga uma taxa na ordem de 4Mbps para este tipo de qualidade. Muitos operadores
estão planejando canais de 6 ou 7Mbps para suas infra-estruturas. Várias técnicas de
compressão podem ser usadas para TV digital com qualidade de difusão, mas o padrão
MPEG-2 tem surgido como uma tecnologia geral, multi-vendedor.
4 – Requisitos da Comunicação
.
Aplicações multimídia são caracterizadas por manipular mídia contínua e suportar
uma variedade de mídias e seus relacionamentos temporais. Isto impõe novos requisitos
aos sistemas de comunicação e sistemas-fim. As informações das aplicações distribuídas
devem ser transmitidas através de uma rede. Para cada tipo de mídia existem requisitos
de comunicação específicos. Para que uma sub-rede de comunicação possa transmitir
dados de aplicações multimídia em tempo real e mídia contínua, ela deve disponibilizar
alguns características de desempenho. As principais destas características são:
• Vazão. Quantidade de bits que a rede é capaz de transmitir em um determinado
período de tempo. Algumas aplicações necessitam de uma capacidade de armazenamento
e de banda passante muito grande, como mostra a tabela 4.1.
• Retardo. Tempo gasto para a emissão do primeiro bit de um bloco de dados pelo
transmissor e sua recepção pelo receptor. Um valor aceitável de retardo é dependente da
aplicação. Áudio e vídeo digital são mídias contínuas dependentes do tempo, conhecidas
como dinâmicas ou isócronas. Para que a apresentação destas mídias tenha uma
qualidade razoável, as amostras de áudio e vídeo devem ser recebidas e apresentadas em
intervalos regulares.
• Variação do retardo. Variação no tempo do retardo de transmissão da rede. É um dos
principais parâmetros para suportar mídias dependentes do tempo. Para uma boa
apresentação de mídias contínuas, a variação do retardo deve ser muito pequena. Os
requisitos de retardo e variação do retardo devem ser garantidos durante toda a sessão de
comunicação. Grande parte das redes, protocolos de transporte, sistemas operacionais e
escalonamento de discos atuais não fornecem tal garantia. Portanto, os hospedeiros e
organização das redes atuais não são apropriados para aplicações multimídia.
• Taxa de erros. Parâmetro que mede a capacidade da rede em termos de alteração,
perda, duplicação ou entrega fora de ordem, dos dados. Em dados de áudio e vídeo podese tolerar algum erro ou perda, pois estes podem passar despercebidos pelo usuário.
Quando são utilizadas técnicas de compressão, a taxa de erros permitida é menor, pois
um erro em um bit pode causar erro de descompressão de muitos bits. Um outro
parâmetro de medida de erro é a taxa de perda de pacote. O requisito para taxa de erros
de pacote é mais rigoroso que para taxa de erros de bit, pois a perda de pacotes pode
afetar a decodificação de uma imagem.
Aplicações
Taxas de dados Kbits/s
Telefone Digital
64
Rádio Digital
1024
Áudio CD
1411,2
DAT
1536
Vídeo ( VHS )
54000
Vídeo ( TV )
216000
HDTV
864000
Tabela 4.1 - Taxas de Bits de Aplicações de Áudio e Vídeo
Para suporte a aplicações de recuperação e de distribuição, os principais critérios
exigidos de uma rede são: capacidade para comunicação de grupo e capacidade para fazer
cache de documentos. Capacidade de comunicação de grupo. Capacidade da rede para
replicar, em certos pontos internos, os dados emitidos por uma fonte. Dados replicados
devem ser passados a frente para os receptores-fim, que são parte do grupo. Esta
capacidade é desenvolvida para evitar ou minimizar que segmentos das redes sejam
atravessados por múltiplas cópias dos mesmos dados.
• Capacidade para fazer cache de documentos. Consiste, para o sistema local
envolvido, em aguardar solicitações do usuário, atendê-las e manter uma cópia de parte
específica da informação solicitada. Algoritmos apropriados mantêm apenas o subconjunto das partes que possuem a maior probabilidade de serem solicitadas pelos
sistemas locais.Em relação às redes de comunicação, existem ainda duas características
importantes no transporte de dados de aplicações multimídia. Estas características são:
isocronismo e qualidade de serviço (QoS).
Para o suporte a aplicações multimídia utilizando transmissão em tempo real, uma
característica particularmente importante é a de isocronismo. O termo isocronismo referese ao processo onde os dados devem ser entregues dentro de certos limites de tempo. Por
exemplo, streams multimídia requerem um mecanismo de transporte isócrono para
assegurar que os dados sejam entregues tão rápido quanto eles são apresentados e
assegurar que o áudio seja sincronizado com o vídeo.
Aplicações isócronas, ou sensíveis ao tempo, tais como vídeo, requerem muita banda
passante e baixo retardo fim-a-fim. Uma conexão de rede fim-a-fim é dita isócrona se a
taxa de bits da conexão é garantida e se o valor da variação do retardo é também
garantido e pequeno. Aplicações multimídia distribuídas são isócronas por natureza e
portanto, possuem limitações de tempo.
A outra característica de rede importante, é a de Qualidade de Serviço (QoS).
Dados multimídia requerem diversos requisitos de qualidade dos sistemas multimídia.
Estes requisitos, dependendo da aplicação, muitas vezes são ditos rigorosos. O conceito
de QoS é baseado no fato de que, nem todas as aplicações, necessitam do mesmo
desempenho da rede pela qual estão trafegando. As aplicações podem indicar os seus
requisitos específicos para a rede, antes de realmente ser iniciada a transmissão dos
dados. QoS é uma medida de quão bom é um serviço, como apresentado para o usuário.
É expressa em uma linguagem compreensível pelo usuário e manifesta, através de uma
quantidade de parâmetros, valores subjetivos e objetivos.
Portanto, para que informações de aplicações multimídia possam ser transmitidas
através de uma rede, com uma qualidade aceitável para o usuário, a rede deve atender, de
maneira satisfatória, e de acordo com cada mídia, os seguintes requisitos: vazão, retardo,
variação do retardo, taxa de erros, capacidade de comunicação de grupo, capacidade para
fazer cache de documentos, isocronismo e garantias de QoS.
5 – Sistemas Multimídias
Um sistema multimídia oferece uma função ou um conjunto de funções
particulares a uma aplicação multimídia. Uma aplicação multimídia é o uso específico,
por um usuário ou grupo de usuários, de um dado sistema multimídia. Um exemplo de
sistema multimídia é uma estação de trabalho equipada com dispositivos de áudio e
vídeo. Um exemplo de função, ou aplicação multimídia, é uma videoconferência.Os
sistemas multimídia distribuídos podem ser classificados em um número de classes. O
ITU (International Telecommunications Union) identifica quatro classes básicas de
serviços ou aplicações distribuídas. Estas quatro classes são:
• Serviços conversacionais. Implicam a interação entre um usuário humano e outro
usuário humano ou sistema. Esta classe inclui serviços interpessoais, como
videoconferência e videofone. Inclui também serviços como televigilância e telecompras.
• Serviços de mensagens. Cobrem a troca de dados multimídia que não são de tempo real
ou assíncronos, através de caixas de correio eletrônico.
• Serviços de recuperação. Cobre todos os tipos de acesso a servidores de informação
multimídia. Tipicamente, o usuário envia um pedido para o servidor e a informação
solicitada é entregue ao usuário em tempo real. Vídeo-sob-demanda é um exemplo deste
serviço.
• Serviços de distribuição. Cobrem serviços onde a informação é distribuída por
iniciativa de um servidor. Um exemplo deste serviço é uma difusão de programa de TV.
Existem alguns objetivos que um sistema multimídia deve atender.Estes objetivos são:
• O sistema deve ter recursos suficientes para suportar aplicações multimídia.
• Cada subsistema deve ter tipos e quantidade de recursos para suportar
múltiplas aplicações simultaneamente.
• Um sistema-fim deve estar apto a processar múltiplas aplicações.
• Redes, servidores e dispositivos de armazenamento devem estar aptos a
suportar um número de sessões ou fluxos simultaneamente.
• O sistema deve estar apto a utilizar os recursos disponíveis de maneira eficiente. Os
recursos de um sistema são compartilhados por várias aplicações. Estes recursos devem
ser compartilhados de uma maneira eficiente, tal que um número máximo de aplicações
possa ser suportado com uma determinada quantidade de recursos.
• O sistema deve estar apto a garantir os requisitos de QoS das aplicações. Os recursos
devem ser compartilhados eficientemente pelas diversas aplicações, e estas aplicações
devem conseguir a qualidade de serviço requisitada. Portanto, um importante desafio para
os sistemas multimídia é usar os recursos de uma maneira eficiente e ao mesmo tempo
garantir a QoS para cada aplicação.
• O sistema deve ser escalável. Uma arquitetura de comunicação deve ser escalável e
extensível para conseguir fornecer aumento nos requisitos dos usuários e atender novas
demandas. A escalabilidade refere-se a habilidade do sistema em adaptar-se a mudanças
no número de usuários a serem suportados e a quantidade de informação a ser
armazenada e processada.
A partir desta análise, pode-se concluir, portanto que, os sistemas de computação
e comunicação multimídia devem suportar e prover o seguinte: compressão de dados para
reduzir a demanda por espaço de armazenamento e banda de transmissão; um sistema
operacional, protocolo de transporte e escalonador de disco direcionado para multimídia,
que forneçam as garantias de retardo e variação de retardo apropriado; estações de
trabalho de alto desempenho e redes de alta velocidade para manipular altas taxas de bits
sob limitações de tempo; e mecanismos globais de especificação e garantia de QoS.
5.1 – Tipos de Redes Multimídias
Existem atualmente várias tecnologias de rede de longa distância disponíveis para
transmissão de informações. Muitas delas são adequadas para transmissão de apenas um
tipo de mídia, como por exemplo, texto ou voz. Muitas possuem baixa velocidade de
transmissão e não fornecem suporte a transmissão em tempo real, nem garantias de
qualidade de serviço. A tecnologia ATM possui todas estas características e aparece
como forte candidata para dar suporte a transmissão de dados de aplicações multimídia
com garantias de qualidade de serviço.
Redes multimídia devem ter uma grande capacidade de banda, prover garantias de
QoS, usar eficientemente seus recursos, ser escalável e ter capacidade de fazer
comunicação de grupo .
A seguir são analisados alguns tipos de rede de longa distância em relação a adequação
para transmissão de informação multimídia. Os tipos de redes analisados são:
X.25, Frame Relay e SMDS (Switched Multimegabit Data Service)
.
• X.25. O protocolo X.25 foi desenvolvido para trabalhar com sistemas de transmissão
lentos e de baixa qualidade. Ela implementa mecanismos pesados de detecção e
recuperação de erro. Comutadores de uma rede X.25 implementam controle de fluxo e
detecção de erro, bem como preservam o sequenciamento e a integridade dos pacotes de
dados.X.25 é orientado a conexão e como tal, possui um alto potencial para suportar, ou
abordar, isocronismo, pois pode reservar ou alocar recursos no estabelecimento da
conexão. Na prática, muitos comutadores X.25 existentes realmente reservam recursos,
mas não os alocam para circuitos virtuais e geralmente fazem reserva em excesso. Assim,
grande parte da tecnologia X.25 implementada não pode prover garantia determinística
nem estatística da taxa de bits. Em relação a taxa de bits, os comutadores atuais
usualmente estão limitados a 2Mbps por linha de acesso. No que diz respeito a reserva de
banda passante, algumas redes X.25 fazem a previsão da declaração de uma classe de
vazão no momento do estabelecimento da conexão. Muitos comutadores reservam banda
passante logicamente, através do decréscimo de um contador, o que pode levar a um
excesso na reserva. As redes X.25 não suportam a facilidade de comunicação de grupo.
Pode-se concluir que X.25 é uma tecnologia respeitável, apesar de antiga, que pode
suportar aplicações multimídia de baixa velocidade ou assíncronas. A tecnologia X.25
sofre devido a seus princípios e objetivos de projeto. Ela não escala facilmente e não é
adaptada para aplicações que demandam isocronismo.
• Frame Relay. O protocolo Frame Relay foi definido como um serviço de transporte de
pacote para RDSI (Rede Digital de Serviços Integrados). Quando as redes Frame Relay
foram introduzidas, o único serviço de longa distância similar existente era o X.25.
Portanto, estes dois serviços são muito comparados. O formato dos blocos de Frame
Relay é um dos formatos usados por X.25 e assim, Frame Relay transporta quadros X.25.
No protocolo Frame Relay, foram excluídos o controle de fluxo, a checagem de
sequência, e a detecção e correção de erro, presentes no X.25 .Frame Relay foi
desenvolvido como um serviço para substituir a multiplexação síncrona por
multiplexação estatística em comunicações de dados convencionais. Não foi definido
para suportar transmissões isócronas em tempo real. Não foi desenvolvido para suportar
aplicações multimídia de tempo real ou que demandem banda passante. No entanto, por
ser orientado a conexão há uma facilidade de fazer alocação de recursos. Possui um
serviço de comunicação de grupo definido, mas que raramente é implementado.
• SMDS. Foi desenvolvido para suportar interconexão, em alta velocidade, de LANs
(Local Area Networks) não orientadas a conexão. Não provê suporte explícito para
transmissão em tempo real de áudio ou vídeo. A velocidade de acesso - atualmente
45Mbps e possivelmente 155Mbps - é apropriada para a maioria das aplicações
multimídia, exceto para canais HDTV (High-Definition Television) simultâneos. Mais de
seis canais de TV com qualidade de difusão podem ser suportados em uma interface de
45Mbps. Uma característica importante da tecnologia SMDS é ter um baixo retardo de
transmissão, em torno de 10 ms. A variação deste retardo depende da escolha de
implementação feita para a rede. SMDS possui a facilidade para fazer comunicação de
grupo, o que fornece uma solução para fazer difusão de vídeo ou suportar serviços de
vídeo-sob-demanda De acordo com o que foi mostrado, X.25, Frame Relay e SMDS não
são adaptados para transmissão de informações de aplicações que requerem isocronismo.
X.25 e Frame Relay também não são adaptados para transmissão de informações que
demandem uma grande capacidade de banda passante.
Os três protocolos não podem prover garantias de desempenho e foram definidos para
transportar dados que não tenham características de tempo real. Estes exemplos de rede
não devem ser considerados como bons candidatos para comunicações multimídia.
• ΑΤΜ . As tecnologias mostradas na seção anterior possuem várias limitações para
transmissão de dados em alta velocidade e de tráfego multimídia. Em relação a alta
velocidade, os pacotes possuem tamanhos e campos variados, controle de fluxo baseado
em mecanismos de janela torna a transmissão ineficiente e a correção de erros pode
causar um congestionamento na rede. Em relação ao tráfego multimídia, algumas
tecnologias não possuem suporte a comunicação de grupo, não possuem capacidade de
estabelecer conexões rápidas e também não possuem suporte para a definição de
qualidade de serviço.
Em contraste a estas tecnologias surge a tecnologia ATM, que possui um tamanho
de pacote (célula) fixo, não realiza controle de erros nos nós intermediários e permite a
definição de parâmetros de QoS.
ATM promete alcançar os cinco requisitos de rede, citados na seção anterior, para
comunicações multimídia, e é potencialmente mais apropriado para este tipo de
comunicação. ATM está sendo adotado pelo ITU-TS (International Telecommunication
Union-Telecommunication Sector) como o mecanismo de multiplexação e comutação
para B-ISDN (Broadband - Integrated Service Digital Network) e B-ISDN promete
suportar tipos diferentes de aplicações.
A transmissão em uma rede ATM é orientada à conexão. Para estabelecer uma
sessão fim-a-fim, deve ser executado o procedimento de estabelecimento de conexão e ao
final, o procedimento de desconexão. No procedimento de conexão, o usuário deve
informar à rede os endereços de origem e destino, bem como a QoS necessária para
aquela conexão.
Existem várias razões pelas quais ATM é uma tecnologia apropriada para
comunicações multimídia. As principais destas razões são:
1. Largura de Banda. ATM promete alta velocidade de acesso aos sistemas-fim. Estas
velocidades de acesso são suficientes para qualquer tipo de aplicação multimídia com a
tecnologia de compressão atual.
2. Flexibilidade e garantias de QoS. As redes ATM podem suportar aplicações com
diferentes características de tráfego e requisitos de comunicação. Estes requisitos incluem
largura de banda, limites de retardo e sensibilidade a erros. ATM é um esquema de
multiplexação por divisão de tempo. As fatias de tempo não são assinaladas para uma
conexão particular, o que permite fazer alocação dinâmica de banda para cada aplicação.
O serviço orientado a conexão, provido pelo ATM, pode reservar recursos para garantir a
QoS de cada aplicação.
3. Escalabilidade. ATM é um protocolo não dependente de banda passante e permite que
qualquer aplicação, com diferentes requisitos de comunicação (especialmente banda),
compartilhem a mesma UNI (User Network Interface). A banda passante para cada ponto
de acesso não é afetada pelo número de usuários ativos conectados a rede.
4. Integração. O protocolo ATM pode suportar, simultaneamente, através da mesma
UNI, múltiplas aplicações com diferentes características e requisitos. Isto implica em
grande simplificação e economia sobre as soluções de rede atuais, específicas para cada
tipo de aplicação.
5. Arquitetura. A topologia física de malha ponto-a-ponto utilizada na B-ISDN, provê
mais banda passante dedicada para cada usuário, comparada com redes que utilizam meio
compartilhado, como FDDI (Fiber Distributed Digital Interface) e DQDB (Dual Queue
Dual Bus). Também permite que a mesma arquitetura seja desenvolvida como solução de
rede tanto pública quanto privada, ambas executando essencialmente o mesmo protocolo.
6. Eficiência. ATM utiliza multiplexação estatística de banda passante para transmissão
compartilhada. O ganho estatístico é significante quando as aplicações com tráfego em
rajada são multiplexadas. Como uma grande quantidade das aplicações multimídia tende
a ter o tráfego em rajada, o ganho resultante da multiplexação estatística implica em um
compartilhamento muito eficiente do custo de transmissão.
7. Comunicação de grupo. ATM permite que a técnica de comunicação de grupo seja
implementada facilmente através da mudança de VCI (Virtual Channel Identifier) e VPI
(Virtual Path Identifier) nos comutadores.
8. Versatilidade. ATM utiliza um mecanismo de multiplexação e comutação
independente da taxa de bit, do tamanho da rede e do meio de transmissão. ATM está
caminhando para uma tecnologia padrão para serviços locais, de espinha dorsal e de
longa distância, público e privado. Esta uniformidade tem como objetivo simplificar o
gerenciamento da rede, através da utilização da mesma tecnologia para todos os níveis de
rede.
9. Padronização. ATM originou-se da necessidade por um padrão universal para
permitir interoperabilidade de informação, independente do sistema-fim ou do tipo de
informação. Com ATM, o objetivo é obter um padrão internacional. ATM é uma
tecnologia que está emergindo direcionada por um consenso internacional e não pela
visão ou estratégia de um único fabricante. Isso assegura o crescimento e compatibilidade
do ATM.
Algumas diferenças existentes entre ATM e as tecnologias citadas na seção
anterior são: cada conexão virtual ATM é estabelecida com uma classe de serviço
particular, escolhida de um conjunto bem definido de classes possíveis; no momento que
a conexão é estabelecida em ATM, várias características são definidas, como tipo de
tráfego, retardo de transmissão, tolerância a variação de retardo de célula e qualidade de
serviço; os mecanismos para estabelecimento de conexões virtuais, internamente, são
definidos por um padrão, o que facilita a interconexão entre comutadores de fabricantes
diferentes; não existe recuperação de erro de célula em conexões virtuais ATM. Células
erradas, quando detectadas, são simplesmente descartadas.
ATM suporta uma quantidade de serviços que podem competir com serviços
oferecidos por operadores de telecomunicações, tais como:
• Serviços ATM que competem com serviços de dados convencionais. Conexões virtuais
ATM comutadas, de baixa velocidade, a uma taxa de bit constante, competem com NISDN (Narrowband - Integrated Service Digital Network) e outros serviços baseados em
circuitos e de velocidade média. Circuitos comutados, com taxa de bits variável
competem com circuitos X.25. Circuitos ATM permanentes competem diretamente com
circuitos alugados.
• Serviços ATM que competem com novos serviços de comunicação. Circuitos
permanentes com taxa de bits variável, a uma velocidade média, são similares a serviços
Frame Relay públicos. O serviço ATM sem conexão corresponde na prática a serviços
SMDS.
A tecnologia ATM, quando disponível fim-a-fim, como uma tecnologia
desenvolvida para suportar várias classes de serviços, é a solução para suporte de
aplicações multimídia digitais para longas distâncias.
A possibilidade de estabelecer conexões a altas velocidades, com uma variedade
de níveis de garantia para taxa de bits e variação do retardo, devem satisfazer a maioria
das aplicações. O retardo de transmissão típico de dois a uma dezena de milisegundos excluído o retardo de propagação - é compatível com a maioria das aplicações. A taxa de
perda de célula de 10-8 a 10-10 é apropriada para todos os tipos de transmissão de tempo
real de fluxos de áudio e vídeo.
A tecnologia ATM suporta uma grande variedade de serviços e aplicações e
satisfazer uma série de necessidades de qualidade do usuário e objetivos de desempenho
da rede. Esta tecnologia permite flexibilidade na escolha de taxas de conexão e permite a
multiplexação estatística de fluxos de tráfego VBR (Variable Bit Rate). ATM fornece um
serviço de transporte universal para redes digitais de serviços integrados de banda larga
(B-ISDNs), que podem transportar voz, dados e vídeo.
No momento em que se opta por utilizar a rede IP para transporte de informações
multimídia, o primeiro problema com que se defronta é que o protocolo IP é não
orientado à conexão. Como garantir qualidade de serviço a uma transmissão, em que cada
um de seus pacotes pode seguir rotas diferentes, com atraso variável e nível de
confiabilidade, também, variável? Para resolver esse problema, o conceito de conexão é
implementado através da criação de fluxos. Isso é feito realizando-se comutação de label
ou tag ao invés de endereços IP. Um fluxo é, então, definido por uma seqüência de labels
ou tags, à qual se associam parâmetros de qualidade de serviço. Isso é feito tanto no caso
do MPLS (Multiprotocol Label Switching) como do Ipv6.
Pressupondo a existência de fluxos de informação em uma rede IP, a garantia de
qualidade de serviços para as mídias de dados, voz e vídeo é conseguida de maneira
análoga às redes ATM. São definidas, também, classes de serviços diferentes,
empregando-se, por exemplo, DiffServ, às quais são associadas prioridades diferentes. A
banda de transmissão pode ser reservada e vinculada a cada fluxo através do protocolo
RSVP ( Resource Reservation Protocol). Por último, a confiabilidade é garantida,
também, pela utilização de infra-estrutura de redes físicas, baseadas em fibra óptica e por
protocolos de camadas superiores, como o próprio TCP ( Transmission Control Protocol).
Além da parte referente à comunicação, é importante que existam ambientes de
desenvolvimento para aplicações multimídias. Nesse sentido, tem surgido sistema
operacional com gerenciamento de recursos multimídia já embutidos como Windows XP
e o próprio Linux, Windows Pocket e Embebed Linux para PDAs e EPOC para celulares
e PDAs. Ou seja, a indústria de teleinformática tem se movimentado no sentido de
oferecer para o mercado uma infra-estrutura de comunicação wireline e wireless que
suporte o transporte de informações multimídia.
Cabem às empresas provedoras de soluções e serviços em ambientes distribuídos,
como a própria Internet, conceber aplicações cada vez mais competitivas, fazendo uso
desses recursos que começam a ser disponibilizados e devem tornar-se, amplamente
acessíveis nas próximas décadas.
BibliografiaAna Luiza B.P.B. Diniz –Um serviço de Alocação Dinâmica de Banda Passante em
Redes ATM para suporte a Aplicações Multimídia. Tese de
Mestrado - UFMG – 1998.
Tereza C.M.B. Carvalho – Tecnologias Convergentes.

Documentos relacionados