TCC Andressa Warken 2013

Transcrição

TCC Andressa Warken 2013
ANDRESSA WARKEN
SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE:
LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO
NOVO HAMBURGO
2013
2
ANDRESSA WARKEN
SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE:
LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO
Monografia apresentada como requisito parcial
para a obtenção do título de Bacharel em
Comunicação Social, Habilitação em Jornalismo,
no Curso de Comunicação Social da
Universidade Feevale, de Novo Hamburgo.
Professora orientadora: Profa. Dra. Sandra Portella Montardo
Novo Hamburgo
2013
3
ANDRESSA WARKEN
Monografia apresentada como Trabalho de Conclusão do Curso de Comunicação
Social, Habilitação em Jornalismo, com título “Search Engine Optimization em
redações online: levantamento de experiências no Jornalismo Brasileiro”, submetido
ao corpo docente da Universidade Feevale como requisito necessário para a
obtenção do Grau de Bacharel em Comunicação Social – Habilitação em
Jornalismo.
Aprovado por:
__________________________
Profa. Dra. Sandra Portella Montardo Professora Orientadora
__________________________
Thiago Mendes Banca Examinadora
__________________________
Willian Araújo Banca Examinadora
Novo Hamburgo, novembro de 2013.
4
RESUMO
Esta pesquisa investiga o uso das técnicas de Search Engine Optimization
nas redações online, considerando o relato de experiências de profissionais da área
familiarizados com o tema em questão. Os autores que fundamentam este estudo
são Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros
(2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012), e outros. O objetivo
geral foi levantar as experiências e práticas de jornalistas brasileiros em relação ao
Search Engine Optimization. Como objetivos específicos, buscou-se conhecer a
história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e
verificar quais as práticas recomendáveis e o conhecimento necessários aos
jornalistas nesse assunto. As considerações finais apontam que os grandes grupos
de comunicação já estão atentos às possibilidades da aplicação de SEO para a
geração de tráfego aos sites de notícia. Verificou-se ainda que o conhecimento em
SEO não é ainda um pré-requisito, mas sim um diferencial, para os jornalistas que
pretendem atuar em redações online.
Palavras-chave:
otimização para busca.
Jornalismo
Online,
SEO,
mecanismos
de
busca,
5
ABSTR AC T
This research investigates the use of the SEO’s techniques in Online
Journalism. The authors that underlie this study are Castells (2003), Fragoso (2007),
Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e
Bertocchi (2012) and others. The overall goal was to raise the experiences and
practices of Brazilian journalists in Search Engine Optimization. The specific
objectives are to know the history of the Internet and Online Journalism; to know the
basic techniques of SEO and check the best practices and the knowledge required of
the journalists on this subject. The conclusions point that the big media groups are
aware of the possibilities in applying SEO to generate traffic to news sites. The
conclusions point out that . It was observed, too, that SEO knowledge is still not a
prerequisite, but a differential for journalists who intend to work in online newsrooms.
Keywords: Online Journalism, SEO, serch engines, search optimization.
6
SUMÁRIO
INTRODUÇÃO.................................................................................................7
1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA............................9
1.1 INTERNET E WEB.................................................................................9
1.2 MECANISMOS DE BUSCA.................................................................13
1.2.1 Funcionamento dos mecanismos de busca...................................17
1.3 O QUE É SEO?....................................................................................19
1.3.1 SEO on-page.................................................................................20
1.3.2 SEO off-page.................................................................................25
2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER
JORNALÍSTICO.........................................................................................................27
2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE..............................27
2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE...............................29
2.3 MUDANÇAS NO FAZER JORNALÍSTICO..........................................36
3 MÉTODO E ANÁLISE................................................................................43
3.1 PROCEDIMENTOS METODOLÓGICOS............................................43
3.2 RESULTADOS: APLICAÇÃO DAS TÉCNICAS DE SEO NAS
REDAÇÕES ONLINE..............................................................................................46
3.3 DISCUSSÃO DOS RESULTADOS......................................................51
CONSIDERAÇÕES FINAIS...........................................................................54
REFERÊNCIAS.............................................................................................55
ANEXO A – ENTREVISTA ESTRUTURADA COM PROFISSIONAIS..........59
7
INTRODUÇÃO
A World Wide Web se desenvolveu rapidamente e o número de páginas
cresce substancialmente ano após ano. Nesse sentido, os mecanismos de busca
surgiram como uma forma de organizar toda esta informação disponível na rede. O
primeiro indexador de páginas surgiu em 1990 e se chamava Archie. Em 1999, um
novo mecanismo de busca chamado Google (ainda em versão beta) se tornou
amplamente conhecido, por utilizar um algoritmo de classificação inovador.
Com o passar dos anos, o mercado de buscas foi crescendo e uma boa
colocação nas páginas de resultados dos mecanismos de busca tornou-se cada vez
mais cobiçada. O funcionamento dos mecanismos foi sendo aprimorado e seus
algoritmos passaram a ser cada vez mais secretos e exatos, o que estimulou o
surgimento da indústria de SEO, que consiste em um conjunto de técnicas e
métodos para alcançar uma boa indexação nos mecanismos de busca.
Atentas a esse movimento, equipes responsáveis por sites, inclusive sites de
notícia, passaram a atentar mais para questões como a arquitetura de informação e
a otimização de seu conteúdo. Nesse ponto, que entra o papel do jornalista. Quais
as práticas das redações online brasileiras em relação ao Search Engine
Optimization? É justamente esse questionamento que o presente trabalho busca
responder.
O objetivo geral desta pesquisa é levantar as experiências e práticas de
jornalistas brasileiros em relação ao Search Engine Optimization. Já os objetivos
específicos são conhecer a história da Internet e do Jornalismo Online; conhecer as
técnicas básicas de SEO e verificar quais as práticas recomendáveis e o
conhecimento necessário aos jornalistas quanto a esse assunto.
Para dar conta dos objetivos do trabalho, a abordagem metodológica
adotada baseou-se em uma revisão literária, apoiada pela realização de entrevista
estruturada com quatro profissionais que atuam com Search Engine Optimization em
sites de grandes grupos de comunicação.
O primeiro capítulo apresenta “A Internet, a web e os mecanismos de
busca”, em que se traz a evolução da internet e dos mecanismos de busca, a partir
de dados históricos. O Search Engine Optimization, um dos motes principais deste
estudo, também é apresentando, reunindo as principais técnicas utilizadas. Os
8
principais autores utilizados neste capítulo são Castells (2003), Fragoso (2007) e
Felipini (2010).
O segundo capítulo apresenta o “Jornalismo Online”.
Inicialmente, são
levantados dados históricos e características dessa prática e, em um segundo
momento, as mudanças que ocorreram tanto no perfil comportamental dos
consumidores de notícias quanto nas rotinas produtivas dos jornalistas. Nesse
capítulo, os principais autores utilizados são Palacios (2003), Quadros (2002),
Pereira e Adghirni (2011) e Corrêa e Bertocchi (2012).
No terceiro capítulo, apresenta-se os procedimentos metodológicos, as
respostas da entrevista estruturada e uma análise dessas respostas de modo geral.
Para finalizar, estabelece-se uma conexão dos resultados obtidos com a literatura
consultada.
9
1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA
A fim de mapear as práticas de Search Engine Optimization no Jornalismo
Online brasileiro, o foco deste primeiro capítulo será internet, mecanismos de busca
e SEO. No primeiro item tratar-se-á do surgimento da internet e de sua evolução
para a World Wide Web. No segundo item, entrarão em pauta os mecanismos de
busca e a forma como eles foram sendo aperfeiçoados ao longo dos anos. Na
sequência, será abordado o funcionamento dos mecanismos, oferecendo aos
leitores o embasamento adequado para compreender a importância das técnicas de
SEO para o Jornalismo Online, foco do capítulo seguinte.
1.1 INTERNET E WEB
Arpanet era como se chamava a primeira rede de computadores, que entrou
em funcionamento em 1° de setembro de 1969. Ela surgiu a partir de um trabalho de
uma instituição de pesquisa do Departamento de Defesa dos Estados Unidos
chamada ARPA (Advanced Research Projects Agency). O principal objetivo dessa
instituição era “mobilizar recursos de pesquisa, particularmente do mundo
universitário, com o objetivo de alcançar superioridade tecnológica militar em relação
à União Soviética na esteira do lançamento do primeiro Sputnik em 1957”
(CASTELLS, 2003, p. 13). O departamento da ARPA que esteve envolvido no
desenvolvimento da Arpanet chamava-se IPTO (Information Processing Techniques
Office) e visava ao estímulo da pesquisa em computação interativa.
Para montar a rede, os pesquisadores utilizaram a tecnologia de “comutação
por pacote”, desenvolvida independentemente por Paul Baran da Rand Corporation
(centro de pesquisas californiano que trabalhava para o Pentágono à época) e por
Donals Davies do British National Physical Laboratory. A Arpanet foi desenvolvida
para “permitir aos vários centros de computadores e grupos de pesquisa que
trabalhavam para a agência compartilhar on-line tempo de computação”, sendo que
os primeiros nós da rede estavam na Universidade da Califórnia em Los Angeles, no
SRI (Standford Research Intitute), na Universidade da Califórnia em Santa Barbara e
10
na Universidade de Utah, segundo Castells (2003). Ainda de acordo com o autor, o
passo seguinte da ARPA “foi tornar possível a conexão da Arpanet com outras redes
de computadores, a começar pelas redes de comunicação que a ARPA estava
administrando, a PRNET e a SATNET”.
Foi no ano de 1973 que a arquitetura básica da Internet foi delineada, por
meio de um artigo elaborado pelos cientistas da computação Robert Kahn (da
ARPA) e Vint Cerf (da Universidade de Standford). Este artigo definia que, para
estabelecer comunicação entre si, as redes de computadores necessitavam de
protocolos de comunicação padronizados.
Em 1978, Vint Cerf, Jon Postel e Steve Crocker, trabalhando na
Universidade da Califórnia, dividiram o TCP (protocolo de controle de
transmissão) em duas partes, acrescentando um protocolo intra-rede (IP), o
que gerou o TCP/IP, o padrão segundo o qual a Internet continua operando
até hoje (CASTELLS, 2003, p. 14-15).
Dois anos após, em 1975, a Arpanet foi transferida para a DCA (Defense
Communication Agency), que criou a Defense Data Network com o intuito de tornar
a comunicação por computador disponível aos vários ramos das Forças Armadas.
Já “em 1983, o Departamento de Defesa, preocupado com possíveis brechas na
segurança, resolveu criar o MILNET, uma rede independente para usos militares
específicos”. (CASTELLS, 2003, p.14). Depois disso, a Arpanet ganhou o nome de
ARPA-INTERNET e passou a ser usada exclusivamente para fins de pesquisa.
Em 1984, A NSF (National Science Foundation) montou sua própria rede de
comunicação entre computadores, a NSFNET, que quatro anos depois passou a
utilizar a infraestrutura física da rede da ARPA-INTERNET. E quando a Arpanet se
tornou tecnologicamente obsoleta, o governo dos EUA confiou sua administração à
NSF; a qual na sequência encaminhou a privatização da Internet. À época, “a
maioria dos computadores nos EUA tinha capacidade de entrar em rede, o que
lançou os alicerces para a difusão da interconexão de redes” (CASTELLS, 2003, p.
15).
A NSFNET foi extinta em 1995, o que abriu caminho para a operação privada
da Internet. E essa “rede global de redes de computadores” cresceu rapidamente, já
que, no início da década de 1990, muitos provedores de serviços da Internet já
possuíam suas próprias redes e estabeleciam suas portas de comunicação em
bases comerciais.
11
Além da contribuição da Arpanet, o formato atual da Internet foi resultado de
uma tradição de base de formação de redes de computadores. Um dos fatores
influentes foi o BBS (Bulletin Board Systems): um movimento que surgiu da
interconexão de computadores pessoais no final da década de 1970.
Em 1977, dois estudantes de Chicago, Ward Christensen e Randy Suess,
escreveram um programa, que batizaram de MODEM, que permitia a
transferência de arquivos entre seus computadores pessoais; em 1978
fizeram um outro, o Computer Bulletin Board System, que permitia aos
computadores armazenar e transmitir mensagens (CASTELLS, 2003, p.16).
Já em 1983, o programador Tom Jennings iniciou uma rede de BBS chamada
de FIDONET, que é até hoje a rede de comunicação por computadores mais barata
e acessível do mundo, por se basear em PCs e ligações por linhas telefônicas
convencionais. Outra tendência decisiva para a formação de redes de computadores
veio da comunidade dos usuários do UNIX, sistema operacional desenvolvido pelos
Laboratórios Bell, liberado para as universidades em 1974. “O sistema logo se
tornou a língua franca da maior parte dos departamentos de ciência da computação
e os estudantes logo se tornaram peritos na sua manipulação” (CASTELLS, 2003,
p.16).
Com base no programa UUCP (UNIX-to-UNIX copy) da Bell, que permitia que
computadores copiassem arquivos uns dos outros; em 1979, quatro estudantes da
Carolina do Norte projetaram um programa para comunicação entre computadores
UNIX.
Uma versão aperfeiçoada desse programa foi distribuída gratuitamente
numa conferência de usuários de UNIX em 1980. Isso permitiu a formação
de redes de comunicação entre computadores – a Usenet News - fora do
backbone (infraestrutura física) da Arpanet (CASTELLS, 2003, p.16).
Em 1980, quando a Usenet News chegou ao departamento de ciência da
computação da Universidade da Califórnia em Berkeley, um grupo de estudantes de
pós-graduação empenhou-se em desenvolver uma ponte entre a Arpanet – que já
possuía um nó na universidade – e a Usenet.
“Dali em diante, a Usenet ficou
vinculada à Arpanet, as duas tradições gradualmente se fundiram e várias redes de
computadores passaram a poder se comunicar entre si” (CASTELLS, 2003, p. 1617). Dessa maneira, essas redes finalmente se congregaram na forma da Internet.
No entanto, a difusão da Internet na sociedade em geral ocorreu somente
após o desenvolvimento da World Wide Web. O projeto de um sistema global de
12
hipertexto foi iniciado em 1989, por um grupo de pesquisadores chefiado por Tim
Berners-Lee e Robert Cailliau, no CERN, o Laboratório Europeu para a Física de
Partículas, localizado em Genebra. Berners-Lee “definiu e implementou o software
que permitia obter e acrescentar
informação de e para qualquer computador
conectado através da Internet: HTTP, MTML e URI (mais tarde chamado URL)”
(CASTELLS, 2003, p. 18). Em 1993, segundo Fragoso (2007), o CERN decidiu abrir
mão do direito de propriedade dos códigos básicos do projeto, tornando a WWW um
domínio público.
Em meados da década de 1990, a Internet estava privatizada e dotada de
uma arquitetura técnica aberta, que permitia a interconexão de todas as
redes de computadores em qualquer lugar do mundo; a WWW podia então
funcionar com software adequado, e vários navegadores de uso fácil
estavam à disposição do público (CASTELLS, 2003, p. 19).
No final de 1995, o primeiro ano de uso disseminado da World Wide Web,
havia cerca de 16 milhões de usuários de redes de comunicação por
computador no mundo (CASTELLS, 2003, p. 8).
Em relação à Internet no Brasil, segundo Limeira (2003), até 1988 as
universidade brasileiras se conectavam às redes internacionais de pesquisa por
meio da rede BITNET (uma contração da expressão Because it’s Time Network) que
era uma rede de correio eletrônico. Ainda segundo o autor, em 1989, o Ministério da
Ciência e Tecnologia formou um grupo com representantes do CNPq (Conselho
Nacional de Desenvolvimento Científico e Tecnológico), da Finep (Financiadora de
Estudos e Projetos), da FAPESP (Fundação de Amparo à Pesquisa do Estado de
São Paulo), da Faperj (Fundação Carlos Chagas Filho de Amparo à Pesquisa do
Estado do Rio de Janeiro) e da Fapergs (Fundação de Amparo à Pesquisa do
Estado do Rio Grande do Sul) para discutir a
interligasse
as
principais
universidades,
implantação de uma rede que
órgãos
governamentais
e
não-
governamentais e instituições de pesquisa. O resultado foi o surgimento da RNP
(Rede Nacional de Pesquisa) em setembro de 1989.
O modelo de prestação de serviços de redes operado pela RNP foi
concebido para dar suporte à introdução da tecnologia de rede Internet no
país, bem como sua difusão e capilarização por meio do apoio à
implantação de redes estaduais (LIMEIRA, 2003, p. 29).
Em 1993, após montado o backbone (infraestrutura física) da rede, a RNP já
atendia 11 estados brasileiros, com conexões em velocidade de 9,6 a 64 Kbps. Até
13
1996, implantou-se a Fase II do projeto, com uma infraestrutura mais veloz que a
anterior. Nessa época, o RNP deixou de ser um backbone restrito ao meio
acadêmico, estendendo seus serviços de acesso a todos os setores da sociedade.
Assim, “ofereceu um importante apoio para a consolidação da Internet comercial no
Brasil, que teve início em maio de 1995” (LIMEIRA, 2003, p. 30).
Dessa forma, tanto no Brasil, quanto em todo o mundo, a Web se
desenvolveu rapidamente e o número de páginas indexáveis (acessíveis aos
mecanismos de busca) foi aumentando substancialmente a cada ano. Para se ter
uma idéia, em 1999, haviam em torno de 800 milhões de páginas indexáveis na web
(LAWRENCE; GILES, 1999, apud FRAGOSO, 2007, p.2). No ano seguinte, mais de
dois bilhões (MURRAY, 2000, apud FRAGOSO, 2007, p.2). E em janeiro de 2005, já
eram pelo menos 11,5 bilhões de páginas (GULLI; SIGNORINI, 2005, apud
FRAGOSO, 2007, p.2). Com isso, tornou-se necessária uma forma de organização
dessas páginas para facilitar a pesquisa pelos usuários e, a partir dessa
necessidade, surgiram os mecanismos de busca.
1.2 MECANISMOS DE BUSCA
O primeiro indexador de páginas surgiu em 1990, antes mesmo da World
Wide Web, e ele se chamava Archie. Ele “reunia informações de arquivos
disponíveis em servidores FTP (File Transfer Protocol)1 anônimos e os mantinha
atualizados checando os dados em intervalos de até 30 dias” (FRAGOSO, 2007, p.
3). Em 1992, foi lançado o Veronica, que era um banco de dados que reunia os
menus dos servidores Gopher, permitindo a realização de buscas por tópico
(palavra-chave), ainda segundo a autora.
No ano seguinte, foi criado o Jughead que introduziu a possibilidade de
realizar buscas booleanas. “Em ciência da computação, booleano é um tipo de
dado primitivo que possui dois valores, que podem ser considerados como 0 ou 1,
verdadeiro ou falso”2. Desde o ano anterior, já estava também em operação o WAIS
(Wide Area Information Server), que reunia características do Gopher e dos
1
Servidor que fornece, através de uma rede de computadores, um serviço de acesso para usuários a
um disco rígido ou servidor de arquivos através do protocolo de transferência de arquivos.
2
Disponível em http://pt.wikipedia.org/wiki/Booleano.
14
buscadores que nele operavam e havia sido desenvolvido por iniciativa conjunta de
quatro empresas. “Com o WAIS, era possível realizar buscas em bases de dados
remotas, cujos resultados eram organizados em ordem decrescente de frequência
das palavras-chave” (FRAGOSO, 2007, p. 3).
Em 1993, alguns meses após o lançamento do primeiro browser para
Windows, o X Windows Mosaic, já surgiu o primeiro webrobot3: o World Wide Web
Wanderer. O intuito inicial era mapear toda a Web, mas isto já era matematicamente
impossível. Ainda no mesmo ano, surgiram mais três webrobots: JumpStation,
WWW-Worm e RBSE.
O Worm indexava os títulos e endereços das páginas, enquanto o
JumpStation inovou ao arquivar também os cabeçalhos. Ambos
apresentavam os resultados na ordem em que os encontravam. O RBSE foi
o primeiro a implementar um sistema de ranqueamento baseado na
relevância relativa à expressão utilizada para a busca (MAULDIN, 1997;
WALL, 2006 apud FRAGOSO, 2007, p. 4).
O primeiro indexador projetado especificamente para a Web surgiu também
em 1993. Inspirado pelo Archie, o Aliweb contava com um banco de dados cujas
informações eram fornecidas diretamente por webmasters4. “Isso permitia que o
sistema arquivasse descrições das páginas, que eram alimentadas pelos próprios
criadores, mas por outro lado tornava a qualidade e atualidade do banco de dados
dependentes da boa vontade de terceiros” (FRAGOSO, 2007, p. 4-5). Já o primeiro
diretório pesquisável foi o Galaxy. Ainda segundo Fragoso (2007), o Galaxy listava
apenas URLs (Uniform Resource Locator) que tinham sido fornecidas diretamente,
organizando os endereços em categorias e sub-categorias e permitindo que os
usuários restringissem a busca a sub-áreas de sua base de dados, o que acelerava
e tornava mais preciso o processo.
Já em 1994, surgiu o WebCrawler, “um bot capaz de associar o registro do
conteúdo completo das páginas à funcionalidade do rastreamento automático”, por
meio da indexação vetorial5. Depois do WebCrawler, outros sistemas de busca foram
aperfeiçoando suas funcionalidades e abrangência. O Lycos surgiu em 1994 e
ganhou destaque, pois organizava os resultados das buscas conforme a relevância,
permitia consultas por prefixo e dava bônus por proximidade entre palavras, de
3
Programa que percorre a web passando de um documento para outro através dos hiperlinks.
Profissionais responsáveis pelo webdesign e desenvolvimento de uma página na web.
5
Na indexação vetorial, documentos em linguagem natural são representados por meio de vetores,
ou seja, as palavras-chave (termos de busca) recebem características vetoriais. O sistema avalia a
relevância dos documentos de acordo com sua relação espacial com as palavras-chave buscadas.
4
15
acordo com Fragoso (2007). O peso do banco de dados era aliviado por meio da
estratégia de não arquivar o conteúdo completo das páginas, mas apenas um
resumo gerado automaticamente a partir das 100 palavras-chave mais frequentes
em cada página, combinadas com as palavras do título, do cabeçalho e as 20
primeiras linhas ou os primeiros 10% do documento.
Com o passar dos anos e o aumento constante do tráfego, os investidores
começaram a se dar conta das possibilidades da publicidade online, interessando-se
em incluir banners e pequenos anúncios nas páginas de entrada dos sites. Então,
buscando intensificar o fluxo de público para atrair mais anunciantes, muitos
sistemas de busca “assumiram o formato de portal, passando a oferecer uma
variedade de serviços” (FRAGOSO, 2007, p. 6). Foi o caso do Yahoo!, que começou
em 1994, como uma lista de sites favoritos elaborada por dois primeiranistas de
doutorado da Universidade de Stanford. Nessa época, fazer listas de favoritos na
Web era algo bastante comum, o diferencial do Yahoo! É que ele disponibilizava
breves descrições das páginas.
Com o aumento do número de indicações, a lista tornou-se pouco amigável
e os autores criaram uma estrutura de árvore (categorias e sub-categorias),
conferindo ao Yahoo! o perfil de um diretório. Para responder ao
crescimento da popularidade da lista, adicionaram também uma ferramenta
de busca e passaram a aceitar inscrições de websites que desejassem
figurar em seu banco de dados. Com menos de um ano de funcionamento,
a página do Yahoo! celebrou seu milionésimo acesso, com visitantes vindos
de quase 100 mil endereços distintos (YAHOO! MEDIA RELATIONS, 2005
apud FRAGOSO, 2007, p. 6).
Em 1995 surgiu o AltaVista, que era mais rápido que as outras ferramentas
disponíveis na época, prometia aos webmasters atualizar as informações recebidas
em, no máximo, 24 horas e permitia buscas “a partir de perguntas, buscas em
newsgroups, buscas específicas por palavras associadas a imagens, títulos e outros
campos do código HTML e buscas por inlinks” (FRAGOSO, 2007, p. 6). Possuía
ainda um campo de dicas logo abaixo da área de busca, o que ajudou a aumentar a
fidelidade à ferramenta.
Rapidamente, os mecanismos de busca se tornaram os principais veículos
para a publicidade online. Conforme Fragoso (2007), as alternativas eram as
seguintes: inclusão paga, em que o webmaster pagava para garantir que seu site
fosse incluído no banco de dados da ferramenta de busca ou diretório; a
classificação paga, em que o buscador garantia que o site figuraria entre os
16
primeiros resultados das buscas por uma ou várias palavras; e seleção paga (payper-click), em que o anunciante só paga quando o usuário clica no link para seu site.
Já que foram surgindo dezenas de mecanismos de busca e cada um cobria
porções diferentes da web; em 1995, surgiram as ferramentas de meta-busca, que
permitiram buscar em vários sistemas de busca ao mesmo tempo. O ponto negativo
era que elas desviavam o público das demais páginas, afastando delas os
anunciantes.
Em paralelo à manipulação dos resultados das buscas pela inserção de
resultados pagos, surgiram também os spams: resultados na busca que nada tinham
a ver com o que o usuário estava buscando. Para evitar isso, “os sistemas de busca
desenvolviam estratégias de indexação e classificação cada vez mais sofisticadas”
(FRAGOSO, 2007, p. 8). Àquela altura, a disputa pelo mercado de buscas parecia
girar em torno do tamanho dos bancos de dados. Muitas das pequenas ferramentas
foram compradas por “buscadores maiores, interessados tanto em aumentar ainda
mais seus bancos de dados quanto, muitas vezes, em particularidades dos
rastreadores e sistemas de classificação” (FRAGOSO, 2007, p. 8).
Enquanto isso, no mundo acadêmico, estava em gestão um sistema de
classificação que recolocava no centro da cena uma das características mais
interessantes do Lycos: a “heurística de popularidade” (MAULDIN, 1997 apud
FRAGOSO, 2007, p. 8). A estratégia foi aperfeiçoada no BackRub, projeto de
doutorado de Larry Page e Sergey Brin na Universidade de Stanford, que pretendia
melhorar a forma como os mecanismos de busca classificavam os resultados e
reduzir ao máximo o tempo gasto pelos internautas para encontrar o que buscavam.
Ele classificava os resultados de acordo com o número de back links que cada site
recebia, assim a metodologia era baseada nas respostas que a própria Internet
fornecia. O projeto cresceu rapidamente e foi renomeado Google.
A princípio, Page e Brin não pareciam estar interessados em criar uma
empresa em torno de seu novo buscador, tanto é que tentaram vendê-lo ainda em
1998, sem sucesso. Um ano mais tarde, o Google continuava em versão beta, mas
já havia se tornado amplamente conhecido por utilizar um algoritmo6 de classificação
inovador e não incluir apenas resultados pagos entre os resultados orgânicos.
6
O termo "algoritmo" é uma palavra latinizada, derivada do nome de Al Khwarizmi, matemático árabe
do século 19. Na computação, trata-se de um "procedimento criado para cumprir uma tarefa
específica (SKIENA, 2008, p. 3 apud CORREA E BERTOCCHI, 2012, p. 31).
17
Outros pontos fortes do Google eram a velocidade das buscas e a
simplicidade da interface (começando pela ausência de banners e outro
material publicitário, o que levava a página inicial a carregar muito mais
rápido que a dos outros sites de busca). Ao final de 2000, o Google
começou a exibir alguns resultados pagos, mas, ao contrário da maioria das
outras ferramentas, não os mesclou com os resultados orgânicos. Àquela
altura, o Google já havia se estabelecido como o melhor sistema de buscas
na mente do público (FRAGOSO, 2007, p. 9).
Atualmente, o Google é o site de buscas líder do mercado, com cerca de 50
bilhões de buscas por mês no Google, em todo o mundo. “O Google tem 71% do
mercado de buscas online nos Estados Unidos e 60% do mercado mundial, sendo
que 97% de seu faturamento é originário dos anúncios através de links
patrocinados” (FELIPINI, 2010, p. 7).
Percebe-se assim, que os sites de busca começaram como catálogos de
páginas no formato digital e evoluíram, passando a utilizar novas formas de
classificação de páginas e organização de resultados. Para compreender melhor
esta evolução, abordar-se-á a seguir o funcionamento dos mecanismos de busca.
1.2.1 Funcionamento dos mecanismos de busca
Os primeiros mecanismos de busca eram catálogos de páginas na web, cujas
informações eram incluídas por uma equipe de profissionais. Kendzerski (2005, p.
98) explana que, além da demora para que um site constasse no catálogo, como a
organização das respostas era feita com base na ordem alfabética, muitas vezes os
sites desejados ficavam longe do topo dos resultados.
Depois vieram os spiders, softwares que vasculham a internet, colhendo
dados das páginas e as anexando ao banco de dados dos mecanismos de busca.
“Esses dados são fornecidos através da otimização do site (inserção de metatags e
outras informações que são colocadas especialmente nas páginas por seus
desenvolvedores)” (KENDZERSKI, 2005, p. 99). Essa varredura é feita inicialmente
na primeira página do site e, conforme o robô encontra links para outras páginas, ele
vai incluindo essas páginas na varredura.
18
Uma vez que o robô varreu todo o site, ele copia os textos que encontrou
para o banco de dados da ferramenta de busca. Com seus textos em mãos,
os computadores da ferramenta de busca associam as palavras
encontradas no texto a seu endereço (URL), e com as palavras encontradas
no texto criam uma gigantesca biblioteca de palavras-chave (TORRES,
2009, p. 93).
Na sequência, passou-se a utilizar taxonomia, para fornecer resultados
restritos dentro da área de interesse do internauta. E surgiram também os
metabuscadores: “sistemas que buscam as informações em outros mecanismos de
busca, compilando os resultados obtidos” (KENDZERSKI, 2005, p. 101).
Em 1998, o americano Bill Gross, fundador do GoTo.com, começou a
oferecer resultados (de busca) pagos e leilão de palavras. “A empresa foi rebatizada
de Overture em 2001 e depois adquirida pelo Yahoo! em 2004. Foi com base nesse
modelo que o Google criou o Google Adwords e o conceito de links patrocinados”
(TORRES, 2009, p. 302). Com isso, “a tela de resultados dos principais sites de
busca passou a apresentar dois tipos de informação: o resultado orgânico ou
gratuito com páginas classificadas por relevância e os anúncios pagos, chamados
de Links Patrocinados” (FELIPINI, 2010, p. 7). Os links patrocinados funcionam da
seguinte forma: quanto maior o lance oferecido, mais alta será a classificação do
site, sendo que as palavras com maior procura exigirão também lances maiores.
Atualmente, os principais sites de busca utilizam algoritmos que consideram
vários critérios, cada um com um peso específico, para definir a importância de uma
página e seu posicionamento nos resultados de busca. “Cada site de busca possui
seu próprio algoritmo, principalmente no que se refere ao peso de cada variável, por
esse motivo uma mesma página pode ter posicionamentos distintos em cada um
deles” (FELIPINI, 2010, p. 11). Esses algoritmos não são divulgados e são alterados
esporadicamente, no entanto, é possível descobrir parte dos critérios estabelecidos
por experimentação e avaliação de resultados. E é a isto que se dedica a indústria
de SEO (Search Engine Optimizaton): a otimização de sites e de seu conteúdo em
busca de uma melhor colocação entre os resultados de busca (de forma orgânica).
1.3 O QUE É SEO?
19
A preferência dos usuários pelos websites que constam entre os primeiros
resultados de suas buscas estimulou o desenvolvimento da indústria de SEO
(Search Engine Optimization). A SEO ou otimização para mecanismos de busca
consiste em “um conjunto de técnicas, métodos e/ou estudos que visam melhorar o
posicionamento das páginas no mecanismo de busca”7. “A SEO nasceu da simples
observação de que estar listado entre os mais altos resultados no Google se traduz
diretamente em dinheiro” (BATTELLE, 2006, p. 136). Em suma, o objetivo principal
da SEO é angariar novos visitantes já que, com mais visitas, aumentam as
chances de conversão. Logo, com um bom trabalho de SEO, é possível
aumentar as vendas, o número de visualizações da página ou de assinantes de
feeds, etc.
Segundo Fábio Ricotta, criador do site MestreSeo (atual Agência Mestre), o
termo foi usado pela primeira vez pela empresa MMG (Multimedia Marketing Group)
de John Audette, cujo objetivo era aplicar métodos que fizessem com que um
website conseguisse um posicionamento nos resultados de busca melhor que o dos
concorrentes. Inicialmente, a indústria de SEO não tinha plena certeza de quais
seriam as técnicas legais e quais seriam ilegais, até por que mecanismos de busca
como o Google sempre mantiveram seus algoritmos sob sigilo. Com isso, à época,
muitas empresas que pagavam às indústrias de SEO para otimizar sua colocação
entre os resultados de busca acabavam com os sites banidos do índice dos
mecanismos de busca, por causa das práticas ilegais aplicadas.
Já que as ferramentas de busca consistem em um elemento-chave no
processo de localização de sites, é importante que o desenvolvedor de interface ou
webdesigner garanta que o site tenha uma estrutura que facilite a varredura pelo
mecanismo e que os conteúdos sejam escritos buscando melhorar o posicionamento
do site nos resultados de busca. Outro ponto é a otimização do conteúdo, com o
objetivo de levar o conteúdo certo para a busca correspondente, no intuito de
seduzir e converter novos leitores. “Por mais que você anuncie na mídia online
publicando banners em grandes portais, a grande maioria dos acessos começará
mesmo pela busca de palavras-chave” (TORRES, 2009, p. 72).
Segundo o site MestreSEO, as técnicas e métodos de SEO podem ser
divididas em SEO on-page e SEO off-page, sobre as quais iremos abordar nos
subitens a seguir.
7
Disponível em http://www.agenciamestre.com/seo/o-que-e-seo.
20
1.3.1 SEO on-page
SEO on-page é a otimização para mecanismos de busca realizada
internamente no site. Os principais fatores de SEO on-page são: meta tags, heading
tags, atributo alt, domínio, URLs amigáveis e conteúdo.
As meta tags são linhas de código HTML que descrevem o conteúdo do site
para os mecanismos de busca. As principais meta tags são: meta keywords, title tag
e meta description. Cada uma delas possui regras específicas para serem
elaboradas adequadamente, sobre as quais irá se tratar na sequência. Uma regra
geral é que cada uma possui uma quantidade ideal de caracteres, sendo que a
Agência Mestre disponibiliza em seu site, inclusive, um contador de caracteres8,
ferramenta que muito pode auxiliar na elaboração das meta tags.
Para uma pessoa, a meta tag precisa ser chamativa, interessante,
informativa, curiosa e com um toque de CALL-FOR-ACTION. Para um
buscador, a meta tag precisa de uma dose de palavras-chave para que o
algoritmo da ferramenta de busca classifique bem a página. O essencial no
desenvolvimento de meta tags é achar o meio termo entre esses dois lados
(MARCEL, 2009).
Uma das primeiras ordens ao se iniciar a otimização de um site para as
buscas é escolher as principais palavras-chave, pensando no que os usuários
poderão buscar. A partir disso, pode-se escolher as palavras a serem evidenciadas
em títulos, texto, descrição de imagens, domínio, etc. Conforme orienta Felipini
(2010), pode-se incluir também o nome da empresa ou de produtos, palavras
sinônimas ou utilizadas regionalmente. Se a palavra for homônima, ou seja, tiver
sonoridade ou grafia igual à de outra palavra, o ideal é usá-la em conjunto com outra
palavra mais explicativa. No caso da palavra “pet” por exemplo, ela pode significar
tanto animais de estimação quanto garrafas de plástico reciclável.
Quanta à frequência de uso das palavras-chave no texto é relevante destacar
que os mecanismos de busca fazem uma contagem do número de vezes em que a
palavra-chave apareceu e também do total de palavras em cada página. O primeiro
número dividido pelo segundo fornecerá a frequência relativa daquela palavra. “Por
8
Disponível em: http://www.agenciamestre.com/ferramentas-seo/tamanho-do-texto.
21
exemplo, se a palavra apareceu 8 vezes e o total de palavras da página é 100, a
frequência relativa é 8/100, o que equivale a 8%” (FELIPINI, 2010, p. 35). Cada
mecanismo de busca possui um número ideal de frequência de cada palavra no
texto. Felipini destaca que “se você incluir a palavra-chave num percetual entre 3% e
6% estará relativamente seguro. Muito acima disso, sua página corre o risco de ser
penalizada” (FELIPINI, 2010, p. 35). O autor pontua ainda que o excesso de
repetição das palavras-chave pode tornar a leitura do texto enfadonha.
Também é possível verificar qual é o potencial de busca das palavras-chave
escolhidas, através de uma ferramenta do Google, a Keyword Tool 9. Apesteguy
(2013) explana que, após escolher as palavras-chave, pode-se verificar o número de
resultados retornados pelo mecanismo de pesquisa, para se ter uma noção do grau
de dificuldade que se terá para que a página fique bem posicionada nos resultados
de busca. Segundo Alvarez (2012), nas redações online, outra ferramenta utilizada
para avaliar a potencialidade de novas notícias é o Google Trends, disponível em
http://www.google.com/trends/. Um pouco mais aprimorado do que o Google Trends,
o Google Insights for Search oferece um serviço mais detalhado para os jornalistas
que querem encontrar palavras mais adequadas para regiões específicas ou até
mesmo fazer comparações mais profundas de palavras para notícias nacionais.
Combinar as ferramentas é também uma ótima opção. É possível usar a
Keyword Tool, selecionar as melhores e levar até o Google Trens ou o
Google Insights for Search e lá decidir qual é a que irá ter o melhor
resultado (ALVAREZ, 2012, p. 16).
As title tags ou títulos das páginas são as palavras que aparecem na barra de
navegação do navegador quando se entra na página. Nos resultados de busca, os
títulos das páginas aparecem como texto clicável que destina até a página
correspondente do site. O ideal é que cada página de um site tenha seu próprio
título e que este seja criado de forma chamativa e explicativa: informando ao usuário
o que exatamente ele irá encontrar se clicar no link apresentado entre os resultados
de busca. Conforme artigo de Vinicius Paes para o site MundoSEO 10, este é o
primeiro item examinado pelo mecanismo de busca, a fim de extrair o principal
assunto sobre o qual o site e cada uma de suas páginas tratam. “Este título deve
aparecer logo no início da página, antes de qualquer texto ou imagem. Além disso,
9
Disponível em https://adwords.google.com.br/keywordtool
Disponível em: http://www.mundoseo.com.br/meta-tag/title-tags-conceitos-basicos.
10
22
deve ser grafado em destaque, com negrito e letras maiores do que as do restante
do texto” (FELIPINI, 2010, p. 33). Em artigo para o site da Agência Mestre, Marcel
(2007) aponta que é importante também não ultrapassar os 70 caracteres nas title
tags, já que esta é a média que os mecanismos de busca exibem. Outras dicas são
repetir o título em alguma parte do texto e manter um padrão nos títulos, para
facilitar a identificação da página pelo usuário.
A meta description, por sua vez, tem como finalidade: “descrever o conteúdo
da página com precisão e sucintamente; servir de uma pequena propaganda para
atrair tráfego orgânico e disponibilizar as palavras-chave para os buscadores”
(MARCEL, 2007). Ela não aparece no browser do usuário quando ele carrega a
página do site. Suas informações são voltadas principalmente para os mecanismos
de busca. O ideal é que a meta description descreva o conteúdo da página em até
160 caracteres, de forma apelativa e informativa, preferencialmente citando as
principais palavras-chaves. O site da Agência Mestre pontua, no entanto, que não é
extremamente necessário que sempre se use as meta description tags.
Quando se objetiva poucas palavras-chave, é interessante ter a meta
description e que as palavras-chave estejam nela. Por outro lado, quando se
tem muito a mostrar/oferecer, ou seja, quando uma página tem muito
conteúdo que trata de temas mais específicos em torno das palavras-chave
principais, é bom deixar que o próprio motor de busca defina a relevância da
página em relação aos termos usados na busca. Quer dizer, se eu tenho um
vasto conteúdo de SEO sobre todas as categorias de SEO, às vezes é
melhor deixar que o buscador decida qual a página do meu site melhor se
adequa como reposta à busca do usuário (MARCEL, 2007).
Já as meta keywords têm como finalidade indicar ao mecanismo de busca
quais palavras-chave estão relacionadas à página. Segundo Felipini (2010, p. 40),
“alguns editores costumam colocar aqui uma infinidade de palavras, muitas vezes,
nem sequer relacionadas ao assunto, com o objetivo de tentar aparecer em um
grande número de buscas”. Isto acaba diminuindo a relevância de cada palavrachave utilizada, além de dificultar a geração de tráfego para o que realmente
interessa na página. Ainda de acordo com Felipini, devido a esse uso inadequado e
à própria evolução dos mecanismos de busca (que já varrem automaticamente as
páginas em busca das principais palavras), as meta keywords vêm perdendo a
importância em detrimento de outros critérios mais sofisticados de SEO.
As heading tags marcam no código HTML os pontos em destaque no
conteúdo do site, para facilitar a identificação da ordem de relevância dos conteúdos
23
para os mecanismos de busca. Estas tags vão de <h1> até <h6>. “Na tag <h1> deve
constar um resumo do que o usuário vai encontrar no texto; a tag <h2> deve abordar
um conteúdo sub-sequente do conteúdo da página; e as demais tags obedecem a
mesma filosofia” (RIOLINO, 2008).
Como os mecanismos de busca registram apenas links e textos, para que
reconheçam o conteúdo de uma imagem, é preciso usar o atributo alt. Segundo
Miranda (2009), este atributo é de vital importância para o ranqueamento do site no
Google Imagens (serviço de busca de imagens do Google) e funciona também como
texto âncora quando a imagem é usada como link. “A tag alt também é utilizada
pelos bots do Google que juntamente com a tag title interpreta melhor o significado
da imagem e sua relação com a página em questão” (MIRANDA, 2009). O ideal é
escrever uma descrição curta e direta, sem preposições, com no máximo cinco
palavras e apenas hífens entre elas.
O atributo title complementa o alt, permitindo que usemos quantos caracteres
forem necessários para descrever a imagem, mas o ideal é não escrever longos
textos. O bom uso desses atributos já faz com que as imagens consigam ter um
melhor posicionamento em mecanismo de busca de imagem, como o Google
Images por exemplo.
Muitos acessos a veículos online chegam através de imagens bem
rankeadas. O jornalista deve ter cuidado com a sua imagem desde a hora
em que a salva em seu computador para depois fazer upload no publicador.
O nome da imagem pode ser crucial na hora de um buscador indexar a sua
imagem (ALVAREZ, 2011, p. 21).
Quanto ao domínio principal do site, ele deve descrever, sempre que possível,
o conteúdo do site de maneira sucinta. As páginas secundárias do site também
devem ter URLs amigáveis, ou seja, endereços que descrevam de forma objetiva e
exata o conteúdo da página. Essa é uma técnica que contribui muito para um bom
posicionamento do site para as palavras-chave utilizadas. “Isto ocorre porque os
sistemas de busca dão um peso importante à existência da palavra-chave no
endereço do site” (FELIPINI, 2010, p. 32).
Domínios com correspondência exata com palavras-chave e pesquisas
geralmente não são tão fáceis de encontrar, pois a probabilidade de já
terem um dono é muito grande. Nesse caso, procure verificar se ele não
está expirado ou se não está à venda. URL - Se uma das principais
palavras-chaves consta já na URL do site, esta já é uma grande vantagem
(LIMA, 2009).
24
O conteúdo de um site influencia na percepção que os visitantes têm do
mesmo e também estimula que outros sites insiram links de saída direcionando para
este em questão. “Às vezes, um bom artigo com conteúdo relacionado ao seu site
pode parar no topo dos sites de busca, sem nenhuma ação direta de sua parte”
(FELIPINI, 2010, p. 62). Por outro lado, se um site está bem colocado nos resultados
de busca, atraindo vários usuários, mas estes se sentirem frustrados ao acessar por
encontrar um conteúdo pouco relevante, “a insatisfação dos usuários resultaria em
uma baixa performance do site, além de se refletir negativamente na avaliação do
PageRank” (FELIPINI, 2010, p. 63). Marcel (2009) dá algumas dicas rápidas para
garantir qualidade ao conteúdo: deve-se valorizar os dois primeiros parágrafos, indo
direto ao ponto; escrever parágrafos curtos envoltos por espaço vazio (espaço entre
os parágrafos); usar imagens de qualidade e que complementem o texto; usar listas
para destacar pontos importantes; usar subtítulos quando o texto for longo para
tornar a leitura mais dinâmica; usar negrito e itálico; citar referências e trazer outros
links. Uma dica importante e já notavelmente utilizada por muitos blogs é colocar as
principais palavras-chave no texto em negrito, para demonstrar ao buscador que
estas têm maior importância em relação ao restante do texto.
O ideal, segundo Felipini, é incluir conteúdo exclusivo, “não encontrado em
qualquer canto da Internet; e que, se for comercial, não seja apelativo ou subestime
a inteligência do potencial comprador” (FELIPINI, 2010, p. 64). Um blog, por
exemplo, pode ser uma forma interessante de ampliar indiretamente o conteúdo do
site, por meio de uma comunicação mais informal e indireta. “Os links direcionados
para o site principal, além de encaminhar clientes potenciais, agregarão pontos”
(FELIPINI, 2010, p. 65). Pode-se também convidar especialistas ou pessoas com
conhecimento relacionado ao tema do site para escrever artigos, sugere o autor.
1.3.2 SEO off-page
SEO off-page é a otimização para mecanismo de busca que ocorre por meio
de outros sites, que acabam gerando acesso e elevando a qualidade da página
perante a avaliação dos mecanismos de busca. Os principais fatores off-page em
25
SEO são número e qualidade de links externos, texto âncora dos links externos e
idade do domínio.
Felipini (2010) explica que quanto mais links externos de qualidade uma
página tiver, melhor esta será classificada nos resultados de busca. O Google utiliza
o sistema de classificação PageRank. Este é também “o nome dado ao valor
numérico alcançado por cada página e que, na comparação com outras, vai definir a
ordem de classificação de cada uma no resultado da busca” (FELIPINI, 2010, p. 49).
A pontuação depende da quantidade de links e da quantidade de pontos que a
página emitente pode distribuir por meio de seus links. O Google não divulga a
fórmula matemática que utiliza, mas se sabe que a fórmula considera
majoritariamente os seguintes fatores: “links de entrada (links de outras páginas
apontado para sua página), links de saída (links em sua página apontando para
páginas externas) e links internos (links entre sua página e outras sob o mesmo
domínio)” (FELIPINI, 2010, p. 51).
Os links de entrada devem vir de sites que tem alguma relação com o
conteúdo do site, para gerar tráfego mais interessante, que pode converter em
vendas ou fidelizar público, no caso de um site de notícias por exemplo. Quanto aos
links de saída, é importante que a página de origem não tenha uma enorme
quantidade de links de saída, pois assim “o valor do link direcionado para cada
página tende a ser menor” (FELIPINI, 2010, p. 52). Link Building “é o conjunto
de técnicas de SEO e otimização de sites responsável pela arquitetura interna de
links de um site e pela conquista de links externos”. (MARCEL, 2008). As redes
sociais, por exemplo, podem ser usadas na busca de linkbuilding.
Quando as pessoas compartilham a sua notícia e mandam o link para a sua
URL, ela ganha relevância e isso é positivo para SEO. O botão de +1 do
Google também é um grande aliado. Verifique se no seu site de notícias
online ou portal, os botões de content share e de +1 estão ativos. Isso pode
fazer diferença na hora do posicionamento de sua notícia (ALVAREZ, 2011,
p. 19).
Em relação aos links internos, sabe-se que as páginas dentro de um site que
recebem uma maior quantidade de links, como geralmente é o caso da home page,
ficam com uma pontuação maior (no PageRank) do que aquelas que recebem
poucos.
26
Um aspecto interessante da otimização de links internos é que ele acarreta
um duplo benefício: além de melhorar o posicionamento das páginas mais
importantes, indica ao usuário do site o melhor caminho a seguir,
melhorando a usabilidade e a taxa de conversão (FELIPINI, 2010, p. 55).
O link pode ser dividido em duas partes: a URL linkada e o texto descritivo. “O
texto descritivo é chamado também de texto âncora e esta descrição é quem faz um
site posicionar-se bem para uma determinada palavra-chave” (RICOTTA, 2008).
Quanto à idade do domínio, quanto mais antigo, melhor deve ser sua
colocação nos resultados de busca, desde que ele continue sendo alimentado com
conteúdo e atualizado. Isto por que hoje em dia a criação de domínios cresce
vertiginosamente “e estamos cercados de domínios com conteúdo duplicado, spam,
páginas com vírus e voltadas a propaganda extensiva” (RICOTTA, 2007). Assim, a
idade do domínio acaba por contribuir com sua credibilidade diante dos mecanismos
de busca.
27
2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO
Pesquisar o jornalismo na internet não é uma questão de modismo, é uma
necessidade. Afinal, a internet foi o último e o mais sensacional meio de
comunicação do Século XX e segue sua carreira na era da Revolução
Digital (QUADROS, 2002, p. 1).
Depois de abordarmos o surgimento da Internet, os mecanismos de busca e
as práticas de Search Engine Optimization, abordar-se-á a atuação dos jornalistas
na web, para na sequência avaliar como estes profissionais estão utilizando o SEO,
na prática, para gerar tráfego aos sites de notícia. Abordar-se-á inicialmente as
principais características do Jornalismo Online. Foram reunidas informações
históricas,
tratando
dos
primórdios
do
Jornalismo
Online
no
mundo
e,
especificamente, no Brasil. Na sequência, entram em foco algumas das mudanças
no fazer jornalístico após o surgimento da Internet e a presença dos jornais
impressos na web; fatos que modificaram a forma de consumir notícias, algumas
rotinas produtivas e também o perfil profissional das redações online.
Esta reflexão será a tônica para introduzir, no terceiro capítulo, o relato de três
profissionais da área sobre a importância que os sites de notícia estão dando às
técnicas de SEO para alavancar seus acessos e buscar se tornar referência online.
2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE
Para Luciano Miranda (2004, p. 11), o Jornalismo Online “é um meio de
comunicação autônomo – e ao mesmo tempo integrado – que vem a ser somado ao
tripé tradicional da imprensa, rádio e televisão”. Outras nomenclaturas também são
utilizadas para designar este tipo de prática jornalística: Ciberjornalismo, Jornalismo
eletrônico, Jornalismo online, Jornalismo digital, Jornalismo hipertextual. Entretanto,
no momento, não será estabelecida a discussão sobre as especificidades e
adequações destas nomenclaturas.
Segundo estudos coordenados pelos professores Marcos Palacios e Beatriz
Ribas por meio da Oficina de Jornalismo Digital da Faculdade de Comunicação da
28
UFBA (Universidade Federal da Bahia), entre as principais características do
Jornalismo Online estão:
- Hipertextualidade: possibilidade de interconectar textos, sites, arquivos, por
meio de links, fazendo com que o internauta possa acessar informações
contextualizadas e mais aprofundadas, já que os links podem ter conteúdo
multimídia ou dados de material mais antigo;
- Multimidialidade ou convergência: convergência das mídias convencionais
(texto, imagem e som) na narração do fato jornalístico. “A convergência torna-se
possível em função do processo de digitalização da informação e sua posterior
circulação e/ou disponibilização em múltiplas plataformas e suportes, numa situação
de agregação e complementaridade” (PALACIOS et al, 2003, p. 3);
- Interatividade: capacidade de fazer com que o leitor/usuário sinta-se mais
diretamente parte do processo jornalístico. “A interatividade busca a inclusão do
usuário/leitor como participante do processo jornalístico através de troca de e-mails
(leitor/jornalista), da participação com comentários, enquetes e opinião, discussão
em fórum e chats, e da navegação livre e seletiva de conteúdos” (TOLDO E
GONÇALVES, 2008);
- Personalização/customização de conteúdo: consiste na opção oferecida ao
usuário para configurar os produtos jornalísticos de acordo com os seus interesses
individuais. Há sites noticiosos que permitem a pré-seleção dos assuntos, bem como
a sua hierarquização e escolha de formato de apresentação visual. “Assim, quando
o site é acessado, a página de abertura é carregada na máquina do usuário
atendendo a padrões previamente estabelecidos, de sua preferência” (PALACIOS et
al, 2003, p. 4);
- Memória: há na Web maior possibilidade de acumulação de informações
do que em outras mídias. O volume de informação produzida e disponível ao usuário
e ao produtor da notícia cresce exponencialmente, o que produz efeitos na produção
e na recepção da informação jornalística. Na Web, a memória torna-se coletiva,
através do processo de hiperligação entre os diversos nós que a compõem. “A
memória no Jornalismo na Web pode ser recuperada tanto pelo produtor da
informação, quanto pelo usuário, através de arquivos online providos com motores
de busca (search engines) que permitem múltiplos cruzamentos de palavras-chaves
e datas (indexação)” (PALACIOS et al, 2003, p. 8);
29
- Atualização contínua ou instantaneidade: agilidade na produção e
disponibilização de conteúdo na Internet. O material pode ser atualizado
constantemente, diferentemente, por exemplo, da mídia impressa.
Essas características foram surgindo ao longo do tempo, diferenciando cada
vez mais o Jornalismo Online dos demais tipos de Jornalismo Impresso. E para
entender essa transição e a entrada dos grandes grupos de comunicação na Web,
será traçado a seguir um breve histórico do Jornalismo Online.
2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE
Antes da World Wide Web, a rede já era utilizada para a divulgação de
informações jornalísticas, porém os serviços oferecidos eram direcionados para
públicos específicos e funcionavam por meio da distribuição de e-mails, boletins
disponibilizados através do sistema Gopher (que possibilitava o acesso a
informações mantidas em diversos computadores em uma rede) ou de recursos
semelhantes. “A Internet passa a ser utilizada, de forma mais expressiva, para
atender finalidades jornalísticas, a partir de sua utilização comercial, que se dá com
o desenvolvimento da Web no início dos anos 90” (PALACIOS et al, 2001, p. 2).
Os estudos do professor John Pavlick, da Universidade de Columbia,
classificam o Jornalismo Online em três estágios: “o 1º seria apenas a transposição
da versão impressa para a Internet, o 2º esta transposição e mais alguns produtos
diferenciados do jornal de papel e o 3º um produto totalmente exclusivo para a
internet” (QUADROS, 2002, p. 2). Para tratar mais detalhadamente acerca das
mudanças ocorridas no Jornalismo Online, relata-se na sequência um breve
histórico do Jornalismo Online.
O boom dos diários digitais ocorreu entre 1995 e 1996. À época, empresários
da comunicação nos Estados Unidos vislumbraram, nesta oportunidade de oferecer
um diário de fácil acesso ao usuário, uma nova forma de obter lucros. Experiências
no laboratório de design coordenado pelo jornalista e designer Roger Fidler deram
origem ao flat panel, que pretendia ser o “protótipo do diário do futuro”. Esses
estudos “foram considerados no momento de criar as páginas web do The San Jose
30
Mercury Center, que possuía desde 1993 uma versão eletrônica distribuída pela
companhia America On line por meio de uma rede própria” (QUADROS, 2002, p. 3).
De acordo com Quadros (2002), os primeiros jornais que se notabilizaram na
Internet foram o The San Jose Mercury Center, criado em 1995, e o The NandO
Times, criado em 1994 pela empresa McClactchy Newspaper Inc., responsável pela
edição do diário impresso News & Observer. No boom da Internet, nos Estados
Unidos, na Espanha e no Brasil, a maioria das redações online era formada por
jovens profissionais, com um bom currículo acadêmico, mas com pouca experiência
na área. O editor do The NandO Times, Seth Efron, afirmava que era conveniente
contratar jornalistas menos experientes para trabalhar nas redações online, porque
"eles não têm noções preconcebidas do Jornalismo" (IANZITO, 1996 apud
QUADROS, 2002, p. 4). A redação digital do The San Jose Mercury Center contava
com profissionais empenhados em construir conteúdo e linguagem específicos para
a Internet.
Em 1996, fazia parte do quadro de jornalistas do The San Jose Mercury
Center, o jovem Mark Hull. Com apenas 21 anos, ele foi responsável por
uma reportagem distribuída na rede sobre como o lucro das vendas da
cocaína a certos bandos de Los Angeles iam parar em um fundo da CIA,
agência norte-americana de inteligência (QUADROS, 2002, p. 3-4).
Em 1993, o MIT (Instituto Tecnológico de Massachusetts) nos Estados Unidos
deu início ao News in the Future, um projeto de pesquisa, com o apoio de empresas
jornalísticas de todo o mundo, para estudar “novas formas de criar jornais mais
interativos, úteis e de fácil acesso” (QUADROS, 2002, p. 4). A partir deste projeto, os
pesquisadores criaram o diário digital Fiswrap, em que procuravam utilizar todos os
recursos interativos da hipermídia possíveis, com o intuito de se tornar referência
para os jornais eletrônicos.
As criações do diretor do MIT, Nicholas Negroponte, serviram de modelo para
muitos jornais. Ele criou, por exemplo, o jornal personalizado Daily Me, que oferecia
serviços dirigidos para cada leitor. Apesar de nunca ter obtido uma circulação
massiva, o Daily Me contribuiu significativamente para os estudos desenvolvidos na
área e reforçou a necessidade de preparar jornalistas para a Internet: "Ser digital
supõe o surgimento de um conteúdo totalmente novo, de novos profissionais (...)"
(NEGROPONTE, 1994 apud QUADROS, 2002, p. 5).
31
Nos Estados Unidos, diversas empresas norte-americanas cooperaram para o
desenvolvimento dos jornais online. Em 1995, foi criada nos Estados Unidos a
companhia New Century Network, uma associação de oito editoras de jornais:
Knight-Ridder, Cox Newspaper, Gannett Co. Inc., Hearst Corporation, The
Washington, Post Corporation, Times Mirror Co., Tribune Co. e Advance Publication
Inc. "No total, estas oito empresas publicam [referente ao período de 1995] 185
diários, com uma tiragem conjunta de mais de 20 milhões de exemplares, o que
representa um terço da indústria de diários nos Estados Unidos" (GARNEAU, 1994
apud QUADROS, 2002, p. 5).
Estes periódicos serviram de referência para jornais que chegavam à rede ou
que pretendiam alcançar um estágio mais avançado na World Wide Web; no
entanto, a maioria deles reproduzia os conteúdos e o design das versões impressas.
A editora do The New York Times Eletronic Media Company, Elizabeth Osder, por
exemplo, sempre demonstrou a preocupação em atender as exigências da internet
e, principalmente, de seu público: “Agora nosso desafio é construir um novo
conteúdo para um novo meio: o mundo da grande teia” (OSDER, 1997 apud
QUADROS, 2002, p. 6). Elizabeth acreditava também que, para as próximas
gerações dos jornais digitais, seriam necessários editores preparados para o
desenvolvimento de novos produtos que aproveitassem as vantagens do hipertexto.
O The Washington Post.com, criado pela empresa Digital Ink Co., foi
desenvolvido com a intenção de oferecer um produto distinto da versão impressa do
The Washington Post, sendo considerado, em 1995, "um dos mais completos
exemplos do novo enfoque do jornalismo na internet" (McADAMS, 1995 apud
QUADROS, 2002, p. 6). À época, os jornalistas estavam utilizando novas
ferramentas e começando a desenvolver a linguagem e os conceitos apropriados
para a Web. As atualizações eram feitas a cada seis horas na maioria das redações
online, o que resultava em uma carga de trabalho mais desgastante para os
profissionais em relação àqueles que atuavam no jornal impresso. Em 1996, o
produtor online da Digital Ink, Bill Frischling, relatou que “começava todos os dias às
seis horas da manhã e só concluía seu trabalho às seis da tarde” (QUADROS, 2002,
p. 6).
Na Espanha, o primeiro diário digital foi o Boletim Oficial do Estado, criado em
1994, segundo Quadros (2002). O Boletim Oficial do Estado possuía o mesmo
conteúdo da versão impressa, mas podia ser consultado antes de sua distribuição
32
em papel. No ano seguinte, diversas empresas de comunicação espanholas já
tinham uma versão eletrônica de seu jornal impresso. Em 1° de abril de 1995, surgiu
o diário digital Avui, depois foram lançados o El Periódico de Catalunya e o La
Vanguardia. Inicialmente, era apresentado o mesmo conteúdo das versões
impressas, mas pouco a pouco, passou-se a oferecer serviços mais interativos. Luis
Ángel Fernández Hermana, editor da revista científica Enredando e colunista do El
Periódico de Catalunya, ressaltou as responsabilidades das empresas e dos
jornalistas diante da Internet.
Os meios deverão passar por um doloroso processo de reconhecer que o
mundo não é só aquilo que eles publicam, mas também muitas outras
coisas que estão sendo disponibilizadas na Rede. Isto será um enorme
desafio para os meios (...) E os jornalistas receberão a informação da
própria internet para realizar o seu trabalho, mas também deverão
disponibilizar informação para a Rede. É fundamental a troca de
informações (FUENTES I PUJOL, 1997 apud QUADROS, 2002, p. 7).
Ainda em 1995, a grande imprensa de Madri começou a criar suas versões
online. O ABC, jornal de circulação nacional, disponibilizou sua versão eletrônica em
19 de setembro de 1995 e dois anos depois, contava com quatro profissionais
responsáveis exclusivamente pela sua produção. “Eles começavam a trabalhar às
onze da noite e quase sempre saiam da redação às seis horas da manhã”
(QUADROS, 2002, p. 8). Segundo Avelino Buendía, um dos responsáveis pelo ABC
eletrônico, a idéia naquele período era ampliar o número de jornalistas para oferecer
outros serviços e atualizações mais constantes. "Como não há muitos profissionais
na redação digital do ABC, é impossível atualizar as notícias durante 24 horas do
dia, como costumam fazer alguns diários eletrônicos em diversas partes do mundo"
(BUENDÍA, 1997 apud QUADROS, 2002, p. 8). Os jornalistas aproveitavam todo o
conteúdo do diário impresso; mas essa não era uma tarefa fácil, porque eles não
tinham encontrado um programa que atendesse a todas as suas necessidades: "Nós
tínhamos dificuldades para acrescentar alguma notícia ou corrigir outra, porque o
nosso servidor ficava em Bilbao. Os problemas de transmissão eram terríveis”
(BUENDÍA, 1997 apud QUADROS, 2002, p. 8).
Em maio de 1995, o diário digital El Mundo foi para a Web. A versão
eletrônica nasceu do esforço do jornalista Mario Tascón, professor da Universidade
de Navarra e atual diretor do El Mundo online, que na época era chefe da seção de
infográficos do jornal impresso. “Quando o produto despertou o interesse do público
33
e chamou a atenção dos empresários do jornal, Mário Tascón pôde contar com o
apoio de um redator que, no início de sua carreira, era responsável pela base de
dados da versão impressa do El Mundo” (QUADROS, 2002, p. 8-9). Inicialmente, os
leitores tinham acesso apenas ao suplemento Campus, dirigido aos jovens; mas
com o tempo outras seções do jornal impresso foram disponibilizadas na rede. Em
1996, mais dois jornalistas, oriundos da Universidade de Navarra, foram contratados
para a cobertura das eleições gerais. Em 1997, a redação do então chamado El
Mundo del Siglo XXI já contava com 10 profissionais e o diário digital começou a
apresentar resumos das principais notícias de várias seções da versão impressa:
Nacional, Internacional, Economia, Esportes e Ciências.
A primeira emissão do El País Digital foi em 4 de maio de 1996, coincidindo
com o 20º aniversário de sua versão impressa. No entanto, antes de ser
disponibilizado, sua equipe trabalhou em seu projeto durante dez meses. Em
meados de 1997, a equipe era formada por dez redatores e três profissionais
técnicos. "Aqui utilizamos praticamente todo o texto da sua versão impressa. Nossa
responsabilidade é adequar os conteúdos para o diário digital, explorando os
recursos oferecidos pelo hipertexto e outras ferramentas. Elaboramos um breve
resumo da notícia, uma chamada para a reportagem etc", afirmou Lucía Anguito
Mayo, uma das redatoras do El País Digital, em entrevista à pesquisadora Claudia
de Quadros. Na época, o horário do trabalho era a principal queixa dos jornalistas
dos diários eletrônicos em todo o mundo, assim como os do El País Digital:
Como necessitamos trabalhar com o jornal impresso praticamente
concluído, porque utilizamos os textos do diário que estará nas bancas no
dia seguinte, iniciamos a nossa jornada às oito horas da noite. O
fechamento é, normalmente, às quatro da manhã, porque o jornal digital
demora uma hora para ser comprimido e transmitido para a Rede (MAYO,
1997 apud QUADROS, 2002, p. 10).
Na América Latina, o pioneiro no Jornalismo Online foi o Grupo Estado, por
meio da Agência Estado/Broadcast. Em junho de 1993 foi iniciado o projeto Estadão
Multimídia e em agosto do mesmo ano, o Grupo Estado começou a explorar novas
ferramentas, como o fax e os boletins eletrônicos em formato BBS (Bulletin Board
System). Em março de 1995, o jornal digital do Estadão, então denominado
NetEstado, foi estruturado. A arquitetura das primeiras páginas web foi planejada em
julho, mas só foi disponibilizada em 8 de dezembro de 1995. “Por isso, o Jornal do
Brasil é considerado o primeiro diário digital do País a fazer cobertura completa no
34
espaço virtual” (MOHERDAUL, 2000 apud QUADROS, 2002, p. 12). O Jornal do
Brasil foi disponibilizado integralmente na rede em 28 de maio de 1995. No entanto,
apesar do Jornal do Brasil ser considerado o pioneiro, as conquistas e os esforços
dos jornalistas da versão digital de O Estado de São Paulo contribuíram de forma
mais significativa para o desenvolvimento do Jornalismo Online.
O primeiro site do jornal O Estado de São Paulo foi denominado Panorama e
continha uma revista feminina intitulada Mulher com artigos exclusivos. "Acredito que
foi uma das primeiras publicações eletrônicas do Brasil a tratar de temas
predominantemente femininos", destacou Luciano Martins Costa, ex-diretor e criador
da versão digital de O Estado de São Paulo, em entrevista à pesquisadora Claudia
de Quadros. Na fase inicial, o projeto do NetEstado contava com dois jornalistas e
uma técnica em informática, mas quando o diário entrou na rede, já havia quatro
jornalistas, um coordenador e dois técnicos. “Em meados de 1997, a redação digital
era formada por sete jornalistas e cinco técnicos. Três redatores produziam as
últimas notícias, que podiam ser acessadas por meio de links para a Agência do
Estado” (QUADROS, 2002, p.12).
Em 2002, Luiz Octavio Lima, o ex-editor especial do NetEstado, assumiu a
coordenação da versão online do Estadão. A equipe era composta por “dois editores
especiais, três redatoras, três analistas de sistemas, um assistente e um auxiliar de
produção gráfica, além dos técnicos de informática” (QUADROS, 2002, p.12). A
arquitetura Web sofreu diversas alterações desde a implementação. No final de
1997, era coordenada pelo designer Mario Garcia, conhecido pelo trabalho no
desenvolvimento de novas interfaces para sites jornalísticos nos Estados Unidos e
Europa. Ainda segundo Quadros (2002), a evolução do diário digital de O Estado de
São Paulo ainda está relacionada com o convênio mantido com o já citado grupo
News in the Future, do MIT.
Segundo Luciano Costa, todos os sites do Grupo Estado procuraram, desde
a assinatura do convênio, utilizar os informes do MediaLab para obter uma
orientação sobre as possíveis mudanças, evitando assim muitos
investimentos em recursos tecnológicos com pouco futuro (QUADROS,
2002, p.13).
Um fato curioso na história do Jornalismo Online brasileiro é que, no final de
1997, jornalistaS fumantes não podiam fazer parte da redação online de O Estado
de São Paulo.
35
Os técnicos costumavam dizer que a fumaça poderia afetar os
equipamentos informáticos e os editores de O Estado de São Paulo
entendiam que a dependência ao cigarro significava diversas saídas da
redação e, consequentemente, resultava em uma baixa produção
(QUADROS, 2002, p.13).
Regianne Bochichi, uma das produtoras da versão digital de O Estado de São
Paulo, entrou para a equipe do Estado Multimídia em 1995, depois de ter atuado em
rádio e televisão. Em entrevista à pesquisadora Claudia de Quadros, afirmou que
encontrou na redação online mais estímulo para sua criatividade.
O trabalho não está limitado a uma função. É possível acompanhar todo o
processo de edição, proporcionando uma ampla visão dos fatos do dia.
Além disso, é possível utilizar recursos, como o som e a imagem em
movimento, que são impossíveis na versão impressa (QUADROS, 2002,
p.13).
Em março de 1995, o Caderno Informática Etc. do jornal O Globo foi lançado
na web. Em 29 de julho de 1996, surgiu o diário digital O Globo On-line, um dos
produtos do portal Globo.com. Ao final do mesmo ano, foi formada uma equipe
exclusiva (com jornalistas, técnicos e especialistas em marketing) para a versão
digital de O Globo, com sede no Rio de Janeiro. O superintendente Henrique Caban
justificava o atraso de O Globo na Internet como uma estratégia: "Não queremos
colocar na Rede nada que não esteja pronto. Não basta colocar o jornal impresso no
computador. Vamos explorar o que a internet pode oferecer, como a atualização
online durante todo o dia” (SIQUEIRA, 1996 apud QUADROS, 2002, p.13-14). No
final de 1997, oito jornalistas produziam conteúdo em tempo real e seis enriqueciam
estas notícias. Em 2002, a redação digital era coordenada pela editora-chefe Joyce
Jane Corrêa Meyer, e “o Globo On-Line contava com um editor-executivo, um
gerente comercial, três editores, dois editores de capa, dois de ambientes especiais,
um de interatividade, um editor de criação que comandava um equipe de quatro
profissionais e 11 repórteres, além da equipe responsável pela gestão tecnológica”
(QUADROS, 2002, p. 14).
Voltando à perspectiva global, o que se percebe, nos últimos anos, é uma
queda nas receitas das mídias convencionais pela redução no número de leitores,
pela falta de credibilidade e pela migração da publicidade para a web, de acordo
com Pereira e Adghirni (2011). Em 2009, segundo declarações do executivo-chefe
de um dos maiores grupos de jornais dos Estados Unidos, 19 dos 50 maiores jornais
36
daquele país estavam perdendo dinheiro e esse número cresceria ainda mais nos
anos seguintes, conforme Weaver (2009) apud Pereira e Adghirni (2011). Os
jornalistas também estão sendo ameaçados. Em 2007, redações norte-americanas
já haviam demitido cerca de 2.400 jornalistas, o que representa uma redução de
4,4% com relação ao ano anterior, segundo dados apresentados em 2008 pela
American Society for Newspapers Editors, número que provavelmente se agravaria
no ano seguinte por conta da crise financeira que atingiu aquele país, segundo
Mosco (2009) apud Pereira e Adghirni (2011).
Ao mesmo tempo, autores como Russel (2009) afirmam que a crise nos
jornais impressos contrastaria com o crescimento de publicações na Internet e a
explosão das informações disponíveis ao público: “A quantidade de novos materiais
produzidos a cada dia, o acesso a esse material e as variedades na forma e no
conteúdo, a participação [do público] na produção e disseminação disso – tudo isso
está explodindo” (RUSSEL, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 3).
Todos estes avanços e adaptações do Jornalismo Online, indubitavelmente,
tiveram consequências, tanto na forma de receber a notícia quanto na forma de
produzi-la. Estas mudanças comportamentais dos receptores, nas rotinas produtivas
e no perfil profissional dos jornalistas serão explanadas na sequência.
2.3 MUDANÇAS NO FAZER JORNALÍSTICO
Em função do desenvolvimento da Internet, chegou a ser cogitado o
desaparecimento do Jornalismo convencional (ou pelo menos dos jornalistas
enquanto intermediários). No entanto, com o passar do tempo, pesquisadores da
área concluíram que o surgimento de novos formatos midiáticos não pode ser
considerado “um processo evolucionário linear, de superação de suportes anteriores
por suportes novos, mas como uma articulação complexa e dinâmica de diversos
formatos jornalísticos, em diversos suportes, em convivência (e complementação)”
(PALACIOS, 2003, p. 6).
As mudanças socioeconômicas e inovações tecnológicas têm provocado
profundas alterações nos processos de produção e apresentação da notícia. Pereira
e Adghirni (2011) afirmam que, inclusive, alguns formatos canônicos do texto
37
jornalístico – como o lead e a pirâmide invertida - bem como os critérios de
noticiabilidade foram se modificando nesse novo cenário. “Ao mesmo tempo, novas
rotinas produtivas e novos formatos para o conteúdo jornalístico emergem. Tais
mudanças podem ser atribuídas à possibilidade de acesso a informações por meio
de bases de dados, à convergência de mídias e de redações e à proliferação de
mídias institucionais e de ferramentas de autopublicação” (PEREIRA; ADGHIRNI,
2011, p. 8).
Uma das primeiras mudanças percebidas após o surgimento do Jornalismo
Online foi no comportamento dos consumidores de notícias. Anteriormente, ler o
jornal diário ou ouvir as notícias no rádio eram atividades inseridas na rotina das
pessoas, como explana Rasêra:
A leitura do jornal impresso era (e ainda é para pessoas mais tradicionais)
uma atividade para ser feita ao tomar o café da manhã; à noite era hora do
noticiário televisivo; e ao longo da semana e conseqüentemente do mês, era
feita a leitura das revistas entregues nas residências por meio de
assinaturas. Por muito tempo, estas eram as fontes disponíveis para o
consumo de notícias (RASÊRA, 2010, p. 6).
Entretanto, com a evolução da Web e do Jornalismo Online, o conteúdo
multimídia passou a ser produzido e distribuído mais rapidamente, o que “introduziu,
no início do século 21, uma era de abundância informativa, caracterizada pela
preocupação sobre o crescente custo-benefício entre qualidade e quantidade de
informação” (BOCZKOWSKI, 2010, loc. 2445 apud CORRÊA; BERTOCCHI, 2012, p.
34). Com isso, as pessoas passaram a consumir notícias de uma maneira
praticamente involuntária.
Alguns segundos de um canal a cabo de jornalismo 24 horas, enquanto
mudam o canal da televisão; o programa de rádio com as notícias da hora,
enquanto dirigem e escutam música; uma olhada por todas as manchetes
de jornais pregados nos quiosques nas ruas; comentários gerais postados
nas paredes da cantina do local de trabalho; comentários das notícias na
homepage do Yahoo! enquanto procuram por alguma coisa online; resumos
de e-mails mal digitalizados; e até mesmo, na hora do jantar, o cônjuge
comenta alguma coisa vista em algum outro lugar qualquer (RASÊRA, 2010,
p. 6).
Alguns pesquisadores afirmam que “as pessoas estão passando mais tempo
consumindo notícias em diferentes formatos do que faziam antes em um único meio”
(RASÊRA, 2010, p. 7). Assim, os receptores não estão mais recorrendo a um só
meio de comunicação.
38
Ele [internauta] procura tudo. Ávido, é capaz de visitar 100 sites em 100
segundos, vê de tudo, gosta de novidades e está a cada dia mais surpreso
com o poder da rede. E quanto mais ele a conhece, mais ele a ama. E se
torna mais exigente. E depura mais o que vai ler. E isso transcende na Web:
o cidadão quer mais qualidade em tudo, principalmente no que lê. Exige a
honestidade. Se for para arriscar um futuro, vejo as pessoas selecionando
cada vez mais a qualidade da sua leitura e as publicações que o
acompanham no cotidiano. Este é o leitor cada vez mais valorizado, pois é
mais preparado para exigir qualidade de produtos e serviços, incluindo
editoriais (NETO apud SHÄFFER, 2007).
Essas mudanças no comportamento dos receptores implicaram em
mudanças também na produção e na distribuição de notícias, já que as empresas
que não atentassem para esse fator poderiam rapidamente perder espaço no
mercado. Os jornalistas têm sido “pressionados a buscar alternativas para o
processo de coleta e formatação de informações para atender às novas exigências
do público (mais ativo e participativo), o que implica em redefinir seus próprios
valores” (MCNAIR, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2).
Por um lado, “observa-se o aumento do conteúdo de entretenimento,
resultado da intensificação da concorrência e das pressões exercidas pelos
departamentos comerciais das empresas de comunicação” (CHARRON; BONVILLE,
2004; HALLIN, 1996 apud PEREIRA; ADGHIRNI, 2011, p. 2). Por outro, “empresas
convergem suas diferentes operações midiáticas, criando novas plataformas,
produtos híbridos exigindo que os profissionais de redação passem a produzir
conteúdos multimídia e assumam o perfil multitarefas” (DEUZE, 2005; JORGE;
PEREIRA; ADGHIRNI, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2).
A pressão do tempo sobre a produção das notícias é uma das marcas
permanentes do Jornalismo ao longo de sua história, mas o desenvolvimento das
tecnologias digitais acelerou este processo nos últimos 20 anos, segundo Pereira e
Adghirni (2011). “Na realidade, as representações temporais são uma das maiores
revoluções do Jornalismo depois que a internet quebrou o ritmo circadiano da
notícia” (PEREIRA; ADGHIRNI, 2011, p. 8). Diferentes estudos já apontam para este
cenário de aceleração do ciclo de produção, circulação e consumo da notícia
jornalística. Esse processo não foi motivado exclusivamente pela introdução da
Internet, mas se deve a uma aceleração do tempo social e à adoção do formato de
agências de notícias pelos jornais brasileiros, de acordo com os autores
supracitados. O desenvolvimento das tecnologias digitais na última década apenas
39
acelerou esse processo, fazendo com que os principais jornais começassem a
disponibilizar informações produzidas em fluxo contínuo.
Isso aumentou a pressão – por parte das empresas e do público – sobre os
jornalistas pela atualização constante do conteúdo (Adghirni, 2004; Pereira,
2004; Weiss e Joyce, 2009). Ao mesmo tempo, perdura a cobrança pela
publicação de notícias bem apuradas, que contenham informações de
background e diversidade de fontes (Nguyen, 2010). Demanda, na verdade,
que remete a uma antiga contradição (Moretzsohn, 2002): como produzir
jornalismo de qualidade se não há disponibilidade de tempo hábil para uma
boa apuração? Como conciliar as demandas por velocidade e “verdade” na
produção jornalística? (PEREIRA; ADGHIRNI, 2011, p. 9).
Outras mudanças percebidas são em relação ao aumento no número de
atribuições dos jornalistas, concentrando processos como pesquisa, redação,
edição, ilustração, publicação e pós-publicação em um único profissional, de acordo
com Steensen (2009) apud Pereira e Adghirni (2011). Alguns jornalistas também
acabam produzindo conteúdo para vários formatos midiáticos (impresso, TV, rádio,
on-line), o que exige o desenvolvimento de novas competências e sobrecarga de
trabalho. “Situação que as empresas adotam e vendem com orgulho, levando o
profissional a assumir o slogan de jornalista 24 horas” (PEREIRA; ADGHIRNI, 2011,
p. 10).
Por outro lado, as tecnologias possibilitam que os jornalistas possam, cada
vez mais, apurar as informações necessárias à produção de uma matéria sem sair
das redações. E aumentou também a possibilidade de oferecer conteúdo mais
aprofundado, já que o espaço virtual é praticamente ilimitado no que diz respeito à
quantidade de informação que pode ser produzida, recuperada, associada e
colocada à disposição do público-alvo.
É fundamental que se enfatize que se trata da primeira vez que isso ocorre
na História do Jornalismo, uma vez que, em todos os suportes anteriores
(impresso, rádio, TV), o jornalista era obrigado a conviver com rígidas
limitações de espaço (que se traduzem em tempo, no caso do rádio e TV)
(PALACIOS, 2003, p. 8).
Os jornais e revistas têm dado atenção cada vez maior para a produção de
conteúdo exclusivo para a Internet. Se antes o conteúdo produzido para as mídias
impressas era apenas replicado (integralmente ou em parte) no site do veículo;
atualmente o Jornalismo Online se desenvolveu a ponto de ter equipes exclusivas
com jornalistas, editores e fotojornalistas próprios. “Com o crescimento da massa de
informação disponível aos cidadãos, torna-se ainda mais crucial o papel
40
desempenhado por profissionais que exercem funções de filtragem e ordenamento
desse material, seja a nível jornalístico, acadêmico, lúdico, etc.” (PALACIOS, 2003,
p. 6).
O jornalista online tem que fazer escolhas relativamente ao(s) formato(s)
adequado(s) para contar uma determinada história (multimídia), tem que
pesar as melhores opções para o público responder, interagir ou até
configurar certas histórias (interatividade) e pensar em maneiras de ligar o
artigo a outros artigos, arquivos, recursos, etc., através de hiperligações
(hipertexto) (DEUZE, 2006, p. 18).
O jornalista da redação digital tenta trabalhar para um púbico específico,
como ocorre na sua versão impressa. A diferença é que no computador, o
profissional busca uma fórmula para ser global e despertar o interesse de
leitores de diversas partes do mundo. A internet ainda implora pelo
desenvolvimento de normas, linguagens e modelos comerciais apropriados
(QUADROS, 2002, p. 11).
Diante da abundância informativa na web, Corrêa e Bertocchi (2012) falam da
importância de uma “curadoria da informação”, no sentido de uma organização das
informações na rede. Elas citam Rosenbaum (2011), que chama esse volume
crescente de informações de "tsunami de dados" e Beiguelman (2011) que o chama
de "dadosfera". Sem dúvida, o excesso de informação tende a continuar crescendo
e lidar com isso torna-se um grande desafio.
O maior mecanismo de busca da rede, o Google, por exemplo, só consegue
varrer 5% das informações disponíveis na internet. E apesar de surgirem
ferramentas de pesquisa como buscadores personalizados e direcionados,
a atividade de curar a informação é imprescindível, pois as ferramentas e os
aplicativos não dão conta de tudo o que acontece e não tem o olhar humano
também (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 61).
As autoras defendem que há muito mais uma “curadoria algorítmica de
informação do que propriamente humana” (CORRÊA; BERTOCCHI, 2012 apud
CORRÊA, 2012, p. 26). Isto por que "os algoritmos estão desempenhando um papel
sociotécnico cada vez mais importante na mediação entre jornalistas, audiência e
produtos de mídia" (ANDERSON, 2011, p. 529 apud CORRÊA E BERTOCCHI,
2012, p. 31). O argumento de Anderson se justifica pelo fato de diversos sites já
utilizarem algoritmos para organizar seu conteúdo, como por exemplo: os
buscadores (Google e outros), as redes sociais (Facebook), os sistemas
agregadores baseados em RSS (GoogleReader), os sistemas de recomendação
(Amazon, LastFM, Spotify), os produtos baseados em feeds (Paper.Ly, Scoop.it,
Storify, Washington Post Social Reader) e as ferramentas de organização da
41
informação por meio de imagens (Pinterest, WeHeartIrt). Há também os sistemas
publicadores de conteúdo ou CMS (Content Management Systems), publicadores de
blogs (Wordpress, Tumblr), publicadores personalizados (Joomla, Drupal) e
publicadores proprietários criados por empresas informativas. As autoras nomeiam
esses exemplos como "ferramentas de organização da abundância informática por
meio de algoritmos" (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 30).
Na verdade, a atividade de curadoria de informação está presente na Internet
desde seus primórdios, visto que os mecanismos de busca sempre priorizaram a
organização e a recuperação das buscas de formas e com hierarquias e prioridades
diferentes. E por volta de 1997 e 1998, os primeiros blogs já faziam um tipo de
curadorias através da recomendação e divulgação de links.
No Jornalismo Online, o curador de informação deve “combinar competências
de re-mediação, agregação de audiências, mineração de dados, inteligência
distribuída, agenciamentos e adição de valor visando o exercício da ação
comunicativa que, em última instância, objetiva a fixação e disseminação de
mensagens, e a respectiva obtenção de valor como retorno” (CORRÊA;
BERTOCCHI, 2012 apud CORRÊA, 2012, p. 34). Dessa forma, as ferramentas
baseadas em algoritmos funcionam como parceiras do comunicador.
É de se esperar que o comunicador-curador consiga participar dialogando
com a tecnologia da construção de algoritmos, sistemas CMS e de
aplicativos e, simultaneamente, ter uma visão sócio-antropológica do
comportamento e das tendências de seu público-alvo (CORRÊA;
BERTOCCHI, 2012 apud CORRÊA, 2012, p. 37).
Beiguelman (2011 apud CORRÊA; BERTOCCHI, 2012) propõe três possíveis
modelos de curadoria online, combinando elementos humanos e não-humanos. São
eles: curador como filtrador, curador como agenciador e a plataforma como
dispositivo curatorial. O curador-filtrador contextualiza informações e observa seus
efeitos. Já o curador-agenciador seleciona e relaciona os conteúdos, além de fazer a
mediação com os receptores da informação. O dispositivo curatorial, por sua vez,
potencializa e facilita a organização das informações por meio de suas
funcionalidades, que amplificam estrategicamente a produção e seleção de
conteúdo.
A esses três modelos de curadoria propostos por Beigueilman (2011), Corrêa
e Bertocchi (2012) adicionam mais dois, que são: o curador como crítico e a
42
recomendação como curadoria. No primeiro caso, o curador seleciona e compartilha
alguma informação e faz um comentário ou crítica sobre a mesma. Já o segundo
caso está relacionado aos filtros de informação que visam identificar perfis de
consumo: um processo que ocorre por meio de softwares que tentam antecipar os
interesses do consumidos nos ambientes digitais ou por meio de agentes humanos
que atualizam o sistema com informações e categorizações, como ocorre com a
folksonomia (tagueamento), por exemplo.
Se devidamente inseridas nas rotinas produtivas das redações online, as
técnicas de SEO podem ser incluídas entre essas várias formas de se organizar
informações na Web, uma vez que contribuem para a localização de conteúdo de
acordo com os interesses de cada leitor. Apesteguy (2013) afirma que as principais
vantagens em aplicar técnicas de SEO nas redações de sites de notícia são: trazer
mais leitores em curto prazo; tornar-se referência na Web sobre um determinado
assunto; e aumentar o número de comentários, curtir, compartilhamentos e links
apontando para sua matéria. O que ajudará a firmar sua posição nos resultados de
busca. Alvarez (2011) pontua que é possível que jornalistas usem técnicas de SEO
sem precisar alterar seu estilo de redação. Não são necessárias intervenções
forçadas e sem sentido para alcançar relevância perante os buscadores.
Para Cristiana de Luca, atualmente no portal da Globo.com, "a construção da
metainformação ainda é embrionária. (...) É preciso ter por trás da geração da
notícia (...) um poderoso sistema de indexação, catalogação e entrega, através de
ferramentas de gerenciamento de dados. Algo caro nos dias de hoje, de conteúdo
gratuito na internet" (SIMONE, 2001 apud QUADROS, 2002, p. 15).
Para melhor ilustrar o atual interesse das grandes redações online nas
possibilidades do SEO para a geração de tráfego aos seus sites e para a
pulverização das notícias, o capítulo a seguir traz a experiência de quatro
profissionais de diferentes grupos de comunicação.
43
3 MÉTODO E ANÁLISE
Para a viabilização deste levantamento sobre a utilização das técnicas de
Search Engine Optimization no Jornalismo Online brasileiro, apresentar-se-á neste
capítulo a experiência de quatro profissionais que atuam em redações online no
Brasil. A seguir descrevem-se os procedimentos metodológicos que guiam o estudo.
3.1 PROCEDIMENTOS METODOLÓGICOS
A fim de reunir informações que complementem a literatura apresentada,
realizou-se uma pesquisa qualitativa, sem se preocupar com representatividade
numérica, generalizações estatísticas e relações lineares de causa e efeito. O
enfoque é a compreensão das informações de modo mais global, relacionando
fatores e privilegiando contextos.
Os dados coletados nessas pesquisas são descritivos, retratando o maior
número possível de elementos existentes na realidade estudada. Preocupase muito mais com o processo do que com o produto (PRODANOV;
FREITAS, 2009, p. 70).
A literatura verificada compreende aspectos históricos da Internet, dos
mecanismos de busca, das técnicas de SEO e do Jornalismo Online e as mudanças
pela qual esse passou. Nesse sentido, o intuito foi reunir a literatura disponível,
traçando um fio condutor e conector entre os assuntos e os complementando com o
ponto de vista de profissionais da área.
Quanto a seus objetivos, esta é uma pesquisa exploratória, já que visa
conhecer em maior profundidade o tema a ser investigado, que conta ainda com
poucos estudos específicos. ”Este tipo de pesquisa é realizado especialmente quando o
tema escolhido é pouco explorado e torna-se difícil sobre ele formular hipóteses precisas e
operacionalizáveis” (GIL, 2008, p. 27).
A pesquisa exploratória possui planejamento flexível, o que permite o estudo
do tema sob diversos ângulos e aspectos. Em geral, envolve: levantamento
bibliográfico; entrevistas com pessoas que tiveram experiências práticas com o
44
problema pesquisado; análise de exemplos que estimulem a compreensão, segundo
Prodanov e Freitas (2009).
Quanto aos procedimentos adotados para a coleta de dados, realizou-se
inicialmente uma pesquisa bibliográfica em livros, artigos científicos e sites de
referência nas áreas pesquisadas. “A principal vantagem da pesquisa bibliográfica
reside no fato de permitir ao investigador a cobertura de uma gama de fenômenos
muito mais ampla do que aquela que poderia pesquisar diretamente” (GIL, 2008, p.
50).
Castells (2003) e Limeira (2003) foram os principais autores utilizados ao
abordar Internet e Web. Já Fragoso (2007) e Kendzerski (2005) contribuíram com
seus estudos sobre mecanismos de busca. Para tratar de SEO, foram consultados
Apesteguy (2013), Ricotta (2008), Marcel (2009), Felipini (2010), Battelle (2006),
Alvarez (2012), entre outros. Por sua vez, os estudos de Quadros (2002), Palacios
(2003) e Pereira e Adghirni (2011) muito contribuíram para a apresentação da
história do Jornalismo Online e suas principais caracterítiscas. As mudanças do
fazer jornalístico ficaram a cargo de Corrêa e Bertocchi (2012) e Rasêra (2010).
Foram realizadas também entrevistas estruturadas com quatro profissionais
com conhecimento em SEO que atuam junto a redações online, a fim de coletar
informações sobre a necessidade de conhecimento sobre SEO entre jornalistas que
atuam ou irão atuar em redações online do Brasil. Segundo Prodanov e Freitas
(2009), a entrevista é a obtenção de informações de um entrevistado sobre
determinado assunto ou problema.
Enquanto técnica de coleta de dados, a entrevista é bastante adequada
para a obtenção de informações acerca do que as pessoas sabem, crêem,
esperam, sentem ou desejam, pretendem fazer, fazem ou fizeram, bem
como acerca das suas explicações ou razões a respeito das coisas
precedentes (SELLTIZ, 1967, p. 273 apud GIL, 2008, p. 109).
Quanto à entrevista estruturada, Prodanov e Freitas afirmam: “é quando o
entrevistador segue roteiro preestabelecido. Ocorre a partir de um formulário
elaborado com antecedência” (PRODANOV; FREITAS, 2009, p. 106). Para utilizar o
conteúdo das entrevistas realizou-se análise de conteúdo. Laurence Bardin (2004)
define a análise de conteúdo como um conjunto de técnicas de análise das
comunicações que visa obter, por procedimentos sistemáticos e objetivos de
descrição do conteúdo das mensagens, “indicadores (quantitativos ou não) que
45
permitam
a
inferência
de
conhecimentos
relativos
às
condições
de
produção/recepção (variáveis inferidas) destas mensagens” (BARDIN, 2004, p. 37).
A análise de conteúdo possui duas funções: heurística, onde enriquece a
tentativa exploratória e aumenta a propensão à descoberta, em uma análise “para
ver o que dá” (BARDIN, 2004, p. 25); e de administração de prova, onde hipóteses
sob a forma de questões ou afirmações provisórias apelarão para o método de
análise sistemática e serão verificadas para obter confirmação ou não. Para o autor,
é uma análise “para servir de prova” (BARDIN, 2004, p. 25).
Na sequência, apresentar-se-á cada um dos grupos de comunicação
representados pelos entrevistados.
A Infoglobo surgiu através do Jornal O Globo, que começou a ser distribuído
no Rio de Janeiro em 1925. O Globo foi o primeiro no país e em toda a América
Latina a disponibilizar seu conteúdo impresso no Kindle, o leitor para livros digitais
(e-books) produzido pela Amazon. Em 2006, o site de O Globo completou 10 anos e
teve seu layout renovado. O papel da Infoglobo, segundo histórico no site 11 do
mesmo, é apurar os fatos para que possam ser veiculados nos jornais O Globo,
Extra e Expresso e sites da Globo do Jornal Extra e da Agência O Globo. Em
dezembro de 1998, a Infoglobo inaugurou o maior Parque Gráfico da América
Latina. O projeto entrou para a História e se tornou uma referência em tecnologia e
qualidade.
O Grupo RBS foi fundado em 31 de agosto de 1957 por Maurício Sirotski
Sobrinho, que naquele ano assumiu a direção da Rádio Gaúcha. Em 1962, entrou
no ar a TV Gaúcha, hoje RBS TV que, por sua vez, conta com emissoras afiliadas à
Rede Globo nos estados do Rio Grande do Sul e Santa Catarina. Em 1970, o grupo
assumiu o controle do jornal Zero Hora. Os anos que se seguiram foram de
expansão e novas aquisições e atualmente o Grupo RBS já conta com mais de 6500
colaboradores, segundo o site do grupo12.
Por sua vez, o Correio Braziliense “é um jornal brasileiro com sede em
Brasília, pertencente ao Grupo Diários Associados”13, que foi fundado em 21 de abril
de 1960 por Assis Chateaubriand. E mesmo após a morte de Assis Chateaubriand, o
Correio continuou a pertencer aos Diários Associados, sendo o principal jornal da
Capital Federal. Na gestão do editor executivo Ricardo Noblat, foi o jornal brasileiro
11
Disponível em https://www.infoglobo.com.br/Anuncie/institucional.aspx.
Disponível em http://www.gruporbs.com.br/quem_somos/index.php?pagina=grupoRBS.
13
Disponível em http://pt.wikipedia.org/wiki/Correio_Braziliense.
12
46
com o design gráfico mais premiado pela SND (Society for News Design), a mais
importante sociedade internacional de design de jornais. Em 21 de abril de 2008, o
site Correio Braziliense foi totalmente reformulado visando torná-lo mais interativo e
no dia 15 de janeiro de 2011, o Correio lançou sua versão para iPad.
O Grupo Estado surgiu a partir de O Estado de São Paulo, que é o mais
antigo jornal da cidade de São Paulo ainda em circulação. Conforme explana o
histórico em seu site14, ao longo do tempo novas empresas e produtos foram criados
(Jornal da Tarde, Rádio Eldorado, Agência Estado, Oesp-Mídia, Oesp-Gráfica, etc).
E em março de 2000, foi lançado o portal Estadao.com.br. Atualmente, pesquisas de
mercado já apontaram que o jornal O Estado de São Paulo é o que tem maior
credibilidade entre as empresas jornalísticas brasileiras.
Os profissionais entrevistados são: Eric Apesteguy de Sousa (Infoglobo),
Francine Facchini (Grupo RBS), Fernando Braga (Correio Braziliense) e Klaus
Junginger (Grupo Estado). Eric Apesteguy de Sousa, 34 anos, é especialista de
SEO na Infoglobo, atuando com SEO há 5 anos e é formado em Marketing e
Management Internacional (ESSEC - Paris, France) e MBA de E-Commerce (Infnet Rio de Janeiro). Francine Facchini, 21 anos, é estudante de Publicidade e
Propaganda e atua há mais de 3 anos como analista de SEO e Web Analytics no
Grupo
RBS.
Fernando
Braga,
31
anos,
é
jornalista
e
subeditor
do
CorreioBraziliense.com e trabalha com SEO há 3 anos. Klaus Junginger, 39 anos,
graduou-se em Jornalismo e é SEO da redação do Estado de São Paulo, atuando
com SEO há 4 anos.
3.2 RESULTADOS: APLICAÇÃO DAS TÉCNICAS DE SEO NAS REDAÇÕES
ONLINE
Após apresentados os entrevistados, pretende-se levantar as respostas à
entrevista estruturada realizada via e-mail com cada um, cujas perguntas podem ser
conferidas no Anexo A. As entrevistas foram enviadas aos entrevistados no dia 16
de outubro e recebidas até 1° de novembro de 2013.
14
Disponível em: http://www.estadao.com.br/historico.
47
Primeiramente, perguntou-se aos entrevistados se, em sua opinião, os sites
de grupos de comunicação estariam atentos às possibilidades do SEO. Eric
Apesteguy de Sousa afirmou que “o SEO é conhecido pelos grupos de imprensa
tradicional, porém de forma geral ele não é muito empregado em termos de
otimização de conteúdo”. Ele aponta ainda que “do ponto de vista técnico, os sites
são bem otimizados. Com a nova atualização beija-flor15 do Google, e o voice search
(pesquisa por voz), as novas oportunidades técnicas estão cada vez mais na web
semântica”. Por sua vez, Francine Facchini, atesta que “os grandes veículos de
comunicação online, como Terra, Globo.com e clicRBS estão pensando cada vez
mais em SEO para a área editorial, porém ainda há muitos jornalistas que não se
adequaram a esta nova forma de escrever para web: muitos ainda escrevem
conteúdo para web da mesma forma que escreveriam para o impresso”. Fernando
Braga afirmou que “apesar de o SEO ser uma ferramenta que está na língua de
todos os profissionais pelo menos há 5 anos, só recentemente que ela foi adotada
com mais seriedade pelo mercado. Ainda há muitos grupos de comunicação que
estão engatinhando e descobriram recentemente o potencial que há por trás do
recurso. No entanto, acredito que apenas as grandes companhias fazem um uso
mais correto do SEO”. Já Klaus Junginger respondeu que “os sites de grupos de
comunicação estão atentos à necessidade de tráfego para se manterem
comercialmente viáveis”.
Perguntou-se aos entrevistados quais seriam os veículos online no Brasil, de
seu conhecimento, que estariam já atentando para a utilização das técnicas de SEO
na redação de matérias para publicação online. Os entrevistados citaram O Globo, o
Extra, a Globo.com, o Estado de São Paulo, Terra, Rádio Gaúcha, Zero Hora, UOL,
R7, Gazeta do Povo (PR), entre outros. Sendo que Klaus Junginger frisou “alguns
contam com profissionais de SEO junto à redação, outros atuando apenas para o
marketing”.
Quanto à formação do profissional responsável pela aplicação do SEO,
Sousa respondeu que “existem cursos de SEO, vários e bons, curtos e mais longos,
gratuitos e pagos. E toda a informação está na web. Acho que a melhor formação é
gostar de escrever e abraçar as novas mídias”. Facchini apontou que “normalmente
15
Mudança no algoritmo do Google, alterando a forma de apresentação dos resultados e organização
de seu índice. O Google anunciou que a mudança começou a ser aplicada no dia 26 de agosto de
2013, quando boa parte da blogosfera mundial reclamou da perda significativa de visitas, posições
nos resultados para palavras chave importantes e até novas disposições e sugestões de pesquisa.
48
atuam nessa função os profissionais da área digital, formados em Tecnologia da
Informação ou Publicidade e Propaganda”. Braga pontuou que “Nas redações online
todos devem saber minimamente das técnicas de SEO. Isso porque, como o volume
de informação gerada em uma empresa jornalística é muito grande, não é viável que
a responsabilidade caia apenas sobre os editores”. Já Junginger afirmou que são
“preferencialmente
profissionais
da
área
da
comunicação
que
possuam
conhecimentos técnicos”.
Os entrevistados foram questionados também sobre em que parte do
processo de redação das notícias o profissional de SEO atua. Sousa afirma que
esse profissional tem a missão de “evangelizar as redações a organizar e otimizar o
conteúdo para os motores e busca, no intuito de aumentar a visibilidade e
consequentemente a audiência. Isso se faz estudando o CMS (Content
Management Systems)16 de publicação, criando apresentações, metodologia,
artigos, trazendo dados e compartilhando todas estas informações com os
jornalistas”. Facchini respondeu que “além de dar treinamentos de melhores técnicas
para as redações online, também auxilia-se na definição de conteúdos editoriais
como coberturas esportivas, páginas de transmissão ao vivo e projetos digitais”.
Braga, por sua vez, afirmou que “após apurar a matéria e discutir com o editor sobre
a importância dos aspectos a serem abordados, o repórter trabalha o potencial do
SEO desde a produção do lead até a elaboração do título e do subtítulo da matéria.
Também acrescenta sugestões de fotos, legendas e tags. Antes de ir ao ar, o
material é totalmente revisado pelo editor - e se for preciso, por mais de um editor que melhora/corrige os aspectos fundamentais ao texto”. Junginger preferiu não
responder esta questão.
Questionados se o conhecimento de SEO configuraria já um pré-requisito
para os jornalistas que desejam atuar em redações online, Sousa respondeu: “Não
acho que SEO seja um pré-requisito para escrever em redações online. Agora, se
você pretende trazer sua audiência via Google, se torna primordial estudá-lo. No
caso particular da otimização de conteúdo, acho que o redator online deve entender
e se adaptar ao suporte que ele irá usar. Primeiro o seu próprio site, e depois os
motores de busca, redes sociais, portais e outros formatos”. Já Facchini respondeu
16
CMS é um sistema gestor de websites, portais e intranets que integra ferramentas necessárias para
criar, editar e inserir conteúdos em tempo real, sem a necessidade de programação de código, cujo
objetivo é estruturar e facilitar a criação, administração, distribuição, publicação e disponibilidade da
informação.
49
que “atualmente, não é um pré-requisito para um jornalista ter conhecimento em
SEO para atuar em uma redação online. No entanto, acredito que futuramente tornese importante não só ter conhecimentos em SEO como ter um estilo de escrita mais
voltado para os usuários da web, pensando em redes sociais, mecanismos de busca
e criação de conteúdos multimídia (vídeos, áudios, galerias de foto)”. Braga afirmou
que “aspectos como experiência, bom texto, boa apuração e habilidades multimídias
ainda pesam mais na hora da contratação de um novo profissional para atuar em
sites. No entanto, o conhecimento de SEO é um diferencial competitivo que valoriza
cada vez mais o currículo de quem procura atuar com produção de conteúdo online.
Saber o que é, como funciona e como essa ferramenta pode ajudar no crescimento
do número de acesso do site passa a ser fundamental no momento em que as
empresas e os anunciantes voltam os olhos para métricas como volume de visitas,
tempo médio de navegação e páginas visitadas dentro de um site”. Por sua vez,
Klaus Junginger respondeu “não neste momento”.
Os principais pontos em relação a SEO que devem ser observados pelo
jornalistas no momento de redigir e publicar notícias online, segundo Eric Apesteguy
são “ter um título claro e conciso com palavras-chave, um subtítulo criativo, links
interessantes, fotos otimizadas, ter um texto de no mínimo 500 palavras e um
conteúdo relevante, evitando conteúdo duplicado”. Facchini levantou três principais
pontos: o título, as palavras-chaves e os conteúdos multimídia. “O título deve ser o
mais claro e descritivo possível, diferentemente das chamadas de jornais e revistas
que criam títulos chamativos que não informam o conteúdo da matéria. Além disso,
quando se pensa em conteúdo para uma matéria online, já se deve ter em vista
quais serão as palavras-chaves e utilizá-las ao longo do conteúdo sem
‘sobrecarregar’. Outro ponto que os buscadores levam em consideração na hora de
indexar uma matéria, é o quanto de informação diferenciada essa página está
oferecendo ao usuário em comparação às demais: se tem galerias de fotos, vídeos,
infográficos e etc”. Braga indicou os seguintes pontos: “lead, título, subtítulo, legenda
de foto e tags; e também é importante relacionar links externos e internos para
páginas de dentro da própria empresa”. Junginger preferiu não responder esta
questão.
Questionado sobre se os jornalistas das redações online passam por uma
capacitação sobre as técnicas básicas de SEO, Sousa afirmou que na Infoglobo
“existem alguns incentivos, mas não é obrigatório”. Segundo a percepção do
50
entrevistado, os jornalistas que possuem blogs, geralmente, estão mais atentos às
questões de webwriting, link building e otimização de texto. “O nível de
conhecimento geral em SEO dos jornalistas depende também se o veículo em que
atuam é pure player da internet ou não”, acrescenta ainda. Já Facchini atestou que
“no Grupo RBS, ocorrem, a cada três meses, pequenos treinamentos para os novos
jornalistas que estão entrando na editoria online, para melhor capacitá-los”. Braga,
por sua vez, afirmou que “o Correio vem se atentando para isso e passou a oferecer
cursos para os profissionais que atuam no online. No entanto, acredito que na
maioria das empresas (assim como em diferentes setores profissionais), a busca por
capacitação também deve partir do próprio profissional”. Junginger afirmou que “No
Estadão, profissionais e estagiários são treinados”.
Quanto à influência do SEO na escolha das pautas das redações online,
Sousa atestou que “hoje em dia, alguns veículos usam os dados muito bem nesse
sentido. Contudo, no mercado brasileiro, as pautas são ainda baseadas muito mais
na decisão editorial”. Facchini informou que “em alguns sites do Grupo RBS, a
redação e o profissional de SEO estão ligados diretamente nas definições de pauta,
muitas vezes por se tratarem de produtos com mais foco online. Porém, em outros
sites do grupo, o profissional de SEO participa mais na definição de novos projetos
editoriais, do que necessariamente no dia a dia da pauta da redação”. Braga
também relatou sua experiência: “Em uma esmagadora maioria das vezes, não. O
SEO é uma ferramenta a ser utilizada pós-pauta. No entanto, lembro de uma vez
que produzimos uma matéria visando aparecer no topo de resultado de busca do
Google. Foi o próprio Google criou um doodle em homenagem a um grande pintor.
O doodle entrou no ar à meia-noite e, quando vimos, ninguém tinha escrito nada a
respeito. Como imaginávamos que provavelmente a busca pelas palavras-chaves do
nome daquele artista iria ser grande, resolvemos fazer uma matéria falando da
homenagem do Google e relembrando a vida do artista. Com o uso correto do SEO,
figuramos então no primeiro lugar do resultado da pesquisa sobre aquele artista
durante todo o dia seguinte. Foi apenas uma única vez que, por conta do SEO,
criamos uma matéria e serviu mais como um experimento”. Já Junginger afirmou
que “não influencia, de forma alguma”.
A pergunta final feita aos entrevistados foi em relação às mudanças no
volume de acesso dos sites em que eles atuam em função da observação das
técnicas de SEO. Sousa atestou que “Tanto no curto, como no longo prazo, ter um
51
site bem otimizado e de grande autoridade e escrever integrando a lógica do SEO,
permite chegar na primeira página de resultados das buscas rapidamente. Às vezes
durante o pico de pesquisa sobre o tema, ou de forma recorrente, podendo se
estender a vários anos, quando a matéria se mantém na primeira página”. Facchini,
por sua vez, afirmou que “Sim, já tive experiências onde o volume de visitas triplicou
de tamanho, apenas por utilizar técnicas de SEO nas editorias”. Braga disse que “é
impressionante como o número de visitas cresceu a partir do momento que
passamos a adotar técnicas simples de SEO. Todos os sites do veículo tiveram um
crescimento de audiência. Isso só comprova que os mecanismos de busca na
internet não devem ser desprezados - muito pelo contrário, devem ser valorizados e
vistos como uma importante fonte de audiência”. Junginger afirmou que “o que
encontramos é um incremento no tráfego orgânico”.
3.3 DISCUSSÃO DOS RESULTADOS
Com base nas respostas obtidas por meio da entrevista estruturada com os
quatro entrevistados, foi possível obter informações sobre como as técnicas de SEO
são aplicadas nas redações online brasileiras e, assim, exemplificar as informações
trazidas por meio da literatura utilizada nos capítulos iniciais deste estudo.
Analisando as respostas, pôde-se perceber, primeiramente, que o SEO é, de
fato, uma realidade nas redações online brasileiras de grandes grupos de
comunicação e que a maioria delas está atenta às vantagens de se aplicar as
técnicas para aumentar o tráfego dos sites de notícias. Por mais que algumas das
técnicas sejam mais facilmente aplicáveis pelos profissionais da área de Tecnologia
da Informação, atualmente, com a importância crescente da web e dos mecanismos
de busca, o conhecimento sobre SEO está sendo requerido também em outras
áreas profissionais, como é o caso da Comunicação.
Nas redações online, os profissionais requisitados para atentar às questões
de SEO são geralmente da área da Comunicação ou Tecnologia da Informação.
Eles têm o papel de repassar as técnicas básicas de SEO aos jornalistas por meio
52
de treinamentos, analisar estatísticas de acessos, pesquisar tendências de consumo
e, com isso, auxiliar na definição de conteúdos editoriais.
Percebeu-se também que ter conhecimento em SEO ainda não é um prérequisito para um jornalista que deseja atuar em uma redação online, consiste, por
enquanto, em um diferencial no currículo. No entanto, esse tipo de conhecimento
tende a ter grande valor entre os jornalistas, juntamente à habilidade de escrever
para os usuários da web, pensando em redes sociais, mecanismos de busca,
conteúdos multimídia, etc. Esta percepção reforça a importância de os jornalistas
dominarem as principais técnicas de SEO, sobre as quais se falou no subcapítulo
1.3 do presente estudo.
E àqueles jornalistas que não possuem esse conhecimento deve-se oferecer
capacitação no assunto, como já parece estar ocorrendo na maioria das redações
de grandes grupos de comunicação. Nos primórdios do Jornalismo Online, conforme
explana Quadros (2002) era conveniente contratar jornalistas menos experientes
para trabalhar nas redações online, porque esses não teriam noções preconcebidas
do jornalismo. Atualmente, esse cenário parece se repetir, já que grande parte das
empresas ainda prefere capacitar os profissionais nas redações. Essa realidade
pode ser também um reflexo da falta desse conteúdo na graduação, o que é assunto
digno de discussões futuras.
Alguns dos pontos mais importantes a serem observados pelo jornalista são:
o título, as palavras-chaves/tags e os conteúdos multimídia. O título, por exemplo,
deve ser o mais claro e descritivo possível. É preciso também verificar com
antecedência quais serão as palavras-chaves para poder utilizá-las ao longo do
conteúdo sem deixá-lo ‘sobrecarregado’. Outros aspectos considerados pelos
buscadores e citados pelos entrevistados são: o lead da matéria, o ineditismo do
material, a existência de galerias de fotos, vídeos, infográficos. Levando estes
quesitos em consideração durante a redação e publicação online de sua matéria, o
jornalista acaba fazendo papel de “curador de informação”, auxiliando na
organização das informações na rede, como explanam Correa e Bertocchi (2012),
citadas no subcapítulo 2.3.
Percebeu-se ainda que, apesar de o SEO ainda ser um fator de pouca
influência no momento de escolha das pautas, ele tem sido utilizado como
ferramenta
pós-pauta,
experimentação
e
de
auxiliando
estratégias
na
análise
de
tendências
através
específicas
por
parte
profissionais
dos
da
53
especializados em SEO em determinado veículo. Além disso, como se explanou no
subcapítulo 1.3, é fato que utilizar Search Engine Optimization no processo de
redação e publicação das matérias online, permite chegar na primeira página de
resultados de buscas mais rapidamente.
54
CONSIDERAÇÕES FINAIS
Este estudo foi iniciado com o intuito de analisar a ligação entre dois campos,
à primeira vista, distantes. O que teriam a ver Jornalismo Online e SEO? Pode-se
dizer agora com maior certeza: muito!
Por meio deste estudo, pôde-se perceber a atual influência do SEO e dos
mecanismos de buscas (seu objeto de trabalho) no fazer jornalístico em redações
online. Percebeu-se que um jornalista não precisa “escrever para” os mecanismos
de buscas, levando apenas em consideração as tendências em buscas e os
acessos, afinal a informação é seu maior compromisso. Mas precisa desenvolver a
habilidade de escrever seu conteúdo, desde o título até a descrição das imagens,
pensando naquilo que o leitor irá buscar nos mecanismos de busca para encontrar
este tipo de informação fornecida na matéria. Com isso, ele estará contribuindo com
o leitor e fazendo com que sua matéria tenha maior relevância nas páginas dos
resultados de busca.
Dentre tantas outras habilidades, o SEO seria, dessa forma, um diferencial
dos jornalistas nas redações online e se firma como uma estratégia-chave para a
geração de tráfego. Afinal, se o jornal impresso e a revista preocupam-se em ter
mais assinantes para agregar valor à sua publicidade, os sites de notícias precisam
de acessos no mesmo sentido.
Ainda que não representem a totalidade de empresas jornalísticas que
aplicam técnicas de SEO, por meio de suas respostas, os entrevistados
possibilitaram uma melhor compreensão do atual cenário em relação aos temas
estudados. A pouca produção acadêmica sobre o tema justifica o estudo e serve de
alerta para a capacitação de futuros jornalistas e, sem dúvida, o presente trabalho
poderá ser utilizado como material de apoio em futuros estudos.
55
REFERÊNCIAS
ALVAREZ, Barbara Zamberlan. Cartilha de recomendações de SEO para
jornalistas
on-line.
2011.
Disponível
em:
<http://seonojornalismo.com.br/libraries/down/Cartilha_SEO_no_Jornalismo.pdf.>
Acesso em: 11 out. 2013.
APESTEGUY, Eric. Webwriting e SEO para jornalistas. Disponível em:
<http://www.aotopo.com.br/webwriting-seo-jornalistas>. Acesso em: 12 out. 2013.
BARDIN, Laurence. Análise de conteúdo. Lisboa: Edições 70, 2004.
BATTELLE, John. A Busca - Como o Google e seus competidores reinventaram
os negócios e estão transformando nossas vidas. Rio de Janeiro: Elsevier, 2006.
BEIGUELMAN, Gisele. Curadoria de informação. Palestra, USP, 2011. Disponível
em: <www.slideshare.net/gbeiguelman/curadoria-informacao>. Acesso em: 20 out.
2013.
CASTELLS, Manuel. A Galáxia da Internet: reflexões sobre a internet, os
negócios e a sociedade. Rio de Janeiro: Jorge Hazar, 2003.
CORRÊA, Elizabeth Nicolau Saad (org.). Curadoria Digital e o Campo da
Comunicação. São Paulo: ECA-USP, 2012. Disponível em: <http://issuu.com/grupoecausp.com/docs/ebook_curadoria_digital_usp>. Acesso em: 4 out. 2013.
DEUZE, Mark. O jornalismo e os novos meios de comunicação social.
Comunicação e Sociedade, v. 9-10, p. 15-37, 2006. Disponível em:
<http://www.lasics.uminho.pt/ojs/index.php/comsoc/article/view/1152/1095>. Acesso
em: 9 mai. 2013.
FELIPINI, Dailton. Google Top 10:como colocar seu site ou blog na primeira
página do Google. Rio de Janeiro: Brasport, 2010.
FRAGOSO, Suely. Quem procura, acha? O impacto dos buscadores sobre o
modelo
distributivo
da
World
Wide
Web.
Disponível
em:
<http://www.compos.org.br/data/biblioteca_177.pdf>. Acesso em: 15 mai. 2013.
56
GIL, Antonio Carlos. Métodos e técnicas de pesquisa social. 6 ed. São Paulo:
Atlas, 2008.
KENDZERSKI, Paulo Roberto. Web Marketing e Comunicação Digital. Porto
Alegre: WBI Brasil, 2009.
LIMA, Fabiane. Como o Domínio pode ajudar no Rankeamento. Disponível em:
<http://www.agenciamestre.com/seo/importancia-dominio-rankeamento>. Acesso em
16 set. 2013.
LIMEIRA, Tania Maria Vidigal. E-marketing: o marketing na internet com casos
brasileiros. São Paulo: Saraiva, 2003.
MARCEL, Frank. Link Building: Construindo Sucesso. Disponível em:
<http://www.agenciamestre.com/seo/link-building-construindo-sucesso>. Acesso em:
16 set. 2013.
MARCEL, Frank. Meta Tags SEO: Quantidade e Qualidade. Disponível em:
<http://www.agenciamestre.com/seo/meta-tags-seo-quantidade-qualidade>. Acesso
em: 15 set. 2013.
MARCEL, Frank. SEO na Title Tag – Melhore os Títulos do seu Site. Disponível
em: <http://www.agenciamestre.com/seo/seo-na-title-tag>. Acesso em: 15 set. 2013.
MARCEL, Frank. SEO para Meta Description Tags. Disponível em:
<http://www.agenciamestre.com/seo/seo-para-meta-description-tags>. Acesso em:
15 set. 2013.
MARCEL, Frank. Usabilidade: Como Escrever Na Web. Disponível em:
<http://www.agenciamestre.com/usabilidade/como-escrever-na-web-usabilidade>.
Acesso em: 16 set. 2013.
MIRANDA, Bruno. Otimização de Imagens: Qual o Melhor Caminho a Seguir?
Disponível em: <http://www.agenciamestre.com/seo/otimizacao-de-imagens-qualmelhor-caminho-seguir>. Acesso em: 16 set. 2013.
MIRANDA, Luciano. Jornalismo On-line. Passo Fundo: UPF, 2004.
PALACIOS, Marcos. Ruptura, Continuidade e Potencialização no Jornalismo
Online:
o
Lugar
da
Memória.
Disponível
em:
57
<http://www.facom.ufba.br/jol/pdf/2003_palacios_olugardamemoria.pdf>. Acesso em:
30 set. 2013.
PALACIOS, Marcos; MIELNICZUK, Luciana; BARBOSA, Suzana; RIBAS, Beatriz;
NARITA, Sandra. Um mapeamento de características e tendências no
jornalismo
online
brasileiro.
Disponível
em:
<
http://www.facom.ufba.br/jol/pdf/2002_palacios_mapeamentojol.pdf>. Acesso em: 12
out. 2013.
PALACIOS, Marcos; RIBAS, Beatriz. Manual de laboratório de jornalismo na
Internet.
Salvador:
EDUFBA,
2007.
Disponível
em:
<https://repositorio.ufba.br/ri/bitstream/ufba/142/1/Manual%20de
%20Jornalismo.pdf>. Acesso em: 20 set. 2013.
PEREIRA, Fábio Henrique; ADGHIRNI, Zélia Leal. O Jornalismo em tempo de
mudanças
estruturais.
Disponível
em:
<http://repositorio.unb.br/bitstream/10482/12443/1/ARTIGO_JornalismoTempoMuda
ncas.pdf>. Acesso em: 12 out. 2013.
PRODANOV, Cleber Cristiano; FREITAS, Ernani Cesar de. Metodologia do
Trabalho Científico: métodos e técnicas da pesquisa do trabalho científico
acadêmico. Novo Hamburgo: Feevale, 2009.
QUADROS, Claudia Irene. Uma breve visão histórica do jornalismo on-line.
Disponível
em:
<http://www.intercom.org.br/papers/nacionais/2002/congresso2002_anais/2002_NP2
QUADROS.pdf>. Acesso em 20 set. 2013.
RASÊRA, Marcella. Jornalismo digital: do boom aos dias atuais. Uma reflexão
sobre a necessidade da convergência de meios decorrente da mudança de
hábitos de consumo da noticia. Disponível em: <http://www.iconeppgcom.com.br/index.php/icone/article/viewFile/96/92>. Acesso em: 9 ago. 2013.
RICOTTA, Fábio. Linkbuilding – O Poder do Texto Âncora. Disponível em: <
http://www.agenciamestre.com/seo/linkbuilding-o-poder-do-texto-ancora>.
Acesso
em: 16 set. 2013.
RICOTTA,
Fábio.
O
que
é
SEO?
Disponível
<http://www.mestreseo.com.br/seo/o-que-e-seo>. Acesso em: 9 mai. 2013.
em:
58
RIOLINO, Leandro. Tags Heading e Sua Importância no SEO. Disponível em:
<http://www.agenciamestre.com/marketing-digital/tags-heading-seo>. Acesso em 16
set. 2013.
SCHÄFFER, Aline Roloff. Análise do website de uma instituição de ensino sob o
enfoque do jornalismo online: o caso da Feevale. 2007.
TOLDO, Claudio José; GONÇALVES, Leila Laís. Webjornalismo hipermidiático na
web 2.0: o uso de ferramentas gratuitas para noticiar. Disponível em
<http://www.portalsatc.com/site/adm/arquivos/75/2620101735401.PDF>. Acesso em
20 set. 2013.
TORRES, Cláudio. A Bíblia do marketing digital: tudo o que você queria saber
sobre marketing e publicidade na internet e não tinha a quem perguntar. São
Paulo: Novatec Editora, 2009.
59
ANEXO A – ENTREVISTA ESTRUTURADA COM PROFISSIONAIS
1) Perfil do entrevistado: nome completo, idade, área de formação, cargo e empresa
atuais e há quanto tempo trabalha com SEO.
2) Na sua opinião, os sites de grupos de comunicação estão atentos às
possibilidades do SEO? Justifique.
3) Quais veículos online no Brasil, de seu conhecimento, têm atentado para a
utilização das técnicas de SEO na redação de matérias para publicação online?
4) Em geral, qual é a formação do profissional responsável por esse tipo de
atividade (observação das técnicas de SEO) nas redações online especificamente?
5) Em que parte do processo de redação de notícia esse profissional atua? De que
forma ele influencia na redação? Podes usar teu exemplo, nesse caso.
6) O conhecimento de SEO é um pré-requisito para jornalistas que desejam atuar
em redações online? Se não, você acredita que pode se tornar pré-requisito
futuramente? Por quê?
7) Quais os principais pontos em relação a SEO que devem ser observados pelo
jornalistas no momento de redigir e publicar notícias online?
8) Os jornalistas das redações online passam por uma capacitação sobre as
técnicas básicas de SEO?
9) O SEO já influencia na escolha das pautas das redações online? De que forma
exatamente?
10) Você
trabalha
em
um
grande
grupo
de
Comunicação.
Você
observou alteração de volume de acesso dos sites de veículos do grupo em função
da observação das técnicas de SEO?

Documentos relacionados