extração e transformação de dados em informação nos dias atuais

Transcrição

extração e transformação de dados em informação nos dias atuais
1
EXTRAÇÃO E TRANSFORMAÇÃO DE DADOS EM INFORMAÇÃO
NOS DIAS ATUAIS
Cintia de Oliveira Zago1
Márcio Moreira2
RESUMO
Este artigo mostra como os conceitos de Business Intelligence (BI) e big data estão diretamente
relacionados, que a transformação rápida de grandes volumes de dados em informações úteis é
de fundamental importância para a competitividade e sobrevivência dos negócios nos dias
atuais. O trabalho descreve sucintamente a evolução do BI, desde sua geração 1.0 até a 3.0 que
ainda em crescimento. Finalmente são apresentados dois estudos de caso, do CDC e da Ford,
que demonstram além da ligação dos conceitos de BI e big data, como eles estão sendo
utilizados pelo governo americano e pela Ford.
Palavras-chave: business intelligence; big data; informação, dados.
ABSTRACT
This paper shows how the concepts of Business Intelligence (BI) and big data are directly
related to the rapid transformation of large volumes of data into useful information is of
fundamental importance for the competitiveness and survival of business today. The paper
briefly describes the evolution of BI, from its generation 1.0 to 3.0 still growing. Finally are
presented two case studies, of the CDC and Ford, showing beyond the connection of the
concepts of BI and big data, how they are being used by the U.S. government and the Ford.
Keywords: business intelligence, big data, information, data.
Aluna do Curso de Especialização em Engenharia de Software. Graduada no curso Sistemas de Informação. Atua
profissionalmente como Desenvolvedora de Software. E-mail: [email protected]
2
Executivo, consultor e empreendedor em TI. Cientista da Computação pela UFU, Especialista em Segurança da
Informação pela Uniminas (Pitágoras). Professor especialista em disciplinas de TI da FGV e do Pitágoras,
especialmente Gestão de Projetos (PMBOK), ITIL, RUP, Segurança de Informação e Gestão de Negócios.
1
2
1. Introdução
Com o crescimento exponencial da internet (MOREIRA, 2007), com a popularização
de aplicativos cada vez mais rápidos e com o anseio cada vez maior pela informação e
agregação de valor ao negócio, atualmente, engenheiros da informação estão buscando formas
adequadas e ágeis de manipular esses dados. Sendo assim, surge o questionamento: é possível
manipular essa grande quantidade de dados unindo agilidade, precisão e confiabilidade para
então agregar valor ao negócio?
Atualmente o mundo está produzindo uma massa de dados tão grande que está se
tornando um desafio obter a informação que realmente importa, que faz a diferença para o
negócio. Estima-se que em 2006, os dados armazenados no “universo digital” giravam em torno
de 0.18 zettabytes (1 zettabyte equivale a 1 bilhão de terabytes), sendo que em 2011 esse
número saltou para 1.8 zettabytes. Esses dados possuem diversas fontes, como, por exemplo,
os dados armazenados pela rede social mais acessada atualmente (Facebook), que armazena
aproximadamente mais de 10 bilhões de fotos, ultrapassando um petabyte (o equivalente a um
mil terabytes) (WHITE, 2010). Dessa forma, manipular esses dados está se tornando um
desafio, motivo este que impulsionou este projeto de pesquisa.
Este artigo tem como objetivo um estudo bibliográfico exploratório sobre os conceitos
de Business Intelligence (BI) e big data. O artigo visa comparar as versões 1.0, 2.0 e 3.0 do BI
e verificar se o conceito de big data está diretamente relacionado ao conceito de BI. Para
confirmar o estudo exploratório será feito um breve estudo de caso. Finalmente serão
apresentadas as conclusões deste estudo.
2. A importância da transformação dos dados em informação
Desde os anos de 1970, já foi previsto por Seymour Peppert, um dos grandes cientistas
do MIT (Instituto de Tecnologia de Massachussets) que os dados e seus correlatos causariam
uma revolução na sociedade tão grande que seria digna de ser comparada com a imprensa de
Gutemberg (BARBIERI, 2011). No entanto, muitos desacreditaram.
Hoje, a tecnologia dos dados e das informações apresentam o conceito de “mash up”,
que traduzido de forma aberta e livre, seria “mistura” (BARBIERI, 2011). Portanto, estamos
3
em pleno século XXI com uma massa de dados misturada e inicialmente sem valor nenhum
para quem a possui, a qual deve ser devidamente tratada e analisada, sendo transformada em
informações valiosas que serão imprescindíveis na tomada de decisão de qualquer negócio ou
até mesmo um indivíduo.
Um exemplo de como a transformação de dados é de extrema importância, pode ser
visto através do conceito de reputação corporativa, que pode ser considerado um dos mais
relevantes pontos que uma empresa deve observar, tornando-se até mesmo um ponto
estratégico. Barbieri (2011) diz que a reputação coorporativa nada mais é do que “... aquela
percepção, intuição, sentimento ou sensação que temos e é expressa na forma de opinião
definida sobre algo, alguém ou uma empresa.” Logicamente, a reputação corporativa é
construída através das iterações das pessoas com a empresa. Estas iterações ocorrem através do
fluxo de informações trocadas entre as pessoas e as empresas. Sendo portanto, afetadas pelas
informações expostas ou solicitadas pelas empresas.
Assim, a reputação coorporativa é um importante arsenal para se construir um
embasamento concreto e, a partir daí, partir-se para uma tomada de decisão em relação aos
dados coletados. É neste cenário, que pode-se contar com os conceitos de BI e big data.
Para White (2010) “... vivemos na era dos dados. E não é fácil medir o total de volume
de informações produzido eletronicamente.” Por esse motivo, novas metodologias e técnicas
surgem para que torne-se possível mensurarmos essa quantidade massiva de dados.
Há alguns anos, falar sobre uma grande quantidade de dados significava dizer que esta
grande quantidade girava em torno gigabytes. No entanto, como explica Jacobs (2009) um
banco de dados próximo aos 100gb não pode ser considerado trivialmente pequeno nem nos
dias atuais e isso nos leva a buscar novas ferramentas e metodologias para aumentar a eficácia
na análise desses dados.
2.1. Business Intelligence
O conceito de BI, ao contrário do que possa ser de conhecimento geral, não foi
concebido recentemente, diga-se das ultimas décadas até o presente momento. Segundo Primak
(2008) o conceito prático de BI já era usado pelo povo antigo, onde a sociedade do oriente
médio antigo já era capaz de realizar o cruzamento de informações obtidas junto à natureza em
4
seu benefício. Por exemplo, analisar o comportamento de marés, os períodos chuvosos e de
seca, entre outras, proporcionava uma base de dados que permitiria a esses povos obter
informações que seriam usadas para: navegação, guerras e tomada de decisões importantes;
permitindo a melhoria de vida de suas comunidades.
Os conceitos de BI variam de autor para autor, como pode ser visto abaixo:
Para Gartner (2013):
“o termo Business Intelligence (BI) significa um conjunto de termos que incluem
aplicações, infraestrutura e ferramentas, e melhores práticas que possibilitam o
acesso e análises de informações para melhorar e otimizar decisões e
performances. [...] É o processo de transformar dados em informação e através
da descoberta transformar informação em conhecimento.”
Para Turban et al (2008):
“Business Intelligence (BI) é um termo genérico que combina arquitetura,
ferramentas, bases de dados, ferramentas de análise, aplicações e metodologias.
É como uma expressão de livre conteúdo, pois pode significar coisas diferentes
para pessoas diferentes” (tradução nossa).
Em síntese, o conceito de BI envolve quatro outros conceitos: dado, informação,
conhecimento e decisão. Através destes conceitos, transforma-se de um mero dado em uma
decisão, ou a falta dela.
Um dado é a representação simbólica de fatos ou eventos, por exemplo: 27. Em outras
palavras, os dados não possuem contexto e por isso possuem pouca importância ou valor para
os seres humanos. Já a informação é o dado contextualizado, por exemplo: idade = 27 anos.
Agora o 27 (dado) ganhou significado (idade). Um dado sozinho não possui nenhum significado
relevante. Como mostra a Figura 1, o dado é o bloco base da hierarquia DIKW (acrônimo de
Data, Information, Knowledge, Wisdom, ou dado, informação, conhecimento e sabedoria)
(ROWLEY, 2007).
5
Sabedoria
Conhecimento
Informação
Dado
Figura 1: Diagrama da hierarquia DIKW (Adaptado de OGC, 2007).
Rowley (2007) diz que a informação pode ser descrita como dados contextualizados,
eventualmente estruturados e organizados, que tenham sido processados de forma que a
informação agora possua relevância para um propósito ou contexto específico, e assim torna-se
importante, valiosa, útil e relevante. A informação acrescenta importância ao dado. A
informação é inferida de um dado. Por este motivo, informação não pode existir sem o dado.
A informação que é gerada se torna mais útil se puder ser utilizada para criar
conhecimento, que é a combinação de informação, experiência e discernimento que podem
beneficiar um indivíduo ou uma organização. Em outras palavras, conhecimento é a aplicação
da informação (ROWLEY, 2007).
Rowley e Hartley (2006) definem conhecimento como uma informação processada, que
está sendo aplicada ou colocada em ação. Assim, todas as inferências que podem ser feitas
através de uma informação, juntamente com nossa experiência e nossa mente, resultam na
formação do conhecimento.
As primeiras ideias relacionadas a BI foram plantadas no fim dos anos 60 e início dos
anos 70 quando o banco de dados relacional foi criado. A indústria de BI passou por muitas
transições e está, atualmente, pronta para entrar em sua terceira geração (BI 3.0).
O histórico de BI se inicia após a invenção dos bancos de dados, quando as organizações
começaram a armazenar os dados coletados das atividades de seus negócios em bases de dados.
Eles começaram a acumular um imenso volume de dados e se viram diante a uma enorme
dificuldade para guardar esses dados. Por esse motivo, algumas organizações viram a
oportunidade e lançaram no mercado aplicações que facilitariam esse armazenamento. Uma vez
6
que os dados eram armazenados, o próximo passo era criar relatórios a partir destes dados e
encontrar alguma informação importante. Como os dados vinham de diferentes aplicações de
negócios, este era fragmentado gerando problemas no processo do relatório. No entanto, as
organizações queriam que estes relatórios refletissem uma única versão da verdade. A solução
encontrada trouxe o conceito de DW (Data Warehouse ou Armazém de Dados) (GUPTA,
1997).
No início dos anos 80, Ralph Kimball e Bill Inmon popularizaram o conceito de DW
que propunham armazenar de forma uniformizada dados vindos de diferentes fontes. Mesmo
que Ralph Kimball e Bill Inmon tivessem diferentes abordagens sobre o conceito, a ideia
permaneceria a mesma (GUTPA, 1997).
Com o DW as organizações eram capazes de armazenar dados da empresa em um único
repositório centralizado, mesmo vindo de várias origens. O processo de gerar o relatório dos
dados presente no DW era feito facilmente com o surgimento de empresas como Business
Objects, Microstrategy, Crystal Reports e outras no fim dos anos 90, completando assim a
primeira geração do BI.
A Figura 2 demonstra a evolução do BI desde sua versão 1.0 até sua atual versão 3.0,
que ainda encontra-se em pleno crescimento, a figura é detalhada nos parágrafos seguintes.
Figura 2: Do BI 1.0 ao 3.0 (Fonte: GRATTON, 2012)
7
BI 2.0 surge após a explosão da web 2.0, bem como a transição do DW 1.0 para sua
geração 2.0, com foco na criação e entrega, e chegando cada vez mais próximo da análise em
tempo real. A prioridade do design foca-se na escalabilidade, e sua funcionalidade é voltada
para exploração e predição. No entanto, com escalabilidade surgem problemas como a
complexidade e diversidade de informações, fazendo com que uma nova arquitetura de
informações se tornasse o desafio chave nesta geração.
Assim, com essa necessidade de uma nova arquitetura, nasce o BI 3.0, que terá como
foco a colaboração. A interface com o usuário deixa de ser apenas web, e passa a ser multi
dispositivo, com a prioridade do design focada na usabilidade. Nesta geração, o acesso à
informação é tido em tempo real, e apoia-se na geração Web 3.0.
Todavia, apesar de tamanha evolução, o BI 3.0 ainda encontra-se em desenvolvimento,
e possui ainda diversas necessidades para crescer ainda mais. E esta evolução está diretamente
baseada no desafio do big data.
2.2 Big Data
O termo big data se aplica a todo conjunto de informações que não pode ser processada
ou analisada utilizando-se processos ou ferramentas tradicionais. Assim o conceito de big data
está adquirindo forças e despertando fortes interesses, pois o mundo está mudando. Três
dimensões definem big data: volume, variedade e velocidade (BARLOW, 2013 e BOLLIER,
2012).
Barlow (2013) afirma que a capacidade de armazenar dados não é nova. O que é nova é
a capacidade de se fazer algo significativo com esses dados de forma rápida e com o melhor
custo-benefício possível.
Para Michael Minelli, coautor do livro “Big Data, Big Analytics”, “big data em tempo
real não consiste apenas em um processo de armazenamento de petabytes ou exabytes de dados
em um DW”. Ainda segundo Minelli, “consiste na habilidade de realizar decisões melhores e
agir de forma significativa. É saber detectar uma fraude enquanto alguém está usando o cartão
de crédito, por exemplo. É saber analisar e combinar dados para que você possa tomar a
8
atitude certa no momento, hora e lugar certos”. Assim o desafio de lidar com grandes volumes
de dados em tempo é um dos principais desafios da tecnologia big data (BARLOW, 2013).
Segundo Justin Erickson3, quando se trata de big data, em várias situações, erros
randômicos ou perda de dados podem se tornar grandes problemas. Isto ocorre, pois como
utiliza-se dados de várias fontes diferentes, a perda de dados pode distorcer completamente uma
análise. Quando há uma grande quantidade de dados trafegando por várias redes e várias
máquinas, existem grandes chances de dados se perderem e não estarem disponíveis.
(BUTLER, 2013).
Por outro lado, o Fórum Econômico Mundial (2012) afirma que o big data trará grande
impacto para a humanidade abrindo novas possibilidades de desenvolvimento mundial em áreas
como: serviços financeiros, educação, saúde, agricultura, etc. O big data trará benefícios tais
como: acompanhamento e respostas rápidas, melhoria do entendimento do comportamento nas
crises, mapeamento mais preciso das necessidades de serviços e habilidade de prever mudanças
de demandas e ofertas. Atualmente já existem empresas utilizando big data para decidir sobre
contratações e promoções (GUTIERREZ, 2013).
3. Relacionando os dois conceitos em um exemplo prático
Para Barlow (2013, p. 13) “a tecnologia RTBDA4 existe com um propósito específico:
criar valor a partir de dados.”, por esse motivo é preciso focar sempre nos interesses e
necessidades dos envolvidos nas análises, como usuários, investidores, executivos das
corporações como presidentes e diretores de TI, financeiro, etc.
A Figura 3 ilustra a arquitetura RTBDA, onde pode-se relacionar todas as ferramentas
e programas que estão envolvidos em uma análise de big data de acordo com a visão de David
Smith5, que propõe sua divisão em quatro camadas:
Data (dados): neste nível, estão os dados vindos de diversas fontes como NoSQL,
HBase, Storm, Hive, Spark ou Impala; dados não estruturados em Hadoop MapReduce
(ferramenta de processamento de big data da Apache); dados da web, de redes sociais, de
Diretor e Gerente de Produto na empresa Cloudera, líder no fornecimento de softwares e serviços baseados na
plataforma Apache Hadoop.
4
RTBDA – Real-Time Big Data Analytics (análises big data em tempo real).
5
David Smith é Vice Presidente de Marketing na Revolution Analytics, líder no provimento de software e serviços
para a linguagem estatística de código livre “R”.
3
9
sensores ou de sistemas operacionais. No entanto, nesta camada a capacidade de análise é
completamente limitada (FORCHESATTO et al, 2012).
Analytics (análises): esta camada que fica acima da camada de dados. É neste nível que
ocorre a produção do ambiente para serem realizadas as análises dinâmicas, a criação de
modelos, e a criação de um data mart (um repositório de dados de um DW) local é atualizado
periodicamente de acordo com a camada de dados, que fica logo abaixo da camada de análise
para aprimorar a performance.
Integration (integração): a camada de integração é a responsável por unir as camadas de
análise através das aplicações para facilitar a tomada de decisão pelo usuário final.
Normalmente inclui regras de negócio e uma API para análises dinâmicas que intermediam a
comunicação entre desenvolvedores e cientistas de dados.
Decision (decisão): esta é a última camada, é onde o usuário final pode visualizar o
resultado de todas as análises. Nesta camada estão inclusas aplicações desktop, aplicações para
dispositivos móveis e aplicações interativas para web, bem como aplicações de BI. É neste nível
que o analista de negócio, executivos e clientes podem interagir com o sistema de análise de
big data em tempo real.
Neste ponto, vale salientar que cada uma das camadas está
associada a um conjunto de diferentes usuários, e esses usuários tem um conceito de tempo real
diferente.
10
Figura 3: Arquitetura de big data em tempo real. (Fonte: BARLOW, 2013)
Assim, vê-se que o big data está influenciando diretamente o BI, fazendo com que este
seja valorizado e melhor aproveitado, gerando mais precisão, agilidade e confiabilidade. E isto
vem sendo impulsionado pelo fato de que o BI, para ser eficaz na previsão do futuro precisa
olhar para o passado. O big data vem surgindo com novas tecnologias para ampliar a precisão
nas previsões do BI.
Segundo Rita Sallam, analista de BI do instituto de pesquisa Gartner, o big data tornará
o BI mais valioso e útil para o negócio. Diz ainda que “sempre temos a necessidade de olhar
para o passado, e quando você tem grande volume de dados, vai precisar fazer isso ainda mais.
BI não vai embora. Ele será reforçado por big data”. (BERNARD, 2012)
Para demonstrar a relação entre BI e big data será apresentado e discutido um caso de
estudo acerca de como está sendo feito o combate à gripe atualmente pelo CDC (Centers for
Disease Control and Prevention ou Centros para Controle e Prevenção de Doenças) que vem
utilizando as novidades do big data para identificar e tratar a população mundial de maneira
mais eficiente em várias regiões.
3.1 Estudo de caso 1: Como o CDC utiliza o big data para combater a gripe no mundo
11
O CDC é um dos maiores componentes operacionais do Departamento de Saúde e
Serviços Humanos dos Estados Unidos. Os centros, institutos e escritórios do CDC permitem
que o departamento seja mais responsivo e efetivo ao tratar de assuntos relacionados à saúde
pública. Sua missão é colaborar para criar a especialização, informação e ferramentas que a
população necessita para proteger sua saúde através da promoção da saúde, prevenção de
doenças e preparação para novas ameaças (CDC, 2013).
Em seu artigo “How The CDC Is Using Big Data To Save You From The Flu”, Julie
Bort (2012), explica como o CDC está realizando suas análises para controlar a gripe em todo
o mundo utilizando recursos como o FluView. Bort inicia seu artigo com um questionamento
plausível que também reflete a curiosidade de uma grande parte da população mundial: como
as vacinas funcionam contra a gripe, pois existem incontáveis variações do vírus. A resposta
está na massiva colaboração de médicos, hospitais e laboratórios que reportam uma enorme
quantidade de dados para o CDC, que recebe em torno de 700.000 relatórios de pacientes com
sintomas de gripe por semana. Durante a temporada da gripe, médicos enviam mais de 5.000
testes laboratoriais para o CDC realizar maiores análises (BORT, 2012).
Com a coleta destes dados, o CDC tem sido capaz de criar um complexo sistema de
rastreamento da gripe para responder a perguntas como: qual a variação da gripe deve estar na
vacina anual (que é alterada duas vezes por ano); o surto da gripe deste ano será do tipo que
responderá bem aos remédios antivirais; o quão fatal é a gripe?
Assim, para realizar estas determinações, o CDC utiliza os conceitos de big data e
reporta todos os dados coletados semanalmente ao site FluView, que também é utilizado pelo
Google para a criação do seu próprio site de rastreamento da gripe, o Google Flu Trend.
Na figura 4 pode-se analisar um gráfico que foi gerado pelo FluView, com base nos
dados enviados pelas diversas fontes que possui. Note que no gráfico é possível perceber
claramente as semanas do ano (estações) onde ocorre a maior incidência de mortes de crianças
causadas pela gripe.
12
Figura 4: Mortes infantis associadas à gripe por semana. (Fonte: BORT, 2012)
Segundo Lynnette Brammer, epidemiologista do CDC e mulher que ajudou o Google a
criar seu sistema de rastreamento da gripe, com a análise destes gráficos o CDC pode fazer
previsões rapidamente e agir para prevenir que a gripe se espalhe em determinada região antes
mesmo de se chegar a um estado de calamidade, como o que ocorreu em 2008 com a Influenza
H1N1 (também conhecida com Gripe Suína ou Gripe A), cuja repercussão foi devastadora e
atualmente está sendo controlada com a ajuda destas análises atualizadas semanalmente.
Lynnette Brammer diz também que o sistema de coleta de dados reportado
semanalmente iniciou-se em sua maioria em 2009, com a pandêmica gripa Suína, no entanto, o
CDC possui dados documentados desde os anos de 1976.
A Figura 5 mostra outro gráfico do FluView, onde pode-se observar o nível de atividade
da gripe em uma determinada semana do ano por cada um dos estados do país. Naturalmente,
onde existe maior atividade existe maior risco, isto permite o sistema de saúde se adequar e se
preparar rapidamente para evitar maiores problemas.
13
Figura 5: Nível de atividade da gripe por estado. (Fonte: BORT, 2012)
Fazendo um paralelo deste estudo de caso com a arquitetura de big data em tempo real
(Figura 3), pode-se dizer que o FluView é uma ferramenta de decisão que coloca de forma
interativa a inteligência gerada conhecimento das estatísticas de ocorrência de gripe a serviço
de todos os usuários do sistema. Na camada de integração, as regras de negócio aplicadas aos
dados analisados alimenta o FluView, por outro lado nesta camada têm-se o recebimento dos
700 mil relatórios de pacientes com sintomas de gripe recebidos por semana e os 5 mil testes
de laboratório realizados também por semana durante a temporada de gripe. Os dados válidos
passam pela camada de análise para compor os Data Marts que são parte dos Data Warehouses.
Estes mesmos Data Marts, serão consumidos pela camada de integração para alimentar a
camada de decisão, quando acionados pelo FluView.
3.2 Estudo de caso 2: Como o big data está mudando a forma da Ford produzir carros
O advento do big data está mudando a Ford de uma forma significativa, alterando desde
a análise da cadeia de suprimentos até os recursos que ela coloca em seus carros (HARRIS,
2013).
14
Quando as pessoas pensam em como os automóveis são construídos, elas,
provavelmente, pensam em linha de montagem, robôs, e uma bateria de simulações de
segurança em supercomputadores. No entanto, na Ford o big data está tendo um impacto
significante nas partes e recursos destes automóveis antes mesmo destes serem desenhados.
Desde os carros em estoque nas concessionárias até o desempenho da engenharia em uma
tempestade, o big data está cada vez mais infiltrado em todos os aspectos da experiência da
Ford como companhia (HARRIS, 2013).
Para ser capaz de realizar estas pesquisas e colocar em prática o que o big data pode
oferecer à empresa, a Ford oficialmente abriu um novo laboratório no Vale do Silício, que tem
como uma de suas missões: avaliar como as tecnologias como big data pode ajudá-los a tomar
melhores decisões, desde campanhas de marketing até os recursos de segurança nos veículos
(KING, 2012).
“É incrível como existem tantos dados lá fora.” Diz Bill Ford Jr., presidente da
companhia, durante um evento no Museu da História Computacional. “A questão é como
transformarmos estes dados em algo usável.”, continua. Esta é uma das várias questões que o
laboratório no Vale do Silício vai trabalhar parar responder (KING, 2012).
Atualmente, a Ford coleta e agrega dados de mais de 4 milhões de veículos com sensores
internos e aplicativos remotos gerenciadores para criar um ciclo de informação. Estes dados
permitem que os engenheiros da Ford coletem informações em uma dimensão de fatos desde
como os motoristas estão dirigindo seus automóveis, até a influência do meio ambiente, como
forças eletromagnéticas que afetam o veículo, e os comentários de quais as condições da estrada
possibilitando melhorias na qualidade, segurança, economia de combustível, de acordo com
Paul Mascarenas, chefe técnico do escritório de Pesquisa e Inovação da Ford (KING, 2012).
A Figura 6 mostra a arquitetura do sistema que está sendo desenvolvido pela Ford para
fornecimento e coleta de dados dos veículos e das vias. Um sistema sem fio permite o carro se
conectar com a nuvem de dados da Ford e trocar informações. O fornecimento de dados à Ford
é uma opção dos proprietários. Da mesma forma os proprietários dos carros poderão se
comunicar com a nuvem da Ford utilizando celulares inteligentes, tablets ou notebooks, para
obter informações de seus veículos mesmo que eles estejam em trânsito. Utilizando estes dados
a Ford provavelmente terá uma vantagem competitiva importante nos próximos anos.
15
Figura 6: Arquitetura do sistema de dados da Ford. (Fonte: HARRIS, 2013)
4. Considerações Finais
Neste artigo demonstrou-se, através do estudo teórico e do estudo de caso, como BI e
big data estão diretamente ligados. Também foi demonstrada a importância para a
transformação de dados em informação nos dias atuais utilizando-se ferramentas que
proporcionam uma análise de grandes volumes de dados com agilidade, confiabilidade e em
tempo real.
Nos exemplos práticos descritos nos estudos de caso, demonstrou-se como estes
conceitos agregam valor ao negócio permitindo predições e previsões que vão auxiliar na
tomada de decisão em tempo hábil o suficiente para evitar que o negócio possa sofrer um
impacto no futuro levando ao seu fracasso. O trabalho também apresentou a evolução do BI e
sua direta ligação com o big data. Além disto, foram apresentados exemplos práticos para
visualização dos resultados que podem ser obtidos com a utilização mútua destes dois conceitos
que vêm se tornando imprescindíveis no mundo atual.
Assim, com a conclusão desta pesquisa, pode-se afirmar que não é só possível, como
também é de extrema importância a utilização dos conceitos de BI e Big Data para a
manipulação de dados com agilidade, confiabilidade e precisão para que se possa agregar valor
ao negócio da melhor forma. A agilidade é garantida pela forma como os frameworks e
metodologias ligadas ao Big Data proporcionam aos analistas de dados recuperarem e
organizarem uma imensa quantidade de dados armazenados de forma aleatória no universo
digital. A confiabilidade e precisão são determinadas pelo BI e pelas ferramentas e pessoas que
16
as utilizam para gerarem análises importantes e de quando proximidade com a precisão de
predição de diversas situações.
O trabalho pode ser aprofundado posteriormente testando as ferramentas e conceitos
citados em problemas reais das organizações, como por exemplo usando dados das redes sociais
para responder a perguntas como: os clientes estão satisfeitos com nossos produtos, com a nossa
marca, com o nosso atendimento, etc.?
5. Referências
BARBIERI, Carlos. BI2 – Business Intelligence: Modelagem & Qualidade. Rio de Janeiro,
2011. 413 p.
BARLOW, Mike. Real-time big data analytics: Emerging architecture. Fevereiro, 2013. 32
p.
BERNARD, Allen. Big Data valoriza o Business Intelligence. CIO Magazine. UOL. 2012.
BOLLIER, David. The Promise and Peril of Big Data. Agosto, 2009. 56 p.
BORT, Julie. How The CDC Is Using Big Data To Save You From The Flu. Business Insider
Magazine.
2012.
Disponível
em:
<http://www.businessinsider.com/the-cdc-is-using-big-data-to-combat-flu-2012-12>. Acesso
em: 04.out 2013.
BUTLER, B. Big Data é um grande mercado, mas jovem. CIO Magazine. UOL. Network
World/EUA. 2013.
CDC – Centers for Disease Control and Prevention. Atlanta, GA. 2013. Disponível em:
www.cdc.gov. Acesso em: 23.out 2013.
FORCHESATTO, André Luiz; CHEVREUIL, Wellington Ramos; ALMEIDA, Fabio Moreira
de. Processando dados com Hadoop. MundoJ, São Paulo, n. 52, ano IX, p. 38-44, abril 2012.
GARTNER, Group. IT Glossary: Business Intelligence (BI). Disponível em:
<http://www.gartner.com/it-glossary/business-intelligence-bi/> Acesso em 15 nov 2013.
17
GRATTON, Simon. BI 3.0 The Journey to Business Intelligence. What does it mean?
Disponível em: <http://www.capgemini.com/blog/capping-it-off/2012/07/bi-30-the-journeyto-business-intelligence-what-does-it-mean> Acesso em: 21.set 2012.
GUPTA, V. R. (1997). An Introduction to Data Warehousing, System Services Corporation,
August 1997.
GUTIERREZ, Felipe. Empresas usam 'big data' para decidir contratações e promoções.
Folha
de
São
Paulo.
11/05/2013.
UOL.
Disponível
em:
<
http://classificados.folha.uol.com.br/empregos/2013/05/1276954-big-data-comeca-a-serusada-para-recrutar.shtml >. Acesso em: 26.set 2013.
HARRIS, Derrick. How data is changing the car game for Ford. GigaOM Magazine. 2013.
Disponível em: <http://gigaom.com/2013/04/26/how-data-is-changing-the-car-game-forford/>. Acesso em: 04.out 2013.
JACOBS,
Adam. The
pathologies
of
big
data.
2009.
Disponível
<http://queue.acm.org/detail.cfm?id=1563874>. Acesso em: 23.abr 2013.
em:
KING, Rachael. Ford Gets Smarter About Marketing and Design. CIO Journal. 2012.
Disponível em: <http://blogs.wsj.com/cio/2012/06/20/ford-gets-smarter-about-marketing-anddesign/>. Acesso em: 26.set 2013.
MOREIRA, Márcio. Minimizando Os Spams Com O Uso De E-Mails Seguros. Uniminas União Educacional Minas Gerais (atual Pitágoras), Uberlândia, 2007. Disponível em: <
http://www.teraits.com/marcio/20071006_monografia_possi_marciomoreira_texto.zip>,
Acesso em: 04.out 2013.
OGC - Office of Government Commerce. Service Strategy. Londres: TSO, 2007.
PRIMAK, Fabio Vinicius. Decisões com B.I. (Business Intelligence). 2008. 168 p.
ROWLEY, Jennifer. The wisdom hierarchy: representations of the DIKW hierarchy. Journal
of Information Science 33 (2): p. 163–180. 2007.
ROWLEY, Jennifer; HARTLEY, Richard. Organizing Knowledge: An Introduction to
Managing Access to Information. Ashgate Publishing, Ltd. pp. 5–6. 2006.
TURBAN, Efraim. RAMESH, Sharda. DELEN, Dursun. Decision Support and Business
Intelligence Systems. 9th Edition. 2008. 715 p.
18
WHITE, Tom. Hadoop: The Dedinitive Guide. Second Edition. 2010. 628 p.
World Economic Forum. Big Data, Big Impact: New Possibilities for International
Development.
Disponível
em
<http://www3.weforum.org/docs/WEF_TC_MFS_BigDataBigImpact_Briefing_2012.pdf>.
Acesso em: 03.out 2012.