Big Data x Relevant Data: explosão de dados migra para filtro de relevâncias
Fonte: http://itweb.com.br/62109/big-data-x-relevant-data-explosao-de-dados-migra-para-filtro-de-relevancias/
O termo Big Data é repetido à exaustão há pelo menos um ano e meio. Os desafios que as empresas e profissionais enfrentam com esse novo paradigma de análise de informação e inteligência de dados passam por formas mais eficazes de armazenamento, extração e boas ferramentas de analytics. Mas até quando isso será possível? Até quando é eficaz guardar toda essa informação? Seria o momento de parar de pensar em Big Data (grandes dados) e passarmos a considerar Relevant Data (dados relevantes)?
Estamos falando em um mundo onde o recém atingido nível de
armazenamento de dados zettabytte será suplantado pelo yottabytte, uma
combinação numérica com 24 zeros em sua composição. Segundo perspectivas
do SAS, o consumo de dados armazenados pelas corporações deve crescer
50 vezes até 2020, chegando a 44 zettabytes. A Symantec explicou que o
nível de dados está em 2,2 zettabytes, com aumento de 63% sobre o ano
anterior.
Parece existir uma ânsia em torno do termo Big Data, e o medo que as
companhias têm em perder dados relevantes cria um cenário onde
armazenar, mesmo que sem critério ou um bom aparato de analíticos,
parece ser melhor do que deixar o conteúdo de lado.
“Estamos aprendendo como acessar o valor dos dados agora.
Tradicionalmente nós guardamos tudo, mas isso está se tornando
impossível”, ponderou, em entrevista ao IT Web, Joel Makower, fundador do GreenBiz. O executivo esteve no Brasil em outubro para mediar o Verge, rodada de discussão mundial sobre evolução da TI, Telecom e modelos de negócios em uma sociedade mais conectada.
“Vamos evoluir em termos de o que precisará ser guardado. Da mesma
forma que estamos aprendendo a entender qual tipo de Big Data vamos
ouvir”, continuou.
Quando se pensa em Big Data, o que vem à mente, em um primeiro
momento, é a produção de conteúdo que a internet 3.0, mais colaborativa
que suas gerações anteriores, permite atualmente. Contudo, o conceito é
mais amplo. Quando se fala em cidades e prédios inteligentes, sob o
conceito de internet das coisas, tudo passa a ter um endereço IP e a
rastrear e emitir informações que podem, ou não, ser utilizadas para uma
melhor interação da sociedade. O problema é quando o “ou não” toma
evidência no contexto da frase anterior, e um sensor emite infinitos
dados que não servem para nada, somente para sobrecarregar as redes.
“Pense no futuro, um veículo elétrico em uma estrada inteligente.
Serão cinco fluxos de dados diferentes: do veículo para a central, do
veículo para a estrada, do veículo para a nuvem, do veículo para o
motorista e do veículo para outros veículos, a fim de evitar colisão.
Essa informação precisa ser usada em milésimos de segundos, se não perde
valor”, exemplifica Makower. Depois disso, a maior parte dos dados vira
lixo. Como é impossível para o ser humano lidar com tanta fonte de
conteúdo, o papel da tecnologia machine to machine (M2M) é essencial.
Além disso, outro cenário deve ser considerado. “Se pensarmos em um
prédio inteligente, qualquer dispositivo ou tomada tem um endereço IP.
Alguns deles podem mudar as informações uma vez por semana, outros ficam
ali parados por vários dias. Mas algumas coisas mudam a cada segundo,
como é o caso dos servidores. Se tratar todas as informações da mesma
forma, não tem valor”, ponderou.
Segundo o especialista, a combinação desafio/oportunidade vem da
decisão de qual dado deve ser ouvido e avaliado e em qual momento ele
deve ser ignorado. “Estamos começando a fazer essas perguntas e entender
esses pontos”, considerou.
Gestão por contexto
Em entrevista exclusiva concedida à IT Web durante
visita a São Paulo, o vice-presidente mundial de vendas e serviços da
Symantec, Bill Robbins, fez um paralelo da Data Warehouse das empresas
com uma garagem, na qual a pessoa guarda todo tipo de objeto – até mesmo
tranqueiras – por um período de 20 anos. Se depois de tanta coisa
entulhada no local, ela quiser procurar um capacete de bicicleta, qual a
garantia de que vai encontrar?
“É por isso que gestão de inteligência de dados é importante. Na
Symantec falamos dos dados tendo contexto e relevância. De quem é o
dado, quem está acessando, quem permite o acesso, quem criou, onde foi
armazenado, qual o contexto? Esse dado é relevante? É uma informação ou é
um dado que nunca foi usado?”, exemplificou.
Com base nos critérios, fica mais fácil entender para qual local da
rede corporativa dado deve ser direcionado. Os menos usados vão para um
storage menos disponível, com custo reduzido de manutenção. Os mais
críticos, ficam na camada superior, para facilitar o acesso.
“Identificar contexto e relevância é muito importante”, finalizou.
Nenhum comentário:
Postar um comentário