O Fichamento Big Data
Por: rampe2109 • 26/8/2019 • Relatório de pesquisa • 1.028 Palavras (5 Páginas) • 178 Visualizações
1.Identificação do aluno:
2.Identificação do texto: Philip Chen, C. L., & Zhang, C.-Y. (2014). Data-intensive
applications, challenges, techniques and technologies: A survey on Big Data. Information
Sciences, 275, 314–347. H-index: 142, disponível em: www.scimagojr.com.
3.Pontos-chave:
Proposta: Apresentar conhecimentos acerca de técnicas, tecnologias e perspectivas
de Big Data.
Mérito: Apresenta um conjunto muito bem descrito da abordagem inicial do assunto,
desafios e oportunidades, bem como técnicas e tecnologias empregadas na
sua solução.
Validação: Não apresentado.
Perspectivas: Emprego de Big Data em outras áreas como computação linear,
computação em nuvem, sistemas de computação biológica e computação
quântica.
4. Palavras-chave: Big Data, data-intensive computing e-Science, parallel and distributed
computing, cloud computing.
5. Sinopse do texto: Segundo o artigo, no ano de 2014 o Big Data já consolidava-se como
uma das áreas mais relevantes na tecnologia da informação dado ao volume de dados que
crescia exponencialmente. A percepção do potencial e valores escondidos em grandes
volumes, chamava cada vez mais a atenção da comunidade científica. Empresas,
administração pública e segurança nacional concentravam estudos crescentes nesta área. O
texto apresentou o Big Data como campo a ser explorado, da mesma forma que percebeu-se
o surgimento de novos desafios para sua análise, armazenamento e visualização. De forma
geral o artigo destina-se a apresentar técnicas e tecnologias aplicadas ao tratamento de Big
Data. Por fim foram apresentadas também metodologias subjacentes e perspectivas como
por exemplo computação granular, computação em nuvem, computação biológica e
computação quântica, como campos de atuação onde sua aplicação deveria ser mais intenso.
Segundo o autor, várias agências do governo americano também verificaram as utilidades
do Big Data para apoio a tomada de decisões. Sendo assim o artigo apresentou, conceitos,
metodologias e desenvolvimento de técnicas e tecnologias para facilitar sua exploração. No
capítulo 3 foram apresentados de maneira mais detalhada alguns desafios a serem superados
na área, tais como a captura, armazenamento e transmissão de dados. Ainda a curação, ou
seja a qualidade dos dados, bem como suas formas de análise e visualização.
Depois de explanados levantamentos acerca dos desafios e oportunidades do Big Data, o
capítulo 4 apresentou técnicas e tecnologias atuais para abordagem do assunto. A seção 4.1
enumera e apresenta que as técnicas de Big Data envolvem várias áreas, incluindo
estatística, mineração, aprendizado de máquina, redes neurais, análise de redes sociais,
processamento de sinais, reconhecimento de padrões, métodos de otimização e abordagens
de visualização. Assim passou a análisar e apresentar considerações a respeito de cada uma
destas. Depois de apresentar as técnicas, a seção 4.2 apresenta as ferramentas mais
empregadas, enfatizando que atualmente uma dos conjuntos de tecnologias mais poderosos
usados com esta finalidade são oriundos da família do Apache Hadoop, a qual fornece
plataformas e aplicativos específicos no assunto. São apresentados ferramentas como
Apache Hadoop and map/reduce, Dryad, Apache mahout, Jaspersoft BI suite, Pentaho
business analytics, Skytree server, Tableau, Karmasphere studio and analyst e Talend Open
Studio. Todas as ferramentas descritas em subseções específicas, onde suas principais
características e potencialidades foram explanadas. No mesmo capítulo também são
apresentadas ferramentas para processamento streaming, ou seja, a possibilidade de
percepção, raciocínio e alteração de dados de forma dinâmica, já que esta área também é
desafio do Big Data. Ou seja, faz-se necessário processar dados, mesmo que em grande
quantidade e em tempo real, empregando recursos de computação paralela.Estes recursos
são muito requeridos atualmente em resposta de análise de logs por exemplo, os quais
precisam ser análisados em tempo real. Neste sentido foram apresentados ferramentas como:
Storm, S4, SQLstream s-Server, Splunk, Apache Kafka e SAP Hana. Ainda no mesmo
capítulo foram apresentadas ferramentas de Big Data baseadas em análise interativa, como o
Google’s Dremel e Apache drill. No capítulo 5 aprimorando os conhecimentos acerca do
assunto, são descritos os princípios aplicados aos sistemas Big Data, segundo autor de
referência no artigo. Tais princípios corroboram na compreensão da área e foram
sumazirados, divididos e apresentados em 6 princípios. O primeiro deles descreve que boas
arquiteturas e estruturas são necessárias e são a principal prioridade. O segundo descreve
que Big Data deve suportar uma variedade de métodos analíticos. No terceiro é descrito que
...