FRAMEWORKS PARA BIG DATA - Atividade 2
FRAMEWORKS PARA BIG DATA - Atividade 2
FRAMEWORKS PARA BIG DATA - Atividade 2
O Hadoop é um framework que pode ser utilizado em diversas linguagens, como, por
exemplo, Java e Python. No framework há ferramentas importantes, podemos citar o
MapReduce, que contém um mapeador e uma redutor. Um exemplo muito utilizado para
expor o funcionamento do MapReduce é por meio de um contador de palavras.
PERGUNTA 2
O Hadoop Streaming possui duas fases, o mapeador e o redutor. Uma tarefa importante
realizada é o teste do código para confirmação de funcionamento do mesmo. Esta é
uma tarefa que não é muito complicada, mas exige que seja feita conforme a
determinação de algumas etapas.
Sobre o MapReduce, podemos afirmar corretamente que as etapas são:
PERGUNTA 3
O Hadoop Streaming é utilizado para o consumo de dados em tempo real, sendo
utilizando em diferentes aplicativos executados em tempo real. Existem diversos
aplicativos que utilizam o streaming do Hadoop, como, por exemplo, boletins
meteorológicos. Alguns destes aplicativos utilizam a linguagem Python.
Sobre o mapeador em Python, é correto afirmar que:
PERGUNTA 4
O Hadoop é um projeto da Apache Foundation que possibilita que sejam processados
grandes volumes de forma distribuída e tem distribuições que possuem um módulo de
segurança maduro. Podemos destacar entre os módulos o de processamento e análise de
dados.
Considerando o trecho apresentado e conceitos relacionados ao Hadoop MapReduce,
analise as afirmativas a seguir:
I, II e IV, apenas.
(x) II e IV, apenas.
I, II e III, apenas.
III e IV, apenas.
II e III, apenas.
1 pontos
PERGUNTA 5
O Hadoop, da Apache Foundation, é um Framework destinado ao processamento e
armazenamento de grandes dados, que possui um modelo de processamento conhecido
como MapReduce. Por ter a característica de manipular grandes volumes de dados, é
muito utilizado no Big Data.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre
elas.
Pois:
Caso não haja erros no trabalho, será apresentado um log do console.
PERGUNTA 6
O Big Data está ligado ao volume de dados a ser processado e analisado. Este possui
um projeto, chamado de Hadoop, que possibilita a realização do processamento de
grandes volumes. Dentro do Hadoop temos o MapReduce, uma importante ferramenta no
processamento paralelo.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre
elas.
Pois:
Temos que garantir que o código funcione bem.
A seguir, assinale a alternativa correta.
PERGUNTA 7
O Hadoop Streaming é uma API genérica e permite escrever mapeadores e redutores. Em
qualquer trabalho do MapReduce, temos entrada e saída como pares de chave/valor. O
mesmo conceito é verdadeiro para a API Streaming, onde entrada e saída são sempre
representadas como texto.
Considerando o exposto, para executar o job no Hadoop Cluster , podemos usar a API
de Streaming,
que possui as funções:
PERGUNTA 8
O MapReduce é uma ferramenta do framework Hadoop e possui as funções mapeador
(Mapper) e redutor (Reduce). Na linguagem Python, por exemplo, estas funções
utilizam stdin e stdout para realizar tarefas relacionadas a entrada e saída de
dados.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre
elas.
Pois:
O redutor utiliza o stdin e soma a ocorrência de cada palavra.
PERGUNTA 9
O Hadoop possui características como escalabilidade, consistência, tolerância a
falhas e capacidade de recuperação. Essas características quando bem implementadas
garantem uma boa arquitetura. A arquitetura do Hadoop é composta por elementos
como: MapReduce, Spark, Streaming, Cluster e outros.
A respeito das características do Hadoop Streaming, analise as afirmativas a seguir
e assinale V para a(s) verdadeira(s) e F para a(s) falsa(s).
PERGUNTA 10
Hadoop Streaming
é uma das ferramentas do Hadoop. Por mais que tenha esse nome, o streaming
não tem características de fluxos de dados contínuos. Ele é um utilitário que
permite o desenvolvimento de executáveis do MapReduce em linguagens diferentes de
Java.
A partir do apresentado, analise as asserções a seguir e a relação proposta entre
elas.
Quando falamos sobre o uso de outras linguagens de programação, não queremos dizer
que o código escrito nessas linguagens precise ser convertido.
Pois:
Os códigos podem ser executados direto no ecossistema Hadoop usando o Hadoop
Streaming.