hadoop练习题--带答案

2022-07-12 11:44:58   第一文档网     [ 字体: ] [ 阅读: ] [ 文档下载 ]
说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。下载word有问题请添加QQ:admin处理,感谢您的支持与谅解。点击这里给我发消息

#第一文档网# 导语】以下是®第一文档网的小编为您整理的《hadoop练习题--带答案》,欢迎阅读!
练习题,答案,hadoop

Hadoop 练习题



姓名: 分数:

单项选择题

1. 下面哪个程序负责HDFS数据存储。

a) NameNode b) Jobtracker

c) Datanode

d) secondaryNameNode e) tasktracker

2. HDfS中的block默认保存几份?

a) 3份√ b) 2 c) 1 d) 不确定



3. 下列哪个程序通常与NameNode在一个节点启动?

a) SecondaryNameNode b) DataNode c) TaskTracker d) Jobtracker



4. Hadoop作者

a) Martin Fowler b) Kent Beck

c) Doug cutting



5. HDFS默认Block Size

a) 32MB b) 64MB c) 128MB



6. 下列哪项通常是集群的最主要的性能瓶颈

a) CPU b) 网络 c) 磁盘√ d) 内存


7. 关于SecondaryNameNode哪项是正确的?

a) 它是NameNode的热备 b) 它对内存没有要求

c) 它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间√ d) SecondaryNameNode应与NameNode部署到一个节点

8. 一个gzip文件大小75MB,客户端设置Block大小为64MB,请我其占用几个Block

a) 1

b) 2 c) 3 d) 4

9. HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce

任务读取该文件时input split大小为? a) 64MB b) 75MB

c) 一个map读取64MB,另外一个map读取11MB

10. HDFS有一个LZOwith index)文件大小75MB,客户端设置Block大小为64MB。当运

mapreduce任务读取该文件时input split大小为? a) 64MB b) 75MB

c) 一个map读取64MB,另外一个map读取11MB

多选题:

11. 下列哪项可以作为集群的管理工具

a) Puppet b) Pdsh

c) Cloudera Manager d) Rsync + ssh + scp

12. 配置机架感知的下面哪项正确

a) 如果一个机架出问题,不会影响数据读写√

b) 写入数据的时候会写到不同机架的DataNode中√

c) MapReduce会根据机架获取离自己比较近的网络数据√

13. Client端上传文件的时候下列哪项正确

a) 数据经过NameNode传递给DataNode

b) Client端将文件以Block为单位,管道方式依次传到DataNode

c) Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作 d) 当某个DataNode失败,客户端会继续传给其它DataNode



14. 下列哪个是Hadoop运行的模式


a) 单机版√ b) 伪分布式√ c) 分布式√



15. Cloudera提供哪几种安装CDH的方法

a) Cloudera manager b) Tar ball c) Yum d) Rpm

判断题:

(全部错)



16. Ganglia不仅可以进行监控,也可以进行告警。

17. Nagios不可以监控Hadoop集群,因为它不提供Hadoop支持。

18. 如果NameNode意外终止,SecondaryNameNode会接替它使集群继续工作。 19. Cloudera CDH是需要付费使用的。

20. HadoopJava开发的,所以MapReduce只支持Java语言编写。 21. Hadoop支持数据的随机写。

22. NameNode负责管理metadataclient端每次读写请求,它都会从磁盘中读取或则会写

metadata信息并反馈client端。

23. NameNode本地磁盘保存了Block的位置信息。 24. Slave节点要存储数据,所以它的磁盘越大越好。

25. Hadoop默认调度器策略为FIFO,并支持多个Pool提交Job

26. 集群内每个节点都应该配RAID,这样避免单磁盘损坏,影响整个节点运行。 27. 因为HDFS有多个副本,所以NameNode是不存在单点问题的。 28. 每个map槽就是一个线程。

29. Mapreduceinput split就是一个block

30. Hadoop环境变量中的HADOOP_HEAPSIZE用于设置所有Hadoop守护线程的内存。它默

认是200MB

31. DataNode首次加入cluster的时候,如果log中报告不兼容文件版本,那需要NameNode

执行“hadoop namenode -format”操作格式化磁盘。 32. Hadoop1.02.0都具备完善的HDFS HA策略。() 33. GZIP压缩算法比LZO更快。()

34. PIG是脚本语言,它与mapreduce无关。()




本文来源:https://www.dywdw.cn/a65f7aec0ba1284ac850ad02de80d4d8d15a01e5.html

相关推荐
推荐阅读