题目内容 (请给出正确答案)
[单选题]

HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是128M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是?()

A.一次写入,少次读取

B.多次写入,少次读取

C.一次写入,多次读取

D.多次写入,多次读取

单选题,请选择你认为正确的答案:
提交
你的答案:
错误
正确
查看答案
如搜索结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能会需要:
您的账号:
发送账号密码至手机
发送
更多“HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,…”相关的问题

第1题

HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是()

A.A.一次写入,少次读写

B.B.多次写入,少次读写

C.C.一次写入,多次读写

D.D.多次写入,多次读写

点击查看答案

第2题

HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是一次写入,多次读写。()
点击查看答案

第3题

关于Hive与传统关系型数据库的对比,正确的是()

A.Hive基于HDFS存储,理论上存储量可无限扩展;而传统数据库存储量上会有上限

B.由于Hive基于大数据平台,所以查询效率比传统数据库快

C.传统关系型数据库的索引机制发展的已经非常成熟,而Hive的索引机制还很低效

D.由于Hive的数据存储在HDFS中,所以可以保证数据的高容错、高可靠

点击查看答案

第4题

Hadoop-2.6.5集群中的HDFS的默认的数据块的大小是()。

A.32M

B.64M

C.128M

D.256M

点击查看答案

第5题

()充分利用了MapReduce和HDFS的扩展性和容错性,是基于MapReduce开发的数据挖掘,机器学习库

A.A.STORM

B.B.MAPREDUCE

C.C.YARN

D.D.MaHout

点击查看答案

第6题

HDFS采用冗余的方式存储block,来提高数据的容错性,每个block默认保存几份?()

A.A.3份

B.B.2份

C.C.1份

D.D.不确定

点击查看答案

第7题

HDFS不适合用在要求低时间延迟数据访问的应用,存储大量的小文件,多用户写入,任意修改文件。()
点击查看答案

第8题

下列关于Hadoop API的说法错误的是()

A.A.Hadoop的文件API不是通用的,只用于HDFS文件系统

B.B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的

C.C.FileStatus对象存储文件和目录的元数据

D.D.FSDataInputStream是jav

E.E.io.DataInputStream的子类

点击查看答案

第9题

HDFS相对于分布式系统而言特有的特性有()。

A.高容错

B.大文件存储

C.大量的随机读应用

D.高吞吐量

点击查看答案

第10题

为了保证系统的容错性和可用性,HDFS采用了多副本方式对数据进行冗余存储,这种多副本方式具有以下几个优点:()。

A.容易修改数据问题

B.加快数据传输速度

C.保证数据的可靠性

D.容易检查数据错误

点击查看答案
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
温馨提示
每个试题只能免费做一次,如需多次做题,请购买搜题卡
立即购买
稍后再说
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
赏学吧
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反赏学吧购买须知被冻结。您可在“赏学吧”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
赏学吧
点击打开微信