题目内容
(请给出正确答案)
[单选题]
HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是128M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是?()
A.一次写入,少次读取
B.多次写入,少次读取
C.一次写入,多次读取
D.多次写入,多次读取
单选题,请选择你认为正确的答案:
提交
查看答案
如搜索结果不匹配,请 联系老师 获取答案
A.一次写入,少次读取
B.多次写入,少次读取
C.一次写入,多次读取
D.多次写入,多次读取
第1题
A.A.一次写入,少次读写
B.B.多次写入,少次读写
C.C.一次写入,多次读写
D.D.多次写入,多次读写
第3题
A.Hive基于HDFS存储,理论上存储量可无限扩展;而传统数据库存储量上会有上限
B.由于Hive基于大数据平台,所以查询效率比传统数据库快
C.传统关系型数据库的索引机制发展的已经非常成熟,而Hive的索引机制还很低效
D.由于Hive的数据存储在HDFS中,所以可以保证数据的高容错、高可靠
第5题
A.A.STORM
B.B.MAPREDUCE
C.C.YARN
D.D.MaHout
第8题
A.A.Hadoop的文件API不是通用的,只用于HDFS文件系统
B.B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的
C.C.FileStatus对象存储文件和目录的元数据
D.D.FSDataInputStream是jav
E.E.io.DataInputStream的子类
第10题
A.容易修改数据问题
B.加快数据传输速度
C.保证数据的可靠性
D.容易检查数据错误
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!