关于kafka的数据消费,下面哪些情况下会触发Consumergrouprebalance?()
A.消费者Consumer进程进行了一个超长GC回收
B.Consumer长时间不去Broker拉取消息
C.组协调器在一个session.timeout.ms周期内没有收到Heartbeat消息
D.组协调器在一个heartbeat.interval.ms周期内没有收到Heartbeat消息
A.消费者Consumer进程进行了一个超长GC回收
B.Consumer长时间不去Broker拉取消息
C.组协调器在一个session.timeout.ms周期内没有收到Heartbeat消息
D.组协调器在一个heartbeat.interval.ms周期内没有收到Heartbeat消息
第2题
A.无特殊情况下,优先使用0.11版本而不是0.8版本
B.我的业务与大数据有大量的数据需要通过kafka同步,只能依赖扩大队列分区数提升并发能力
C.一般情况下,发送方acks建议配置1
D.若消费端应用处理消息比较耗时,可在消费线程接收到消息后再起线程池处理消息
第3题
A.Kafka的Producer发送消息时间可以指定该消息被哪个Consumer消费
B.在创建topic时,副本数不得大于当前存活的Broker实例个数,否则创建Topic将会失败
C.Kafka安装完成后就不能再配置数据存放目录了
D.Kafka会将元数据信息存放到ZooKeeper上
第4题
A.在创建Topic时,副本数不得大于当前存活的Broker实例个数,否侧创建Topic将会失败
B.Kafka的Producer发送消息时,可以指定该消息被哪个Comsumer消费
C.Kafka会将元数据信息存放在Zookeeper上
D.Kafka安装完成后就不能再配置数据存放目录
第5题
A.在创建Topic时,副本数不得大于当前存活的Broker实例个数,否则创建Topic将会失败
B.Kafka的Producer发送消息时,可以指定该消息被哪个Consumer消费
C.Kafka会将元数据信息存放到Zookeeper上
D.Kafka安装完成后就不能再配置数据存放目录
第6题
B、Consumer消费数据时需要指定Topic
C、多个Consumer配置相同的group.id时,这些Consumer消费的数据不会重复
D、新Consumer API消费数据不用指定Zoo Keeper地址
第7题
A.Kafka作为高并发实时接入缓存,解决接入量的问题
B.Flink作为实时计算引擎实时消费Kafka数据写入HBase
C.HBase数据库为海量实时接入数据提供存储与实时查询能力
D.Hive为海量历史数据提供实时分析能力
第8题
A.Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用
B.通过索引信息可以快速定位message和确定response的最大大小
C.通过index元数据全部映射到memory,可以避免segmentfle的IO磁盘操作
D.通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小
第9题
A.Spark SQL在HDFS文件上可根据自定义方式进行文件与表的映射关系
B.Spark Streaming准实时流计算框架,数据可以消费MQ、Kafka等
C.Spark MLlib机器机器学习算法库,封装了主流的机器学习算法
D.Spark GraphX进行基于图计算的服务支持
第10题
A、SparkSOL在HDFS文件上可以根据自定义方式进行文件与表的映射关系
B、SparkStreaming准实时流计算框架,数据可以消费MQ,Kafka等
C、SparkMLlib机器学习算法库,封装了主流的机器学习算法
D、SparkGraphv进行基于图计算的服务支持
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!