Kafka 是一个通用型系统,可以有许多的生产者和消费者分享多个主题( )。
如果数据需要被多个应用程序消费,推荐使用Flume( )。
如果数据只是面向 Hadoop的,推荐使用Flume( )。
Kafka的Producer是负责从Broker消费消息的组件()。
Kafka的Consumer是负责向Broker生产消息的组件()。
Kafka的Consumer Group是一组具有相同Group ID的消费者,用于实现消息的并行处理()。
Kafka中Partition只是一个逻辑分区,现实中并不存在Partition的概念()。
使用Flume采集数据,将数据封装到事件(Event)里,然后将事件推入数据通道中( )。
Flume系统中,数据通道是连接数据源和数据槽的组件,不可以将它看作一个数据的缓冲区( )。
HDFS、Hive、Logger、Avro、Thrift等都可以作为Flume的数据槽()。
Flume支持在Linux和Windows环境中部署( )。
在实时主动数据仓库,通常使用CDC技术实时或准实时的获取数据( )。
数据集成是将来自不同数据源的数据简单地组合在一起( )。
脚本是数据集成的一种快速解决方案,其优点是,使用 灵活且比较经济,很容易着手开发和进行修改()。
进行数据集成时,数据的格式和标准不需要统一( )。