本篇文章给大家分享的是有关如何进行Pulsar Connector机制的剖析,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
创新互联公司主营灌云网站建设的网络公司,主营网站建设方案,重庆APP开发,灌云h5微信平台小程序开发搭建,灌云网站营销推广欢迎灌云等地区企业咨询
Apache Pulsar 是 Yahoo 开源的下一代分布式消息系统,在2018年9月从 Apache 软件基金会毕业成为顶级项目。Pulsar 特有的分层分片的架构,在保证大数据消息流系统的性能和吞吐量的同时,也提供了高可用性、高可扩展性和易维护性。
分片架构将消息流数据的存储粒度从分区拉低到了分片,以及相应的层级化存储,使 Pulsar 成为 unbounded streaming data storage 的不二之选。这使得 Pulsar 可以更完美地匹配和适配 Flink 的批流一体的计算模式。
随着开源后,各行业企业可以根据不同需求,为 Pulsar 赋予更丰富的功能,所以目前它也不再只是中间件的功能,而是慢慢发展成为一个 Event Streaming Platform(事件流处理平台),具有 Connect(连接)、Store(存储)和 Process(处理)功能。在连接方面,Pulsar 具有自己单独的 Pub/Sub 模型,可以同时满足 Kafka 和 RocketMQ 的应用场景。同时 Pulsar IO 的功能,其实就是 Connector,可以非常方便地将数据源导入到 Pulsar 或从 Pulsar 导出等。另外,在Pulsar 2.5.0 中,我们新增了一个重要机制:Protocol handler。这个机制支持在 broker 自定义添加额外的协议支持,可以保证在不更改原数据库的基础上,也能享用 Pulsar 的一些高级功能。所以 Pulsar 也延展出比如:KoP、ActiveMQ、Rest 等。Pulsar 提供了可以让用户导入的途径后就必然需要考虑在 Pulsar 上进行存储。Pulsar 采用的是分布式存储,最开始是在 Apache BookKeeper 上进行。后来添加了更多的层级存储,通过 JCloud 和 HDFS 等多种模式进行存储的选择。当然,层级存储也受限于存储容量。Pulsar 提供了一个无限存储的抽象,方便第三方平台进行更好的批流融合的计算。即 Pulsar 的数据处理能力。Pulsar 的数据处理能力实际上是按照你数据计算的难易程度、实效性等进行了切分。目前 Pulsar 包含以下几类集成融合处理方式:Pulsar Function:Pulsar 自带的函数处理,通过不同系统端的函数编写,即可完成计算并运用到 Pulsar 中。
Pulsar-Flink connector 和 Pulsar-Spark connector:作为批流融合计算引擎,Flink 和 Spark 都提供流计算的机制。如果你已经在使用他们了,那恭喜你。因为 Pulsar 也全部支持这两种计算,无需你再进行多余的操作了。
Presto (Pulsar SQL):有的朋友会在应用场景中更多的使用 SQL,进行交互式查询等。Pulsar 与 Presto 有很好的集成处理,可以用 SQL 在 Pulsar 进行处理。
从使用来看,Pulsar 的用法与传统的消息系统类似,是基于发布-订阅模型的。使用者被分为生产者(Producer)和消费者(Consumer)两个角色,对于更具体的需求,还可以以 Reader 的角色来消费数据。用户可以以生产者的身份将数据发布在特定的主题之下,也可以以消费者的身份订阅(Subscription)特定的主题,从而获取数据。在这个过程中,Pulsar 实现了数据的持久化与数据分发,Pulsar 还提供了Schema 功能,能够对数据进行验证。独占订阅(Exclusive)
故障转移订阅(Failover)
共享订阅(Shared)
Key保序共享订阅(Key_shared)
Pulsar 里的主题分成两类,一类是分区主题(Partitioned Topic),一类是非分区主题(Not Partitioned Topic)。分区主题实际上是由多个非分区主题组成的。主题和分区都是逻辑上的概念,我们可以把主题看作是一个大的无限的事件流,被分区切分成几条小的无限事件流。而对应的,在物理上,Pulsar 采用分层结构。每一条事件流存储在一个 Segment 中,每个Segment 包括了许多个Entry,Entry 里面存放的才是用户发送过来的一条或多条消息实体。Message 是 Entry 中存放的数据,也是 Pulsar 中消费者消费一次获得的数据。Message 中除了包括字节流数据,还有 Key 属性,两种时间属性和 MessageId 以及其他信息。MessageId 是消息的唯一标识,包括了ledger-id、entry-id、 batch-index、 partition-index 的信息,如下图,分别记录了消息在Pulsar 中的Segment、Entry、Message、Partition 存储位置, 因此也可以据此从物理上找到Message的信息内容。一个 Pulsar 集群由 Brokers 集群和 Bookies 集群组成。Brokers 之间是相互独立的,负责向生产者和消费者提供关于某个主题的服务。Bookies 之间也是相互独立的,负责存储 Segment 的数据,是消息持久化的地方。为了管理配置信息和代理信息,Pulsar 还借助了 Zookeeper 这个组件,Brokers 和 Bookies 都会在 zookeeper 上注册,下面从消息的具体读写路径(见下图)来介绍 Pulsar 的结构。在写路径中,生产者创建并发送一条消息到主题中,该消息可能会以某种算法(比如Round robin)被路由到一个具体的分区上,Pulsar 会选择一个Broker 为这个分区服务,该分区的消息实际会被发送到这个 Broker上。当Broker 拿到一条消息,它会以 Write Quorum (Qw)的方式将消息写入到 Bookies 中。当成功写入到 Bookies 的数量达到设定时,Broker 会收到完成通知,并且 Broker 也会返回通知生产者写入成功。在读路径中,消费者首先要发起一次订阅,之后才能与主题对应的 Broker 进行连接,Broker 从 Bookies 请求数据并发送给消费者。当数据接受成功,消费者可以选择向 Broker 发送确认信息,使得 Broker 能够更新消费者的访问位置信息。前面也提到,对于刚写入的数据,Pulsar 会存储在缓存中,那么就可以直接从 Brokers 的缓存中读取了,缩短了读取路径。Pulsar 将存储与服务相分离,实现了很好的可拓展性,在平台层面,能够通过调整Bookies 的数量来满足不同的需求。在用户层面,只需要跟 Brokers 通信,而Brokers 本身被设计成没有状态的,当某个 Broker 因故障无法使用时,可以动态的生成一个新的 Broker 来替换。首先,Pulsar Connector 在使用上是比较简单的,由一个 Source 和一个 Sink 组成,source 的功能就是将一个或多个主题下的消息传入到 Flink 的Source中,Sink的功能就是从 Flink 的 Sink 中获取数据并放入到某些主题下,在使用方式上,如下所示,与 Kafa Connector 很相似,使用时需要设置一些参数。
StreamExecutionEnvironment see = StreamExecutionEnvironment.getExecutionEnvironment(); Properties props = new Properties();
props.setProperty("topic", "test-source-topic") FlinkPulsarSource source = new FlinkPulsarSource<>(
serviceUrl,
adminUrl,
new SimpleStringSchema(),
props);
DataStream stream = see.addSource(source);
FlinkPulsarSink sink =
new FlinkPulsarSink(
serviceUrl,
adminUrl,
Optional.of(topic), // mandatory target topic
props,
TopicKeyExtractor.NULL, // replace this to extract key or topic for each record
Person.class);
stream.addSink(sink);
现在介绍 Kulsar Connector 一些特性的实现机制。因为 Pulsar 中的 MessageId 是全局唯一且有序的,与消息在 Pulsar 中的物理存储也对应,因此为了实现 Exactly Once,Pulsar Connector 借助 Flink 的 Checkpoint 机制,将 MessageId 存储到 Checkpoint。对于连接器的 Source 任务,在每次触发 Checkpoint 的时候,会将各个分区当前处理的 MessageId 保存到状态存储里面,这样在任务重启的时候,每个分区都可以通过 Pulsar 提供的 Reader seek 接口找到 MessageId 对应的消息位置,然后从这个位置之后读取消息数据。通过 Checkpoint 机制,还能够向存储数据的节点发送数据使用完毕的通知,从而能准确删除过期的数据,做到存储的合理利用。考虑到Flink中的任务都是长时间运行的,在运行任务的过程中,用户也许会需要动态的增加部分主题或者分区,Pulsar Connector 提供了自动发现的解决方案。Pulsar 的策略是另外启动一个线程,定期的去查询设定的主题是否改变,分区有没有增删,如果发生了新增分区的情况,那么就额外创建新的Reader 任务去完成主题下的数据的反序列化,当然如果是删除分区,也会相应的减少读取任务。在读取主题下的数据的过程中,我们可以将数据转化成一条条结构化的记录来处理。Pulsar 支持 Avro schema and avro/json/protobuf Message 格式类型的数据转化成 Flink 中的 Row格式数据。对于用户关心的元数据,Pulsar 也在 Row 中提供了对应的元数据域。另外,Pulsar 基于 Flink 1.9 版本进行了新的开发,支持 Table API 和 Catalog,Pulsar 做了一个简单的映射,如下图所示,将 Pulsar 的租户/命名空间对应到 Catalog 的数据库,将主题对应为库中的具体表。 之前提到 Pulsar 将数据存储在 Bookeeper 中,还可以导入到 Hdfs 或者 S3 这样的文件系统中,但对于分析型应用来说,我们往往只关心所有数据中每条数据的部分属性,因此采用列存储的方式对 IO 和网络都会有性能提升,Pulsar 也在尝试在Segment 中以列的方式存储。在原来的读路径中,不管是 Reader 还是Comsumer,都需要通过 Brokers 来传递数据。如果采用新的 Bypass Broker方式,通过查询元数据,就能直接找到每条 Message 存储的 Bookie 位置,这样可以直接从 Bookie 读取数据,缩短读取路径,从而提升效率。
Pulsar 相对 Kafka 来说,由于数据在物理上是存放在一个个 Segment 中的,那么在读取的过程中,通过提高并行化的方式,建立多线程同时读取多个 Segment,就能够提升整个作业的完成效率,不过这也需要你的任务自身对每个Topic 分区的访问顺序没有严格要求,并且对于新产生的数据,是不保存在 Segement 的,还是需要做缓存的访问来获取数据,因此,并行读取将成为一个可选项,为用户提供更多的选择方案。以上就是如何进行Pulsar Connector机制的剖析,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注创新互联行业资讯频道。
文章标题:如何进行PulsarConnector机制的剖析
文章分享:
http://jkwzsj.com/article/gojsop.html