程序笔记   发布时间:2022-07-19  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了Kafka Streams(实时流处理)简介大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

 kafka Streams

1 概述

1.1 Kafka Streams

Kafka Streams。Apache Kafka开源项目的一个组成部分。是一个功能强大,易于使用的库。用于在Kafka上构建高可分布式、拓展性,容错的应用程序。

1.2 Kafka Streams特点

1.功能强大 

(1)高扩展性,弹性,容错

2.轻量级 

(1)无需专门的集群 

(2)一个库,而不是框架

3.完全集成 

(1)100%的Kafka 0.10.0版本兼容

(2)易于集成到现有的应用程序 

4.实时性

(1)毫秒级延迟 

(2)并非微批处理 

(3)窗口允许乱序数据 

(4)允许迟到数据

1.3 为什么要有Kafka Stream

当前已经有非常多的流式处理系统,最知名且应用最多的开源流式处理系统有Spark Streaming和Apache Storm。Apache Storm发展多年,应用广泛,提供记录级别的处理能力,当前也支持SQL on Stream。而Spark Streaming基于Apache Spark,可以非常方便与图计算,SQL处理等集成,功能强大,对于熟悉其它Spark应用开发的用户而言使用门槛低。另外,目前主流的Hadoop发行版,如Cloudera和Hortonworks,都集成了Apache Storm和Apache Spark,使得部署更容易

既然Apache Spark与Apache Storm拥用如此多的优势,那为何还需要Kafka Stream呢?主要有如下原因。

第一,Spark和Storm都是流式处理框架,而Kafka Stream提供的是一个基于Kafka的流式处理类库。框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难了解框架的具体运行方式,从而使得调试成本高,并且使用受限。而Kafka Stream作为流式处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便使用和调试,如图8-11所示。

Kafka Streams(实时流处理)简介

 

 

 

图8-11 Kafka Stream

第二,然Cloudera与Hortonworks方便了Storm和Spark的部署,但是这些框架的部署仍然相对复杂。而Kafka Stream作为类库,可以非常方便的嵌入应用程序中,它对应用的打包和部署基本没有任何要求。

第三,就流式处理系统而言,基本都支持Kafka作为数据源。例如Storm具有专门的kafka-spout,而Spark也提供专门的spark-streaming-kafka模块。事实上,Kafka基本上是主流的流式处理系统的标准数据源。换言之,大部分流式系统中都已部署了Kafka,此时使用Kafka Stream的成本非常低。

第四,使用Storm或Spark Streaming时,需要为框架本身的进程预留资源,如Storm的supervisor和Spark on YARN的node manager。即使对于应用实例而言,框架本身也会占用部分资源,如Spark Streaming需要为shuffle和storage预留内存。但是Kafka作为类库不占用系统资源。

第五,由于Kafka本身提供数据持久化,因此Kafka Stream提供滚动部署和滚动升级以及重新计算的能力。

第六,由于Kafka Consumer Rebalance机制,Kafka Stream可以在线动态调整并行度。

2 Kafka Stream数据清洗案例

1.需求

       实时处理单词带有”>>>”前缀的内容。例如输入”hotdas>>>ximenqing”,最终处理成“ximenqing”

2.需求分析

如图8-12所示

 

Kafka Streams(实时流处理)简介

 

 

图8-12 数据清洗案例

3.案例实操

(1)创建一个工程,并添加jar包

(2)创建主类

package com.hotdas.kafka.stream;

import java.util.Properties;

import org.apache.kafka.streams.KafkaStreams;

import org.apache.kafka.streams.StreamsConfig;

import org.apache.kafka.streams.processor.Processor;

import org.apache.kafka.streams.processor.ProcessorSupplier;

import org.apache.kafka.streams.processor.TopologyBuilder;

 

public class Application {

 

   public static void main(@R_450_10495@ng[] args) {

 

       // 定义输入的topic

        @R_450_10495@ng from = "first";

        // 定义输出的topic

        @R_450_10495@ng to = "second";

 

        // 设置参数

        Properties setTings = new Properties();

        setTings.put(StreamsConfig.APPLICATION_ID_CONFIG, "logFilter");

        setTings.put(StreamsConfig.bOOTSTRAP_SERVERS_CONFIG, "hadoop02:9092");

 

        StreamsConfig config = new StreamsConfig(setTings);

 

        // 构建拓扑

        TopologyBuilder builder = new TopologyBuilder();

 

        builder.addsource("sourcE", from)

               .addProcessor("PROCESS", new ProcessorSupplier<byte[], byte[]>() {

 

                   @Override

                   public Processor<byte[], byte[]> get() {

                       // 具体分析处理

                       return new LogProcessor();

                   }

               }, "sourcE")

                .addSink("SINK", to, "PROCESS");

 

        // 创建kafka stream

        KafkaStreams streams = new KafkaStreams(builder, config);

        streams.start();

   }

}

(3)具体业务处理

package com.hotdas.kafka.stream;

import org.apache.kafka.streams.processor.Processor;

import org.apache.kafka.streams.processor.ProcessorContext;

 

public class LogProcessor implements Processor<byte[], byte[]> {

  

   private ProcessorContext context;

  

   @Override

   public void init(ProcessorContext context) {

       this.context = context;

   }

 

   @Override

   public void process(byte[] key, byte[] value) {

       @R_450_10495@ng input = new String(value);

      

       // 如果包含“>>>”则只保留该标记后面的内容

       if (input.contains(">>>")) {

           input = input.split(">>>")[1].trim();

           // 输出到下一个topic

           context.forWARD("logProcessor".getBytes(), input.getBytes());

       }else{

           context.forWARD("logProcessor".getBytes(), input.getBytes());

       }

   }

 

   @Override

   public void punctuate(long timestamp) {

      

   }

 

   @Override

   public void close() {

      

   }

}

(4)运行程序

(5)在hadoop02上启动生产者

Kafka Streams(实时流处理)简介

 

 

(6)在hadoop03上启动消费者

Kafka Streams(实时流处理)简介

 

 

 

仅供参,有错误还请指出

有什么想法,评论区留言,互相指教指教。

觉得不错的可以点一下右边的推荐哟

 

大佬总结

以上是大佬教程为你收集整理的Kafka Streams(实时流处理)简介全部内容,希望文章能够帮你解决Kafka Streams(实时流处理)简介所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。