Flink实战:写入Kafka自定义序列化类和自定义分区器

微信公众号:大数据开发运维架构

关注可了解更多大数据相关的资讯。问题或建议,请公众号留言;

如果您觉得“大数据开发运维架构”对你有帮助,欢迎转发朋友圈

从微信公众号拷贝过来,格式有些错乱,建议直接去公众号阅读


概述:

flink kafka实时流计算时都是用默认的序列化和分区器,这篇文章主要介绍如何向Kafka发送消息,并自定义消息的key,value,自定义消息分区类,这里选择最新的Flink1.9.1进行讲解。

自定义序列化类KeyedSerializationSchema:

    通常我们都是用默认的序列化类来发送一条消息,有时候我们需要执行发送消息的key,value值,或者解析消息体后,在消息的key或者value加一个固定的前缀,这时候我们就需要自定义他的序列化类,Flink提供了可自定的的序列化基类KeyedSerializationSchema,这里先看下他的源码,:

packageorg.apache.flink.streaming.util.serialization;importjava.io.Serializable;importorg.apache.flink.annotation.PublicEvolving;/** @deprecated */@Deprecated@PublicEvolvingpublic interface KeyedSerializationSchema<T> extends Serializable {byte[]serializeKey(Tvar1);byte[]serializeValue(Tvar1);StringgetTargetTopic(Tvar1);}

是不是很简单 ,子类只需要自定义以上三个函数即可,这里我自定义序列化类CustomKeyedSerializationSchema,这里实现比较简单,只是将消息体进行拆分,分别在消息的键值加了前缀,代码如下:

packagecom.hadoop.ljs.flink.utils;importorg.apache.flink.streaming.util.serialization.KeyedSerializationSchema;importjava.util.Map;/** *@author: Created By lujisen*@companyChinaUnicom Software JiNan*@date: 2020-02-24 20:57*@version: v1.0*@description: com.hadoop.ljs.flink.utils */publicclassCustomKeyedSerializationSchemaimplementsKeyedSerializationSchema{@Overridepublicbyte[] serializeKey(String s) {/*根据传过来的消息,自定义key*/String[] line=s.split(",");System.out.println("key::::"+line[0]);return("key--"+line[0]).getBytes();    }@Overridepublicbyte[] serializeValue(String s) {/*根据传过来的消息,自定义value*/String[] line=s.split(",");System.out.println("value::::"+line[1]);return("value--"+line[1]).getBytes();    }@OverridepublicString getTargetTopic(String topic) {/*这里是目标topic,一般不需要操作*/System.out.println("topic::::"+topic);returnnull;    }}

自定义分区类FlinkKafkaPartitioner

    自定义分区类需要继承他的基类,只需要实现他的抽象函数partition()即可,源码如下:

packageorg.apache.flink.streaming.connectors.kafka.partitioner;importjava.io.Serializable;importorg.apache.flink.annotation.PublicEvolving;@PublicEvolvingpublicabstractclassFlinkKafkaPartitionerimplementsSerializable{privatestaticfinallongserialVersionUID = -9086719227828020494L;publicFlinkKafkaPartitioner(){    }publicvoidopen(intparallelInstanceId,intparallelInstances){    }publicabstractintpartition(T var1,byte[] var2,byte[] var3, String var4,int[] var5);}

自定义分区类CustomFlinkKafkaPartitioner,我这里只是简单的实现,你可根据自己的业务需求,自定义:

packagecom.hadoop.ljs.flink.utils;importorg.apache.flink.streaming.connectors.kafka.partitioner.FlinkKafkaPartitioner;/***@author: Created By lujisen*@companyChinaUnicom Software JiNan*@date: 2020-02-24 21:00*@version: v1.0*@description: com.hadoop.ljs.flink.utils */publicclassCustomFlinkKafkaPartitionerextendsFlinkKafkaPartitioner{/***@paramrecord      正常的记录*@paramkey        KeyedSerializationSchema中配置的key*@paramvalue      KeyedSerializationSchema中配置的value*@paramtargetTopic targetTopic*@parampartitions  partition列表[0, 1, 2, 3, 4]*@returnpartition    */@Overridepublicintpartition(Object record,byte[] key,byte[] value, String targetTopic,int[] partitions){//这里接收到的key是上面CustomKeyedSerializationSchema()中序列化后的key,需要转成string,然后取key的hash值`%`上kafka分区数量System.out.println("分区的数据量:"+partitions.length);intpartion=Math.abs(newString(key).hashCode() % partitions.length);/*System.out.println("发送分区:"+partion);*/returnpartion;    }}

主函数:

我的主函数是从Socket端接收消息,写入Kafka集群,这里只是个例子实现比较简单,代码如下:

packagecom.hadoop.ljs.flink.streaming;importcom.hadoop.ljs.flink.utils.CustomFlinkKafkaPartitioner;importcom.hadoop.ljs.flink.utils.CustomKeyedSerializationSchema;importorg.apache.flink.streaming.api.datastream.DataStream;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer010;importjava.util.Properties;/***@author: Created By lujisen*@companyChinaUnicom Software JiNan*@date: 2020-02-24 21:27*@version: v1.0*@description: com.hadoop.ljs.flink.utils */publicclassFlinkKafkaProducer{publicstaticfinalString topic="topic2402";publicstaticfinalString bootstrap_server="10.124.165.31:6667,10.124.165.32:6667";publicstaticvoidmain(String[] args)throwsException{finalString hostname="localhost";finalintport=9000;/*获取flink流式计算执行环境*/finalStreamExecutionEnvironment senv = StreamExecutionEnvironment.getExecutionEnvironment();/*从Socket端接收数据*/DataStream dataSource = senv.socketTextStream(hostname, port,"\n");/*下面可以根据自己的需求进行自动的转换*//* SingleOutputStreamOperator<Map<String, String>> messageStream = dataSource.map(new MapFunction<String, Map<String, String>>() {            @Override            public Map<String, String> map(String value) throws Exception {                System.out.println("接收到的数据:"+value);                Map<String, String> message = new HashMap<>();                String[] line = value.split(",");                message.put(line[0], line[1]);                return message;            }        });*//*接收的数据,中间可经过复杂的处理,最后发送到kafka端*/dataSource.addSink(newFlinkKafkaProducer010(topic,newCustomKeyedSerializationSchema(), getProducerProperties(),newCustomFlinkKafkaPartitioner()));/*启动*/senv.execute("FlinkKafkaProducer");    }/*获取Kafka配置*/publicstaticPropertiesgetProducerProperties(){Properties props =newProperties();props.put("bootstrap.servers",bootstrap_server);//kafka的节点的IP或者hostName,多个使用逗号分隔props.put("acks","1");props.put("retries",3);props.put("batch.size",16384);props.put("linger.ms",1);props.put("buffer.memory",33554432);props.put("key.serializer","org.apache.kafka.common.serialization.ByteArraySerializer");props.put("value.serializer","org.apache.kafka.common.serialization.ByteArraySerializer");returnprops;    }}

测试验证:

从window命令行,通过socket端9000端口发送数据,主函数接收消息进行处理,然后发送kafka:

kafka接收消息,持久化到log中,如图:

这里FLink的默认序列化和分区的知识我之后会写一篇文章详细讲解,在一个kafka没有经过SSL加密认证,加密后的Kafka集群如何与Flink进行集成,后面我都会统一进行讲解,敬请关注!!!!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,108评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,699评论 1 296
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,812评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,236评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,583评论 3 288
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,739评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,957评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,704评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,447评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,643评论 2 249
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,133评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,486评论 3 256
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,151评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,108评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,889评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,782评论 2 277
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,681评论 2 272

推荐阅读更多精彩内容