flink自定义数据源源码
2023-03-09 13:34:23 11KB flink
1
flink 1.14 chm 文档 java
2023-03-02 14:02:41 1.05MB flink 实时计算
1
如今的大数据技术应用场景,对实时性的要求已经越来越高。作为新一代大数据流处理框架,由于非常好的实时性,Flink独树一帜,在近些年引起了业内极大的兴趣和关注。Flink能够提供毫秒级别的延迟,同时保证了数据处理的低延迟、高吞吐和结果的正确性,还提供了丰富的时间类型和窗口计算、Exactly-once 语义支持,另外还可以进行状态管理,并提供了CEP(复杂事件处理)的支持。Flink在实时分析领域的优势,使得越来越多的公司开始将实时项目向Flink迁移,其社区也在快速发展壮大。目前,Flink已经成为各大公司实时领域的发力重点,特别是国内以阿里为代表的一众大厂,都在全力投入,不少公司为Flink社区贡献了大量源码。如今Flink已被很多人认为是大数据实时处理的方向和未来,很多公司也都在招聘和储备了解掌握Flink的人才。本教程将Flink理论与电商数据分析项目实战并重,对Flink基础理论知识做了系统的梳理和阐述,并通过电商用户行为分析的具体项目用多个指标进行了实战演练。为有志于增加大数据项目经验、扩展流式处理框架知识的工程师提供了学习方式。二、教程内容和目标本教程主要分为两部分:第一部
1
Flink1.8.1-CEPplus 基于Flink1.8.1源码为CEP模块添加逻辑动态注入功能 功能描述: 使用CEP作为复杂事件处理引擎时,当逻辑频繁发生修改,以及阈值频繁调整时 整个程序需要停止后,修改代码,重新打包程序然后给集群提交,无法实现逻辑 动态修改和外部动态注入,目前已经实现了CEP逻辑动态注入,基于消息驱动逻 辑修改,可以手动往source端注入特定消息实现细腻度控制逻辑注入感知 为客户端端API中PatternStream添加方法registerListener(CepListener cepListener)注意必须在选择方法之前调用 cepListener对象需要实现接口 接口方法 Boolean needChange() 每条数据会调用这个方法,用于确定这条数据是否会触发规则更
2023-02-28 14:15:42 26.38MB 系统开源
1
每天尽可能拿出40min进行翻译,希望年前可以译完。像锻炼一样,今年坚持做的其中一件事,做完了,相信也蛮酷的。翻译水平有限,同时也需要个人学习提升,因此,想可以为Flink添砖加瓦,贡献自己的一份力量。
2023-02-28 05:04:12 10.84MB Flink
1
6万字、110个知识点Flink面试大全
2023-02-16 22:05:22 7.19MB flink 流处理 面试
1
flink13.2 操作clickhouse 所需要的jar 包 以及自定义flink 连接clickhouse 的驱动包 主要是 flink-connector-clickhouse-22.07.11.jar
2023-02-06 10:53:19 249.19MB flink clickhouse
1
flink-kafka-hbase 功能:实现kafka消息实时落地hbase,支持csv/json字符串两种格式的消息,支持自定义组合rowkey,列簇和列名,支持按照kafka消息流中不同字段join不同的hbase表,并自定义写入列簇和列(join时需评估一下性能) 支持at least once语义 外部依赖:apollo配置中心,本项目依靠配置驱动,配置存储在apollo配置中心 配置: { "indexColumnMapping": { --indexColumnMapping即CSV格式消息的key和value按照value里的分隔符拼接后再分割后下标及写入hbase列的对应关系 "0": "basic:time", --第0列始终是kafka消息的key,如果不需要可以不指定 "1": "basic:user_id",
2023-01-30 14:24:41 35KB kafka apollo hbase flink
1
StreamPark2.0.0编译版,直接解压安装启动
2023-01-04 13:25:53 260.62MB flink StreamPark
1
Flink相关论文
2023-01-02 19:12:54 3.75MB Flink 论文
1