flink-connector-mysql-cdc-2.1的包
2021-11-01 23:56:12 26.32MB flink connector mysql cdc
1
flinkSQL clickhouse连接器
2021-10-20 22:07:43 6.34MB flink clickhouse flinksql
1
编译好了,安全可用
2021-09-20 22:08:14 66KB flink flinksql flinksqlredis
1
Flink-connector-debezium 基于Red Hat开源的Debezium组件,和Flink结合,实现在Flink上直接监听各种数据库的Change Log,并且能够利用Flink的特性,输出到不同的位置上,以实现数据总线和实时数仓的构建。此项目主要应用于数据中台或数据平台中数据总线的基础底座。 目前Debezium支持了MySQL、MongoDB、PostgreSQL、Oracle、SQL Server、Db2和Cassandra。理论上此连接器也支援以上所有数据库。 Getting Started mvn clean package -DskipTests example 参考DebeziumSourceITCase
2021-09-17 01:50:43 20KB flink change-data-capture debezium Java
1
flink连接redis设置过期时间和密码
2021-08-09 13:18:08 66KB flink redis 密码
1
Flink写入adb pg的connector
2021-07-06 17:05:53 2.78MB flink
1
Kudu连接器 基于Apache-Bahir-Kudu连接器改造而来的满足公司内部使用的Kudu连接器,支持特性范围分区,定义哈希分桶数,支持Flink1.11.x动态数据源等,改造后已贡献部分功能给社区。 使用姿势 clone代码后,改造pom项目坐标后上传公司私服使用 Kudu目录使用 创建目录 StreamExecutionEnvironment env = StreamExecutionEnvironment . getExecutionEnvironment(); catalog = new KuduCatalog ( " cdh01:7051,cdh02:7051,cdh03:7051 " ); tableEnv = KuduTableTestUtils . createTableEnvWithBlinkPlannerStreamingMode(env); tableEnv .
2021-07-06 11:57:21 162KB kudu flink datastream flink-sql
1
flink连接redis作为sink,1.0无法支持过期的时间,所以就有了这个jar包,支持过期的时间,避免你自己的重新编译,节省时间
2021-05-31 14:29:51 53KB Flink sink redis
1
flink-connector-kafka_2.11-1.12.2.jar
2021-03-27 19:57:19 327KB flink
1
flink-connector-mysql-cdc-1.1.1.jar
2021-03-12 19:15:24 25.36MB 实时大数据
1