使用Flink丰富Kafka流与另一个流 环境设定 安装PostgreSQL 11+ 设置PostgreSQL以允许使用pgoutput将Debezium转换为CDC。 参考 在您的机器/集群上设置Apache Kafka(使用Kafka Connect) 从安装Debezium PostgreSQL连接器 运行Apache KafkaKafka Connect 在PostgreSQL中创建表transactions和customers (SQL文件) 使用请求主体向您的Kafka Connect REST接口创建POST请求,如下所示 { " name " : " postgres_cdc " , " config " : { " connector.class " : " io.debezium.connector.postgresql.PostgresCon
2021-08-25 17:35:15 67KB kafka stream flink debezium
1
自己编译的librdkafka的库,支持openssl,支持用户名和密码的安全认证配置。
2021-08-25 17:04:57 2.5MB kafka库
1
根据开发商业实例进行Hadoop的使用,开发分析讲解,有视频和学习大纲。
2021-08-25 15:29:15 22.32MB Hadoop 大数据 云计算 kafka
1
kafka-manager-2.0.0.2
2021-08-25 14:09:15 92.26MB kafka-manager kafka
1
linux版kafka
2021-08-25 14:09:14 67.44MB kafka
1
NULL 博文链接:https://xnbhnly.iteye.com/blog/2432584
2021-08-25 13:57:52 53KB 源码 工具
1
接着上一次的2021最新版7.x => filebeat+logstash+ES集群+kibana实战.pd 初学者的进阶
2021-08-23 13:16:57 490KB ELK 云计算
1
Windows下kafka安装配置,producer和consumer启动测试,SASL/PLAIN身份认证测试
2021-08-23 13:01:15 1.02MB Kafka Windows SASL PLAIN
1
Kafka NodeJS示例 介绍 该存储库展示了将Kafka与NodeJS结合使用的示例。 在此示例中,我们将Kafka用作消息传递系统,以将假设的销售量插入数据库中。 它不是将我们的销售端点直接打入数据库,而是将销售数据推送到Kafka,从而充当“生产者”。 我们启动了一个“消费者”,它将从Kafka中获取数据并将其推入数据库。 使用说明 本演示假定您已经安装了docker和docker-compose 。 步骤如下: 使用docker-compose ,启动所有容器(Zookeeper,Kafka,数据库,生产者和消费者): docker-compose up 将请求过帐到销售端
2021-08-23 12:42:41 1.13MB nodejs docker kafka docker-compose
1
深入理解Apache Kafka-初稿.pdf
2021-08-22 18:08:52 183KB kafka
1