Flink sql 1.13 读kafka 实时写Hbase

您所在的位置:网站首页 flinksql读取kafka数据写到hive Flink sql 1.13 读kafka 实时写Hbase

Flink sql 1.13 读kafka 实时写Hbase

2024-07-15 06:00| 来源: 网络整理| 查看: 265

Caused by: org.apache.flink.table.api.ValidationException: Could not find any factory for identifier

徐中伟要努力: 我去,牛啊老哥,你是怎么发现的?

Caused by: org.apache.flink.table.api.ValidationException: Could not find any factory for identifier

米达麦呀: Caused by: org.apache.flink.table.api.Valida ationException: Could not find any factory for identifier 'hive’that implements'org. a apache. flink. table. planner. delegation. ParserFactory’in the classpath. 我也遇到同样的问题了,怎么办啊 我是flink1.14.4

Cannot discover a connector using option: ‘connector‘=‘hbase-2.2‘

名天会更好: 博主这个问题解决了吗 我现在也遇到了这种问题

Flink cdc2.x mysql维表关联 (Flink 1.13 DataStream)

拉裤兜兜子: 大佬搞定了吗?

Caused by: org.apache.flink.table.api.ValidationException: Could not find any factory for identifier

小白L的进阶之路: flink-table-planner 替换lib目录下的 flink-table-planner-loader



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3