Flink,Dinky踩坑日记

时间:2023-03-24
本文章向大家介绍Flink,Dinky踩坑日记,主要内容包括其使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

1. Flink使用

v 初始化配置

Dlinky初始化需要使用数据库,下载包中有数据库文件(mysql),dlinky和flink存在版本问题,注意插件包中scala对应的版本序号。如果版本不对应,在执行时会报异常debzum

v MySql数据库配置:需要开启bin_log功能,先查看是否开启,on开启。

show variables like 'log_%'; -- 查看是否开启binlog

未开启的要在数据库配置文件中修改配置,修改完成后,重启mysql服务验证。

server_id=2

log_bin=mysql-bin

binlog_format=ROW

 

v PostGres配置

安装pgsql后,要开启远程访问,否则只允许本地访问。在pg的安装目录

D:\Program Files\PostgreSQL\14\data下,找到pg_hba.conf和文件进行修改,添加访问地址,修改完成即可远程访问。

host    all             all             0.0.0.0/0            md5

 

在相同目录下找到postgresql.conf文件,进行修改或者放开配置

listen_addresses = '*'

wal_level = logical # 设置为 logical,允许 WAL 日志记录逻辑解码所需的信息

archive_mode = on # enables archiving; off, on, or always

archive_command = '' # command to use to archive a logfile segment

max_wal_senders = 10 # 指定 WAL 的最大并发连接数的参数,确保 max_wal_senders 至少是逻辑复制槽数的两倍。例如,如果您的数据库总共使用 10 个复制槽,则该 max_wal_senders 值必须为 20 或更大。

max_replication_slots = 10 # 确保 max_replication_slots >= 使用 WAL 的 PostgreSQL 连接器的数量加上您的数据库使用的其他复制槽的数量

wal_keep_size = 10 # in megabytes; 0 disables

max_slot_wal_keep_size = 8 # in megabytes; -1 disables

wal_sender_timeout = 60s # in milliseconds; 0 disables

设置数据发布权限,所有表

select * from pg_publication;

update pg_publication set puballtables=true where pubname is not null;

select * from pg_publication_tables;

CREATE PUBLICATION dbz_publication FOR ALL TABLES

v Flink配置和启动

Flink启动前,要对配置文件进行修改

jobmanager.rpc.address: 192.168.198.12 #作业管理器远程访问地址

taskmanager.numberOfTaskSlots:6 #设置可用槽数量

v Dinky配置和启动

Dinky配置,安装或者解压完成后,要在dlink/config/文件夹下找到application.yml 配置文件修改数据库连接配置,也可以选择修改服务端口信息,修改完成后在dlink/包下使用命令进行操作:sh auto.sh [start/stop/restart/status]

v Flink任务

使用Dlinky创建任务时,每种数据库对应的配置都不同。

Pgsql:

WITH (

    'connector' = 'postgres-cdc',

    'hostname' = '172.30.96.179',

    'port' = '5432',

    'username' = 'postgres',

    'password' = '123456',

    'database-name' = 'pferp',

    'schema-name' = 'public',

    'table-name' = 'pub_entry_customer',

      'debezium.plugin.name'='pgoutput',

   'slot.name'='pub_entry_customer_slot',  

   'debezium.publication.autocreate.mode'='filtered' 

);

Mysql:

WITH (

    'connector' = 'jdbc',

   'url' = 'jdbc:mysql://192.168.198.128:3306/datacenter',

   'table-name' = 'customer_entry_info',

   'username'='root',

   'password'='123456'

);

Oracle:

WITH (

    'connector' = 'oracle-cdc',

    'hostname' = '192.168.1.1',

    'port' = '1521',

    'username' = 'username',

    'password' = ''username'',

    'database-name' = 'INCATEST',

    'schema-name' = 'NEWTEST',

    'table-name' = 'PUB_ENTRY_CUSTOMER',

    'debezium.log.mining.strategy'='online_catalog',

    'debezium.log.mining.continuous.mine'='true',

    'debezium.database.tablename.case.insensitive'='false'

);

Pgsql作为数据仓:

WITH(

    'connector' = 'jdbc',

    'url' = 'jdbc:postgresql://172.30.1.1:5432/database,

    'table-name' = 'pub_entry_customer',

    'username'='postgres',

    'password'='123456'

);

pgsql作为数据源进行复制时,要开启复制槽功能。可以使用sql语句先创建复制槽, 再在任务代码中指定复制槽(复制槽不能超过配置文件中配置的max_replication_slots数量)

ALTER ROLE test REPLICATION; --赋予指定用户流复制权限

使用输出插件plugin创建一个名为 slot_name的新逻辑(解码)复制槽。创建时需要指定逻辑复制插槽名称和输出插件:

SELECT pg_create_logical_replication_slot('slot_name', 'test_decoding'); -- 使用 test_decoding 输出插件

SELECT pg_create_logical_replication_slot('slot_name', 'pgoutput'); -- 使用 pgoutput 输出插件。

如果运行任务时,提示复制槽已经存在,使用删除复制槽语句删除复制槽

select pg_drop_replication_slot('复制槽名');

pgsql数据库中,表字段日期时间类型使用TIMESTAMP,否则任务执行过程中可能会报错,提示int类型无法转为datetime类型。DECIMAL类型和numeric可以共用,bigint在pg中为int8,int在pg中为int4。

编写FlinkSql时,如果字段类型不同,可以使用cast(字段名 as INT|VARCHAR)as 新字段名;

如果目标数据库和源数据库中字段类型不一致,并且目标数据库中较短时,FlinkSQL任务可能存在运行一段时间后出现异常停止,服务器Flink出现错误,此时需要修改目标数据库中字段长度后重启Flink服务,再次运行Flink任务,查看运行情况情况

2. Flink错误解决

v org.apache.flink.runtime.jobmanager.scheduler.NoResourceAvailableException: Slot request bulk is not fulfillable! Could not allocate the required slot within slot request timeout

复制槽请求批量无法满足!无法在复制槽请求超时内分配所需的复制槽

解决:在数据库中创建复制槽,指定FlinkSQL语句中复制槽名字。操作见Flink任务

v Debezium报错,检查flink和Dlink或者引用的jar包中版本是否对应

当多表聚合时如果发现最后聚合数据结果集不准确,检查FlinkSql是否把数据库主键全部标识,针对联合主键问题

v Could not acquire the minimum required resources.无法分配所需要的最小资源,增加flink配置文件中taskmanager.numberOfTaskSlots值,每个TaskManager提供的任务插槽数。每个插槽运行一个并行管道。

原文地址:https://www.cnblogs.com/yeyuzhu/p/17251225.html