数据开发工程师(派驻惠州项目现场)
7000-10000元/月
更新 2025-10-29 13:08:01
浏览 342
职位详情
运维工程师
1-3年
岗位职责:
1、负责基于Flink+Kafka的实时数据任务处理,开展日志分析与问题排查;
2、承担实时数据作业的故障诊断与处理,如数据延迟、反压异常、TaskManager崩溃等情况;
3、负责Flink服务的日常运维,包含配置调优、集群管理与稳定性保障;
4、执行Flink实时任务的迁移与部署工作;
5、参与数据中台的运维支持,对失败任务进行根因分析与处理;
6、推进企业级数据治理实践,涵盖数据质量、数据标准、数据字典及元数据管理等流程实施;
7、主导数据治理项目的落地与执行,完成项目交付所需文档的编写与归档;
8、协同业务团队制定数据质量核查规则,推动问题数据的闭环整改;
9、结合数据质量管理机制与提升要求,完善相关制度流程,强化责任落实与考核机制;
技能要求:
1、具备实时数据开发背景,熟练掌握Flink-SQL开发,熟悉Kafka数据接入、任务调度、SQL性能优化及数据运维工作;
2、掌握Python、DataX等至少一项开发工具或编程语言;
3、熟悉Linux操作系统及Flink日志的监控与维护;
需驻场惠州项目现场,不接受者请勿投递!
1、负责基于Flink+Kafka的实时数据任务处理,开展日志分析与问题排查;
2、承担实时数据作业的故障诊断与处理,如数据延迟、反压异常、TaskManager崩溃等情况;
3、负责Flink服务的日常运维,包含配置调优、集群管理与稳定性保障;
4、执行Flink实时任务的迁移与部署工作;
5、参与数据中台的运维支持,对失败任务进行根因分析与处理;
6、推进企业级数据治理实践,涵盖数据质量、数据标准、数据字典及元数据管理等流程实施;
7、主导数据治理项目的落地与执行,完成项目交付所需文档的编写与归档;
8、协同业务团队制定数据质量核查规则,推动问题数据的闭环整改;
9、结合数据质量管理机制与提升要求,完善相关制度流程,强化责任落实与考核机制;
技能要求:
1、具备实时数据开发背景,熟练掌握Flink-SQL开发,熟悉Kafka数据接入、任务调度、SQL性能优化及数据运维工作;
2、掌握Python、DataX等至少一项开发工具或编程语言;
3、熟悉Linux操作系统及Flink日志的监控与维护;
需驻场惠州项目现场,不接受者请勿投递!
相似职位