数据开发工程师
1.2-1.5万元/月
更新 2025-12-26 08:42:06
浏览 975
职位详情
数据开发
3-5年
Shell · Hive · 要求数据开发经验 · 实时数仓开发经验 · 计算机相关专业 · Spark · 数据仓库开发经验 · Flink · 金融行业经验 · Python
任职要求:
1.本科及以上学历,计算机、软件工程、数学或相关专业;
2.3年以上Python开发经验,熟练掌握Python技术生态(如Pandas、SQLAlchemy、FastAPI/Flask等);
3.熟悉Hadoop生态体系,具备Hive、Spark(SparkSQL/DataFrame/StructuredStreaming)实际项目经验;
4.精通SQL,能够编写复杂查询并进行性能调优;
5.熟悉Linux操作环境,能熟练运用Shell脚本完成日常运维任务;
6.具备良好的工程实践能力,了解Git、CI/CD流程及代码规范等开发标准。
加分项:
1.主导设计并实现高效、稳定、可扩展的大数据处理pipeline,支持TB级数据规模的处理需求;
2.具备doris(或Doris、ClickHouse等MPP引擎)使用及性能优化经验;
岗位职责:
具备扎实的Python编程能力,熟悉主流大数据技术组件(如Hive、Spark、doris等),负责数据采集、加工、服务输出等全链路开发,支撑业务决策、智能分析及数据产品落地。
1.使用Python构建数据ETL/ELT流程,整合多源数据(数据库、日志、API等);
2.基于Hive、Spark(PySpark/Scala)开展离线与实时数据计算,并持续优化执行效率;
3.利用doris搭建高性能OLAP查询服务,满足实时分析与BI应用需求;
4.参与数据仓库模型设计、指标体系搭建及数据质量保障工作;
5.与风险策略模型团队及数据开发人员协同配合,支持数据分析与系统开发;
6.持续提升系统性能、资源使用率及运维自动化水平。
1.本科及以上学历,计算机、软件工程、数学或相关专业;
2.3年以上Python开发经验,熟练掌握Python技术生态(如Pandas、SQLAlchemy、FastAPI/Flask等);
3.熟悉Hadoop生态体系,具备Hive、Spark(SparkSQL/DataFrame/StructuredStreaming)实际项目经验;
4.精通SQL,能够编写复杂查询并进行性能调优;
5.熟悉Linux操作环境,能熟练运用Shell脚本完成日常运维任务;
6.具备良好的工程实践能力,了解Git、CI/CD流程及代码规范等开发标准。
加分项:
1.主导设计并实现高效、稳定、可扩展的大数据处理pipeline,支持TB级数据规模的处理需求;
2.具备doris(或Doris、ClickHouse等MPP引擎)使用及性能优化经验;
岗位职责:
具备扎实的Python编程能力,熟悉主流大数据技术组件(如Hive、Spark、doris等),负责数据采集、加工、服务输出等全链路开发,支撑业务决策、智能分析及数据产品落地。
1.使用Python构建数据ETL/ELT流程,整合多源数据(数据库、日志、API等);
2.基于Hive、Spark(PySpark/Scala)开展离线与实时数据计算,并持续优化执行效率;
3.利用doris搭建高性能OLAP查询服务,满足实时分析与BI应用需求;
4.参与数据仓库模型设计、指标体系搭建及数据质量保障工作;
5.与风险策略模型团队及数据开发人员协同配合,支持数据分析与系统开发;
6.持续提升系统性能、资源使用率及运维自动化水平。
相似职位
很抱歉,暂无相似职位!