大数据开发(足额公积金+双休)
1.3-1.6万元/月
更新 2025-12-26 08:59:55
浏览 711
职位详情
数据开发
3-5年
PostgreSQL原理/源码 · Git/CI/CD · 要求数据开发经验 · 数据建模经验 · Hadoop · MySQL/SQL Server · Kafka · 计算机相关专业 · 金融行业经验 · SQL · 数据库内核开发经验
一、任职要求
1.本科及以上学历,计算机、软件工程、数学或相关专业;
2.四年以上Python开发经验,熟练掌握Python技术生态(如Pandas、SQLAlchemy、FastAPI/Flask等);
3.熟悉Hadoop生态体系,具备Hive、Spark(SparkSQL/DataFrame/StructuredStreaming)实际项目经验;
4.精通SQL,能够编写复杂查询并进行性能调优;
5.熟悉Linux操作环境,能熟练运用Shell脚本完成日常运维任务;
6.具备良好的软件工程实践能力,熟悉Git、CI/CD流程及代码规范等开发标准。
二、加分项
有设计与实现高效、稳定且可扩展的大数据处理pipeline的经验,支持TB级数据规模处理;
具备doris(或Doris、ClickHouse等MPP引擎)使用及性能优化实践经验。
三、岗位职责
1.具备扎实的Python编程能力,熟悉主流大数据技术栈(如Hive、Spark、doris等),负责数据采集、清洗、转换与服务化等全流程开发,支撑业务决策、智能分析及数据产品落地;使用Python构建ETL/ELT数据流程,对接多种数据源(数据库、日志、API等);
2.基于Hive、Spark(PySpark/Scala)开展离线和实时数据计算,并持续进行性能优化;
3.利用doris搭建高性能OLAP查询系统,满足实时分析与BI应用需求;
4.参与数据仓库模型设计、核心指标体系建设以及数据质量监控机制搭建;
5.与风险策略模型团队及数据开发人员协同配合,支持数据分析与系统开发工作;
6.持续推进系统性能提升、资源使用效率优化及运维自动化建设。
四、其他说明
1.外包至众邦银行
2.入职即缴纳五险一金,周末双休
1.本科及以上学历,计算机、软件工程、数学或相关专业;
2.四年以上Python开发经验,熟练掌握Python技术生态(如Pandas、SQLAlchemy、FastAPI/Flask等);
3.熟悉Hadoop生态体系,具备Hive、Spark(SparkSQL/DataFrame/StructuredStreaming)实际项目经验;
4.精通SQL,能够编写复杂查询并进行性能调优;
5.熟悉Linux操作环境,能熟练运用Shell脚本完成日常运维任务;
6.具备良好的软件工程实践能力,熟悉Git、CI/CD流程及代码规范等开发标准。
二、加分项
有设计与实现高效、稳定且可扩展的大数据处理pipeline的经验,支持TB级数据规模处理;
具备doris(或Doris、ClickHouse等MPP引擎)使用及性能优化实践经验。
三、岗位职责
1.具备扎实的Python编程能力,熟悉主流大数据技术栈(如Hive、Spark、doris等),负责数据采集、清洗、转换与服务化等全流程开发,支撑业务决策、智能分析及数据产品落地;使用Python构建ETL/ELT数据流程,对接多种数据源(数据库、日志、API等);
2.基于Hive、Spark(PySpark/Scala)开展离线和实时数据计算,并持续进行性能优化;
3.利用doris搭建高性能OLAP查询系统,满足实时分析与BI应用需求;
4.参与数据仓库模型设计、核心指标体系建设以及数据质量监控机制搭建;
5.与风险策略模型团队及数据开发人员协同配合,支持数据分析与系统开发工作;
6.持续推进系统性能提升、资源使用效率优化及运维自动化建设。
四、其他说明
1.外包至众邦银行
2.入职即缴纳五险一金,周末双休
相似职位
很抱歉,暂无相似职位!