岗位职责:
1、负责公司大数据平台产品建设工作,为公司产品和项目用户提供稳定的大数据产品和服务;
2、参与或主导大数据平台和工具的规划、设计、技术选型、开发以及后续维护,参与平台数据处理、分析和服务的研发,帮助客户进行数据价值挖掘;
3、负责大数据基础组件以及产品的部署、维护和优化,以及相关工具的开发;
4、不断迭代优化大数据平台产品,推动产品版本发布更新;
5、参与大数据相关的技术预研工作,帮助完善公司的技术体系;
6、负责个人开发任务的开发进度、代码质量,与应用开发、测试、运维团队进行配合,按时完成计划任务。
任职要求:
1、本科以上学历,3年以上大数据相关研发及实施经验;
2、熟悉Hadoop、Kafka、Spark、Hive、Hbase、Solr生态系统的搭建和管理,掌握分布式系统的基本原理和使用方法;
3、具有较强的业务理解能力,擅长数据采集、清洗、分析等环节,熟悉流处理和批处理的场景和模式;
4、具备大规模数据的处理和分析的经验,能够发现系统的性能瓶颈、设计缺陷,并提出改进方案和进行实施;
5、思路敏捷清洗,良好的表达和理解能力,良好的学习能力,有强烈的的创新意识;
6、有相关存储和索引设计和优化经验优先,如Hbase、Solr、ElasticSerach;
具有以下条件者优先考虑:
参与PB级以上数据规模项目优先;具有图计算、图存储开发经验优先;
岗位职责:
1、负责公司大数据平台产品建设工作,为公司产品和项目用户提供稳定的大数据产品和服务;
2、参与或主导大数据平台和工具的规划、设计、技术选型、开发以及后续维护,参与平台数据处理、分析和服务的研发,帮助客户进行数据价值挖掘;
3、负责大数据基础组件以及产品的部署、维护和优化,以及相关工具的开发;
4、不断迭代优化大数据平台产品,推动产品版本发布更新;
5、参与大数据相关的技术预研工作,帮助完善公司的技术体系;
6、负责个人开发任务的开发进度、代码质量,与应用开发、测试、运维团队进行配合,按时完成计划任务。
任职要求:
1、本科以上学历,3年以上大数据相关研发及实施经验;
2、熟悉Hadoop、Kafka、Spark、Hive、Hbase、Solr生态系统的搭建和管理,掌握分布式系统的基本原理和使用方法;
3、具有较强的业务理解能力,擅长数据采集、清洗、分析等环节,熟悉流处理和批处理的场景和模式;
4、具备大规模数据的处理和分析的经验,能够发现系统的性能瓶颈、设计缺陷,并提出改进方案和进行实施;
5、思路敏捷清洗,良好的表达和理解能力,良好的学习能力,有强烈的的创新意识;
6、有相关存储和索引设计和优化经验优先,如Hbase、Solr、ElasticSerach;
具有以下条件者优先考虑:
参与PB级以上数据规模项目优先;具有图计算、图存储开发经验优先;
在求职过程中如果遇到扣押证件、收取押金、提供担保、强迫入股集资、解冻资金、诈骗传销、求职歧视、黑中介、人身攻击、恶意骚扰、恶意营销、虚假宣传或其他违法违规行为。请及时保留证据,立即向平台举报投诉,必要时可以报警、起诉,维护自己的合法权益。