岗位职责:
1、搭建和维护Hadoop集群,基于Hadoop对数据进行加工整合、深度分析,并将数据整合成数据产品,提供数据服务;
2、负责分布式大数据平台数据建模和数据应用后端开发;
3、负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发;
4、负责大数据系统及组件的性能、效率、稳定性分析与优化;
5、负责根据业务场景,项目需求抽取、分析处理。
任职要求:
1、熟悉Hadoop以及Hadoop生态圈上的各种应用的几种,如HBase、HDFS、ES、ZooKeeper、Yarn等,能解决Hadoop的复杂问题;
2、有部署大规模Hadoop集群的经验者优先;
3、熟悉面向对象设计思想和设计模式,熟悉数据结构和常用的算法,熟悉Linux平台,可以编写代码编程使用Spark开发大数据处理系统;
4、熟悉软件开发流程和配置库的使用,拥有软件开发流程中的代码规范意识、配置管理规范意识、文档撰写规范意识和团队合作沟通交流意识。
企业其他招聘信息