岗位描述:
1、承担建设基于 Hadoop/Hbase/Spark 生态的大数据离线 /实时处理平台;
2、负责公司大数据集群的构建、运维、开发工作,确保高可用;
3、负责集群容量规划、扩容及集群性能优化,参与大数据基础环境的架构设计与改进;
4、参与业务数据、生产日志的抽取、转储、检索等相关工作;
5、跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。
任职要求:
1.本科及以上学历,2 年以上相关工作经验;
2.熟练掌握 Linux 操作系统,精通 Scala/Java/Python 语言的一种或多种;
3.熟悉主流大数据工具 Hadoop、spark、Storm、ELK 中两个及以上,并熟悉所使用工具的技术原理、主要特点;
4.熟练使用 flume、Kafka、hbase、redis、mysql 等常用工具;
5.有 SparkStreaming 的实时统计或实时推荐整体架构开发经验优先、有 sparkML 开发经验优先;
6.有 OLAP 大数据平台开发经验者优先
简历请发送至: [email protected] 。
1、承担建设基于 Hadoop/Hbase/Spark 生态的大数据离线 /实时处理平台;
2、负责公司大数据集群的构建、运维、开发工作,确保高可用;
3、负责集群容量规划、扩容及集群性能优化,参与大数据基础环境的架构设计与改进;
4、参与业务数据、生产日志的抽取、转储、检索等相关工作;
5、跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。
任职要求:
1.本科及以上学历,2 年以上相关工作经验;
2.熟练掌握 Linux 操作系统,精通 Scala/Java/Python 语言的一种或多种;
3.熟悉主流大数据工具 Hadoop、spark、Storm、ELK 中两个及以上,并熟悉所使用工具的技术原理、主要特点;
4.熟练使用 flume、Kafka、hbase、redis、mysql 等常用工具;
5.有 SparkStreaming 的实时统计或实时推荐整体架构开发经验优先、有 sparkML 开发经验优先;
6.有 OLAP 大数据平台开发经验者优先
简历请发送至: [email protected] 。