这是一个创建于 3958 天前的主题,其中的信息可能已经有所发展或是发生改变。
工作地点:北京;招聘人数:若干
1. 大数据部_大数据处理高级软件工程师
工作职责:
百度大规模数据处理平台研发
推动公司底层基础架构的改造
职位要求:
计算机或相关专业本科以上学历
熟悉Linux/Unix平台上的C/C++或Java编程
熟悉常用算法和数据结构,熟悉网络编程、多线程编程技术
良好的推动能力和沟通能力,牵涉较多跨部门合作
善于学习新的知识,动手能力强,有进取心
优秀的分析问题和解决问题的能力,对解决具有挑战性问题充满激情
具有以下条件者优先:
熟悉分布式系统概念、架构
熟悉操作系统、文件系统的原理和实现
熟悉ProtocolBuffer/Hadoop/Hive/Impala等开源技术
2. 大数据部_超大规模数据平台数据分析师
工作职责:
负责百度用户数据平台所支持业务的数据分析产品
负责百度用户数据平台数据质量建设
负责百度用户数据平台数据统计,分析产品的推广,培训和优化
理解用户数据分析和挖掘应用场景,抽象为数据产品需求,不断完善基础数据的建设
职位要求:
具备较强的业务model到数据model的转化能力
熟悉并掌握各种数据建模技术,主题model,维度model, 机器学习model
熟练掌握各种数据分析方法,基本统计技术;指标维度分解方法, 各类机器学习方法:分类, 聚类,关联规则,链接分析等
熟练掌握数据挖掘的流程, 怎样发现问题,怎样准备数据,怎样处理数据,怎样构建,评估,部署和交付分析结果等
熟悉数据仓库的数据和软件架构
要具备必备的coding能力,能够自己处理和准备数据,需求需要时需要能实现相应机器学习算法
熟练掌握各种行业分析方法
相关领域五年以上工作经验
具有以下经验者优先:
数据产品分析设计经验
构建ProtocolBuffer平台经验
海量数据平台构架经验
3. 大数据部_超大规模数据平台高级研发工程师
工作职责:
设计和开发大规模数据平台的子系统
职位要求:
计算机专业基础扎实,有很强的工程实现能力
热爱数据,具备快速学习能力和分析抽象能力,在技术上不断追求超越和创新
熟悉在Unix/Linux平台下C/C++ 开发及Gcc工具
良好的开发习惯和质量意识
具有以下经验者优先:
大型数据仓库开发经验,如数据库、ETL、OLAP、展现 ,有互联网公司大规模数据平台建设者更佳;
数据挖掘,机器学习开发经验
熟悉Hadoop/ HBase/tenzing/dremel/impla
4. 基础架构部_存储系统高级研发工程师
工作职责:
设计、开发和优化高性能单机数据存储引擎
负责方向性规划及相关人员技术指导
职位要求:
1. 精通多线程和异步编程技术
2. 精通Linux IO性能调优方法
3. 熟练掌握存储设备、文件系统、Linux操作系统原理
4. 熟悉常见单机数据存储模型
5. 熟悉高吞吐批量数据处理系统和高并发随机IO系统的特点和技术方案
具有以下条件者优先:
3年以上数据库存储引擎或NoSQL存储引擎开发经验
3 条回复 • 1970-01-01 08:00:00 +08:00