职位描述:
1.负责大规模计算引擎核心模块的设计、开发;
2.提升平台资源利用率和性能;
3.负责基础技术的积累、前沿技术、业界标准规范研究和落地;
4.系统性能调优,精简硬件资源需求,例如降低计算开销,降低存储成本,提高响应 QPS 等;
职位要求:
- 有 3 年以上分布式计算框架的开发、优化经验并在生产环境得到大规模应用;
- 对 Hadoop ecosystem、Spark ecosystem、Flink ecosystem 以及类似分布式系统中的至少一个有深入研究;
- 精通 JAVA 或者 C/C++,有 linux 下丰富的应用性能诊断和优化经验;
- 有强烈的上进心和求知欲,善于学习新事物,对技术充满激情 ;
- 具有较强的团队合作能力,勇于面对和解决挑战性问题。
加分项:
- 数据库内核开发或机器学习平台开发背景;
- 有开源社区贡献者优先,Hadoop/Hive/Hbase/Spark/Beam/Yarn 源码熟悉;
- linux 内核经验 、JVM 经验;
自己团队招聘,部门直投;
欢迎投递: [email protected]