工作职责:
-负责大数据 /Hadoop/hive/spark/等在线离线数据平台运营保障
-负责大数据自动化运维以及数据化运营平台开发工作
-负责 Hadoop/Hbase/自研平台等系统的架构审核、业务监控、持续交付、应急响应、容量规划等
-为每天处理 PB 级别数据平台 /TB 级别流量保驾护航;为平台的稳定、高效运行负责
-深入理解数据平台架构,发现并解决重大故障及性能瓶颈, 打造一流的数据平台
-持续的创新和优化能力,提升产品整体质量,改善用户体验,控制系统成本
职位要求:
-大学本科及以上学历,计算机或者相关专业
-理解 linux 系统,运维体系结构,熟悉容量规划、架构设计、性能优化
-熟悉 hadoop、hbase、hive、storm、spark 等原理并具备管理,配置,运营经验
-具备一定的开发能力,精通一门以上脚本语言(shell/perl/python 等),熟悉 java/C/C++等开发语言一种及以上
-具备很强的 ownership,故障排查能力,有很好的技术敏感度和风险识别能力
-良好的客户服务意识,善于团队协作, 项目管理。主动思考,自我驱动力强
-能够承受较大的工作压力,以结果和行动为准则, 努力追求成功
-熟悉分布式系统设计范型,有大规模系统设计和工程实现的了解者优先
简历请投递:
[email protected]