坐标 北京 /上海 /南京
邮箱:
[email protected]FE
1、参与字节跳动大数据基础设施以及相关可视化产品的建设,为今日头条、抖音、火山、西瓜、悟空问答等旗下产品提供稳定高质量的数据服务;
2、持续的性能优化和架构升级,不断提升团队效率和产品的用户体验;
3、结合业务和数据场景,提出专业合理的可视化方案建议,并推动可视化技术产生更多的业务价值; 4、提供全栈场景,不设边界。
*职位要求经验:1-3 年 学历:本科及以上
1、对技术充满好奇心,乐于学习,愿意分享;具备良好的服务意识,责任心,团队沟通和协作能力、发现并解决问题的能力;
2、有扎实的前端技术和计算机基础,包括但不限于 HTML / CSS / JavaScript / DOM / Http / 数据结构等;
3、精通至少一门 MVVM 框架,如 AngularJS/Vue/React。使用 React 开发过大型项目或者复杂单页面应用者优先; 4、熟练掌握 SVG / Canvas / WebGL 等前端绘图技术及标准,至少使用过一个数据可视化类库,包括但不限于 D3 / G2 / Three.js / ECharts / Highcharts。有一定计算机图形学基础的优先;
5、掌握至少一门服务端编程语言,并有实战经验。熟悉 NodeJS / Python 者优先;
6、有过大数据产品( Hadoop / Hive / Spark 等)相关开发经验者优先;
7、有移动端开发经验并且有实际性能优化案例者优先;
8、有自己的技术产品、开源作品或活跃的开源社区贡献者优先。
大数据开发
职位描述
1、负责公司级的通用数据平台和分析型产品,服务于字节跳动全公司的用户产品线;
2、面向 PB 级超大规模数据问题,每天处理千亿增量的用户行为数据;
3、为大数据的全生命周期提供服务,覆盖数据产生,传输,建模,统计分析,实验评估,可视化的全流程;
4、构建设计良好的数据流、数据仓库、调度系统、查询引擎,数据服务、分析系统、流程规范,数据工具 /产品,降低数据的使用门槛,保证系统稳定高效运行,以实现数据的最大价值。
职位要求 经验 3-5 年 学历本科及以上
1、熟悉多项大数据处理 /分析相关的工具 /框架,e.g. Hadoop, Mapreduce, Hive, Storm, Spark, kylin,scribe, kafka, hbase, canal,sqoop etc ;
2、强悍的编码能力,生产环境快速 trouble-shooting 能力,对新技术有强烈的学习热情;
3、优秀的理解沟通能力,能快速理解业务背景,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值,有 web 应用开发能力者优先。