这是一个创建于 1783 天前的主题,其中的信息可能已经有所发展或是发生改变。
职位描述
1、Hadoop 生态子系统的研发、测试与优化工作,解决实际业务需求与性能问题。子系统包括但不限于 HDFS,HBASE,YARN,SPARK,KAFKA 等。
2、承担数万台规模 Hadoop 集群的管理工作,解决超大规模 Hadoop 集群在应用与运行过程中的出现各种问题,保证集群的高效稳定运行。
3、和开源社区保持交流,从社区引入对公司业务场景有帮助的特性与系统,或将内部研发的功能贡献到社区。
任职要求
1、计算机或相关专业本科及以上学历。
2、思维活跃,熟悉 Hadoop 生态子系统(至少一个),精读过源代码者尤佳,所开发代码被开源社区接受者尤佳。
3、优秀的设计与编码能力,工程质量自我要求高,针对业务需求与问题,可快速设计与实现解决方案。
4、很强的问题分析与解决能力,强烈的责任心,对工作有激情,良好的沟通能力。
4 条回复 • 2019-11-19 20:57:14 +08:00
|
|
1
liprais 2019-11-18 21:28:03 +08:00 via iPhone
现在还要一周工作一百个小时么?
|
|
|
3
Tartarus0zm 2019-11-18 22:23:09 +08:00
管三餐,每天免费下午茶,咖啡冰激凌不限量,周末加班双倍工资,免费健身房,欢迎各位老铁来撩!年前拿 offer,年前年后入职都可
|
|
|
4
huruwo 2019-11-19 20:57:14 +08:00
这就是你分手的借口,🕺🕺🕺如果让你重新来过
|