这是一个创建于 2589 天前的主题,其中的信息可能已经有所发展或是发生改变。
坐标南京
现招大数据分析和大数据开发
薪资都在 8k~15k 之间 (对于特别优秀的人才薪资方面可以具体再详谈~)
大数据分析工程师:
岗位职责:
1、掌握常见分类、聚类、回归、协同过滤等相关算法。
2、负责大数据处理模块和数据挖掘平台的设计和开发;
3、负责基于 Spark 技术的海量数据的处理、分析、挖掘工作;
4、基于 Spark 框架的数据挖掘平台的设计,开发,维护;
5、熟练掌握 Spark MLlib 根据需求使用 MLlib 进行数据分析、挖掘等工作。
岗位要求:
1、 有 java 开发基础,熟悉 Spark 相关技术,至少有 2 年的 Spark 开发经验;
2、 熟悉 Scala 语言,对 Scala 原理、底层技术有深入研究者优先;
3、 有 Python 语言基础者优先;
4、了解掌握 TensorFlow 者优先;
5、有优良的 Trouble Shooting 能力;
6、有过海量数据系统开发经验者优先;
7、有过数据挖掘开发经验者优先。
大数据开发工程师:
岗位描述
1、参与平台的整体数据架构设计,完成从业务模型到数据模型的设计工作 ;
2、对数据挖掘及业务开发团队提供技术支持,协助方案规划;
3、负责技术攻关和创新技术引用,开发具有数据分析、数据挖掘能力的创新型产品;
4、负责公司的大数据平台的研发工作(包扩日志采集,离线计算,数据仓库存储和处理等);
5、维持线上服务高效稳定,支撑业务和数据量的快速扩张。
岗位要求
1、扎实的 Java, Scala 语言基础,对 JVM 运行机制有深入了解,有 python 和 scala 实际使用经验更佳;
2、熟悉 Hadoop, Spark 并有丰富的开发经验,了解大数据组件的使用限制和应用场景,包括但不仅限于: hdfs, yarn, hbase, hive, flume, kafka, zookeeper, mpala, kylin, kudu, ElasticSearch, Storm, MongoDB 等。;
3、熟悉 mysql, ElasticSearch, Redis 等关系型或 NoSQL 数据库,了解应用场景和使用限制。有实际调优经验者更佳。
4、熟悉 linux 常用命令,有实际 CDH 或 HDP 或 apache 版本的 hadoop 部署经验者优先;
5、熟悉并行计算或者分布式计算,熟练掌握 SQL, Streaming, MLLIB 编程;
6、英文文档阅读无障碍,熟练掌握常用设计模式,熟练使用 maven git ;
7、有深入研究过 Hadoop,Spark 源码者优先;
8、深入理解 MapReduce 工作原理,HDFS 分布式文件系统架构;熟练掌握 Hadoop/Hive/HBASE 的运维和调优方法;
9、掌握或使用过 Storm、Spark、flume、kafka 等工具;
10、2 年以上大数据相关工作经验,最好参与并成功部署过 1 个日均 TB 级的集群项目。
|
|
1
cgllynn 2017-11-22 14:52:57 +08:00
大数据的小伙伴们 有兴趣可以联系我了解一下呀~
|