公司现在处于飞速发展中,由于业务需要每个岗位都需要更多的精英加盟, 无论你喜欢从大处着手(我们的系统需要处理上 P 的数据)还是从小处提高 (我们调整性能需要从毫秒入手), 喜欢做底层技术( Spark , Shark , HBase , Hive , HDFS , JVM 调优)还是做美丽的界面( HTML , CSS , AngularJS ),抑或你是一个传说中的 Full Stack Engineer ,在这里都能找到你的位置。
星环信息科技(上海)有限公司简介:
星环信息科技(上海)有限公司是目前国内极少数掌握企业级大数据 Hadoop 和 Spark 核心技术的高科技公司,从事大数据时代核心平台数据库软件的研发与服务。在全球去 IOE 的大背景下, Hadoop 技术已成为公认的替代传统数据库的大数据产品。公司产品 Transwarp Data Hub (TDH)的整体架构及功能特性比肩硅谷同行,产品性能在业界处于领先水平。
公司研发团队是国内最早的大数据 Hadoop 发行版团队,从 2009 年起即开始致力于大数据 Hadoop 平台软件的自主创新和开发,与硅谷同类公司同时起步; 2011 年在中国率先推出 Hadoop 发行版;之后,团队负责人原英特尔亚太研发中心 CTO 孙元浩、亚太区销售总监佘晖离开英特尔,创办星环科技,注册资金五千万。以上海为核心总部,北京分公司;在广州、南京、济南等地分设办事处。
公司研发团队大多来自知名外企,员工的 85%为研发工程师,以博士硕士为主,全部来自 Intel , Microsoft , Nvidia , IBM , Oracle,百度等知名科技公司以及南京大学、复旦大学、上海交大、中科大、美国普渡大学等知名学府,也包括放弃海外知名企业优厚待遇回国创业的成员。这样的研发团队规模在国内专业大数据 Hadoop 开发的团队中并不多见。
TDH 是基于 Hadoop 和 Spark 的分布式内存分析引擎和实时在线大规模计算分析平台,相比开源 Hadoop 版本有 10x~100x 倍性能提升,可处理 GB 到 PB 级别的数据。星环科技同时提供存储、分析和挖掘大数据的高效数据平台和服务。
来星环,能学到最新最前沿的技术,任何岗位都是核心,不会沦为螺丝钉;在这里人尽其才,写一段漂亮的代码、写一个牛逼的算法,在金融、政府、交通、通信等行业都会打上个人标签。
对于比较优秀的同学:星环科技会提供比 BAT 更有竞争力的薪资,另配含金量极高的期权。
QQ 咨询: 2335123066
职位申请方式: 简历投递至
[email protected] 邮件主题为“职位名称+姓名+城市”
另外,接受外部推荐,推荐成功有大奖!
工作地点:上海漕河泾开发区或者北京中关村 E 世界
并行计算平台软件工程师 /架构师
工作职责:
负责基于 Spark 的并行计算平台的开发与优化工作
职位要求:
1. 熟练掌握 Java 语言
2.有深厚的操作系统,数据结构和算法基础
3. 熟悉并行计算或者分布式计算者优先考虑
4.较强的团队合作能力
工作地点:上海 北京
分布式数据库开发工程师
工作职责:
负责星环分布式存储系统的设计,开发与运维工作。
职位要求:
1. 掌握基础计算机专业知识,具备优秀的代码编写能力。
2. 熟悉 Java 语言, linux 基本原理,熟悉网络编程
3. 良好的沟通与团队协作能力;敢于创新,乐于接受挑战。
4. 有分布式存储系统(如 HBase/Mongdb/cassandra 等)开发或运维经验者优先。
5.有搜索引擎(如 Elasticsearch/Solr/Lucene 等)开发经验者优先。
工作地点:上海、北京
分布式索引开发工程师 /架构师
工作内容:
参与或负责星环 TDH 组件 StarIndex 的设计与开发工作。
包括并不限于:
在超大数据量上( 100TB )实现高速索引技术
支持高速索引的高并发查询与修改
支持高速索引存储在多种存储介质上( SSD/FS/Memory )
支持高度容错
职位要求:
熟悉数据库原理和索引技术
熟悉常用数据结构和算法
熟悉操作系统
良好的团队合作能力
有分布式系统设计经验优先
工作地点:上海、北京
流式计算开发工程师
工作职责:
负责基于 Spark 的流式计算引擎的设计与开发工作
职位要求:
1.熟悉 Java 或者 Scala 语言
2.熟悉计算机网络
3.有良好的系统分析,故障诊断能力者优先
4.对 Spark , Kafka 感兴趣
5.较强的团队合作能力
工作地点:上海 北京
SQL 编译器开发工程师
工作职责:
负责基于 hadoop 的 SQL 编译器,包括 SQL 的静态编译,解析执行计划和优化器的开发工作
职位要求:
1.熟悉编译原理,操作系统,有良好的数据结构和算法功底
2.熟悉 SQL 语言,了解存储过程和函数优先
3.有编译器开发经验者优先
4.较强的团队合作能力
工作地点:上海
中间件开发工程师
职位要求:
1. 熟悉 JAVA 或者 C++
2. 熟悉 SQL 语言
3. 有良好的数据结构和算法功底
4.熟悉计算机网络
工作地点:上海 北京
云计算平台开发工程师
工作职责:
基于 Docker 开源社区,开发高可靠自动化的云计算平台
职位要求:
1. 掌握基础的计算机专业知识,如 Linux ,网络,数据库,操作系统等
2. 熟练掌握(Go, Java, C++)至少一种编程语言,熟悉 Go 语言者有加分,参与过开源项目者有加分
3. 对新兴事物有强烈的好奇心,有将最新的技术转化为产品的热情
4. 有与人沟通的能力,乐意分享,敢于承诺
工作地点:上海
数据挖掘算法开发工程师
工作职责:
1 、分布式机器学习算法的开发和优化;
2 、在线和离线海量数据分析平台的设计和开发;
3 、大规模数据挖掘系统的设计和实现。
职位要求: -
硕士及以上学历,计算机 相关专业
2 年及以上工作经验
-熟悉常用的机器学习算法,了解不同模型的特性,具有灵活运用模型进行数据分析的能力
-熟悉 spark ,具有分布式数据挖掘项目经验
-熟悉下列任意一种数据分析软件 R/MATLAB/Python
-熟悉 linux 平台、熟悉脚本( shell 、 python 等)编程
-具有良好的沟通能力,和良好的团队合作精神
-优秀的分析问题和解决问题的能力,对解决具有挑战性问题充满激情
有以下任一领域有深入研究者优先:
-机器学习 /信息检索 /自然语言处理 /统计学习 /博弈论 /人工智能
-具有海量数据挖掘、分布式计算或高性能并行计算应用经验者优先
-具有行业经验者优先
安全开发工程师
工作职责:
负责 Kafka/Spark/Hive/Hadoop 等基础平台的安全功能开发
职位要求:
对安全体系结构有一定了解,有身份认证和权限管理开发经验优先
熟练掌握 Java 或 Scala 语言,了解 JAAS, SASL 优先
熟悉计算机网络,对网络安全有一定了解
熟悉主流分布式计算框架,熟悉源码者优先
负责认真,有较强的团队合作能力
大数据云后端开发工程师
扎实的 Java 语言编程能力
出色的 troubleshooting 能力(特别是在分布式环境下)
工作积极主动,自我驱动能力强
满足以下一项或者多项会大大加分:
1 熟悉 Hadoop 组件的配置和监控
2 熟悉 Java 后端框架 Spring 和 Hibernate
3 熟悉 AKKA
4 熟悉 SMTP 和 SNMP 在监控预警中的应用。
5 熟悉 Ganglia 和 Nagios
工作地点:上海
大数据云前端开发工程师
工作职责:
大数据管理软件 Web 端的设计与开发
职位要求:
有实际 Web 工程开发经验
熟练掌握 Web 技术如 HTML/CSS/JS 的知识
熟练使用 Bootstrap 和 angularJS
熟练使用 Spring 和 Hibernate 框架
有下列条件者优先:
熟练使用 Java 语言编程
熟练使用 AKKA 编程
开发过 Rest API
对易用性及视觉感觉有较高要求
工作地点:上海
Why Join us :
1.行业前景:大数据时代核心平台数据库软件的研发,业已验证的商业模式。很有前景+钱景!
2.强悍团队:技术产品团队来自谷歌、 Intel 、微软、摩根士丹利、英伟达、 AMD 、 BAT 、 EMC ,以博士硕士为主;配合极为彪悍的销售精英团队;
3.个人发展:团队和业务都在快速成长,接触核心的 Hadoop 和 Spark 技术,拒绝做“螺丝钉”;
4.薪酬福利:敢与 BAT 叫板的薪资+丰厚期权,全额五险一金,补充医疗保险让你无忧;
5.员工培训:新人入职均会配以资深导师进行一对一辅导,让你快速成为技术大牛;
6.员工活动:不定期旅游,亲近大自然;足球、篮球、保龄球、羽毛球、 K 歌、游泳兴趣小组应有尽有,让你快乐工作同时身体棒棒哒!
想要了解更多 Transwarp 的信息?欢迎登陆我们的主页
www.transwarp.io