2017-07-10 10:37
工作职责:
1. 基于 hadoop 生态圈相关开源解决方案,比如 MR/Hive/Kafka/spark/storm 开发大数据平台,支持部门的产品运营、统计分析;
2. 基于 Hive/spark/storm 开发相应的离线/实时统计分析服务或报表,支撑下游业务方应用,如:数据监控、日报展现、运营统计分析、业务方调用等;
3. 基于海量日志下的查询方案设计与实现,并能对其存储空间与查询效率进行优化;
岗位要求:
1. 本科以上学历,扎实的计算机专业基础,有3年以上大数据平台开发经验,1年以上的大数据计算/存储设计经验;
2. 精通一种或几种以下语言,Python/Java/Scala;
3. 熟练掌握Hadoop、Spark、Storm、HBase的原理特性以及适用场景,精通Spark实时计算开发,并具备大规模数据集的实际开发经验;
4. 熟悉数据仓库领域知识和技能者优先,包括但不局限于:元数据管理、数据开发测试工具与方法、数据质量、主数据管理
5. 具备用户问题的定位及解决能力,善于归纳总结,对数据敏感;
6. 思维活跃、敢于担当、乐于沟通,具有良好的团队合作精神,积极主动,能承受一定的工作压力。