岗位职责:
1.负责大数据处理框架的研发工作;
2.利用Hadoop/Storm/Spark开发,存储,分布式计算应用;
3.优化Hadoop/Storm/Spark参数,调优应用系统,满足车联网企业的实时大数据处理需求;
4.学习新技术,提高整个平台的计算能力和效率;
5.开发基于hive,hbase,ES等数据处理方式的脚本程序;
职位要求:
1.2年以上hadoop/storm/spark开发经验,对分布式,并行计算理论有深刻理解;
2.精通java/scala/python任一语言;
3.精通Linux(Centos等)、Unix(AIX)等os环境,能编写简单的shell脚本;
4.对hadoop/storm/spark源码有研究,有大数据平台处理工作经验者优先
5.有很好的技术敏感度、良好的学习能力和强烈的进取心,能吃苦耐劳;
6.能够适应高压力工作,热心并能自我激励;
7.具有较强的沟通协调能力,良好的团队合作精神。
8.具有较好的文档编写能力