职责:
1.能够带领技术人员基于hadoop平台进行海量数据应用系统开发;
2.负责结构化和非结构化数据的解析和清洗,海量数据查询和报表展现;
3.负责超大规模数据平台的搭建、维护和优化;
4.负责大数据采集、存储框架研究,参与在线或离线数据存储模型设计;
5.负责大数据平台新技术的开发使用和性能优化,测试。
任职资格:
1.计算机相关专业本科及以上学历;
2. 熟悉hadoop相关各种开源项目,比如HDFS/Hive/Hbase等有实际应用。(5年以上开发经验者优先);
3.两年以上熟练编写mapreduce代码经验,有三年以上网络日志分析、ETL经验。熟悉日志分析框架chukwa,flume,scribe者优先;
4.两年以上海量数据存储的安装部署、优化、二次开发经验,对大规模数据存储、传输、处理等有丰富的经验;
5.在数据挖掘、数据密集型处理、分布式计算、网格计算领域有深入理论基础;
6.具有较强的文档撰写能力,较强的团队精神和合作精神,对工作有热情,能承受压力。
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- shangjiatang.cn 版权所有 湘ICP备2022005869号-4
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务