工作职责:
岗位职责
1、负责大数据平台的搭建、功能优化和性能提升,包括:组件选型POC、机器配置调研、以及引入落地;
2、负责平台相关组件的集成和运营保障,包括:Hadoop、Hive、HBase、Kafka、Zookeeper、Spark、Flink、ES等,及时发现并解决故障和性能瓶颈;
3、负责保障大数据平台线上业务的稳定高效运营,支撑业务数据的爆发增长,协同技术和产品团队解决生产过程中的各类问题;
4、负责计算和存储资源的优化利用,实现本地化和云部署的资源动态平衡;
任职资格:
任职要求:
1. 熟悉大数据相关组件技术原理和特性,能结合实际情况最大化地发挥各组件优势;
2. 熟悉Linux系统,对各种常见命令熟练掌握,有机器容量规划能力,对性能优化有丰富的经验,有良好的风险感知能力;
3. 熟悉gcc等编译环境,能基于开源组件源码进行编译,修复社区公布的Bug,持续维护组件升级和运行的稳定性;
4. 能够根据实际情况制定运维部署计划、编写运维报告,有系统监控指标建设能力,及时发现或预见平台问题;
5. 有大规模集群建设、解决方案维护经验者优先,有大厂工作经验优先。
6. 有开源组件源码阅读和分析能力优先,有社区源码贡献优先。
7.年龄38岁以下,薪资面议,一人一议