职位概述

1、从0到1建设大数据计算和存储集群,包括但不限于Hadoop/Hive/Kafka/Spark/Elasticsearch/Flink/Doris; 2、负责公司大数据集群的运维工作,包括节点规划、部署、监控、权限管理和问题处理,确保可用性和稳定性; 3、负责集群容量规划、扩容及版本迭代,大数据集群的性能分析和优化调整; 4、设计和实现公司大数据集群的运维、监控和管理平台; 5、持续学习和研究大数据分布式存储与计算相关运维技术,持续优化集群服务。

其他要求

  • 1、本科及以上学历,计算机、软件相关专业; 2、对 CDH大数据组件栈有深入了解与使用经验,或对开源Apache Hadoop生态圈有长期运维经验; 3、熟悉 Linux/Unix 系统、网络、硬件等相关知识,能够独立排查及解决操作系统和网络层面的问题; 4、具备脚本编程能力,如Python、Shell等,能够编写自动化运维脚本,提高工作效率; 5、能够独立完成大数据集群的日常运维工作,包括部署、扩容缩容、监控、故障排查和性能优化等(主要包含Hadoop/Hive/Kafka/Spark/Elasticsearch/Flink/Doris等组件); 6、熟悉容器化技术docker,能编写dockerfile,有k8s经验的优先; 7、对云平台有一定的了解,有阿里云使用经验者优先; 9、有大数据运维平台开发和使用经验优先。

联系方式

查看联系方式
本网提醒:以招聘等理由收取培训、押金等费用,均涉嫌违法,请提高警惕,以免受骗上当!

浏览记录

相似工作推荐

 

官方微信