职位职责:
1、根据公司数据分析需求进行基于Hadoop 平台的项目开发;
2、根据需求进行数据仓库模型设计,进行ETL程序的开发
3、负责针对源系统进行数据抽取、处理、分析等相关工作,及项目中涉及到的数据库创建、维护及提供数据接口工作;
4、负责设计并优化基于Hive 的数据仓库的建设;
5、负责数据库集群管理及性能优化,基于业务需求和系统需求,改进数据库架构,实现数据库集群;
6、保证数据库集群的稳定、高效运行;
7、制定数据库备份和恢复策略及工作流程与规范。
任职要求:
一、学历要求:
2025届普通高等院校本科及以上学历,并具有相应学位;
二、专业要求:
计算机类相关专业优先,专业成绩排名前30%
三、专业技能:
1、熟悉Hadoop、Hive、impala等分布式计算平台开发,有大数据应用系统开发经验;
2、熟悉Kettle 等ETL 工具的使用、开发、开发流程;
3、精通SQL/HQL,有较好的SQL性能调优经验;
4、熟悉JAVA开发,有分布式开发经验,使用Hive进行过项目开发、或支撑过Hive/Hbase/Impala高并发项目的系统工程师优先;
6、熟练掌握常见数据库MySQL、Oracle、DB、SQLServer以及ES、Hbase、HDFS的体系架构和运行原理,拥有部署、调优、监控等日常运维的必要技能(如分库分表、读写分离、数据同步)。