简历包含技能、项目经历描述等,非常具有学习参考价值。
1.Spark:能部署spark集群,能进行SparkCore、Spark SQL和Spark Streaming开发。理解Spark
内存管理。掌握spark任务提交和执行流程。擅长Spark调优。熟悉sparkRDD运行原理,掌握RDD算
子开发。
2.MapReduce:掌握了MapReduce运行原理机制,能对MapReduce框架开发及调优,能够搭建
Hadoop集,部署过CDH搭建Hadoop集群;
3.数据仓库:理解数据仓库设计原理,用HQL进行PB、TB级海量数据处理和开发,有Hive优化经验。
掌握Hive架构与原理、能搭建运维Hive架构及编写HQL代码;掌握Hive SQL数据类型、建表语法(内外表)、动态静态分区、内置函数自定义函数、分桶、hive视图索引、以及Hive优化等;