文章目录写在前面搭建好Hadoop集群环境安装Spark(Master节点上操作)配置环境变量(Master节点上操作)Spark配置(Master节点上操作)配置Worker节点启动Spark集群(在Master节点上操作)关闭Spark集群(在Master节点上操作)
写在前面
这里采用2台机器(节点)作为实例来演示如何搭建Spark集群,其中1台机器作为Master节点,另外一台机器作为Slave1节点(即作为Worker节点)。
集群环境
Centos6.4
Hadoop2.7.7
java 1.8 (请确保java版本在1.8以上,否则会踩坑,反正我后面踩了)
搭建好Hadoop集
2021-10-09 09:39:50
110KB
ar
ark
分布
1