目錄
一、集群規劃
二、更改主機名
三、建立主機名和ip的映射
四、關閉防火墻(master,slave1,slave2)
五、配置ssh免密碼登錄
六、安裝JDK
七、hadoop之hdfs安裝與配置
1)解壓Hadoop
2)修改hadoop-env.sh
3)修改 core-site.xml
4)修改hdfs-site.xml
5) 修改slave
八、配置hadoop環境變量
九、將hadoop拷貝到其他主機、
十、格式化元數據目錄
十一、下載安裝spark
十二、配置文件修改
1)復制模板文件
2)配置spark-env.sh(增加環境變量)
3) 配置slaves
4) 將master配置好的spark 拷貝到slave1,slave2
5) 配置環境變量
6)啟動與驗證
7)提交jar 包并觀察驗證
一、集群規劃
主機名 | 操作系統 | 地址 | 角色 | 硬件配置 |
master | Centos | 10.1.0.248 | namenode | 2g 1核 |
slaver1 | Centos | 10.1.0.94 | datanode | 1g 1核 |
slaver2 | Centos | 10.1.0.31 | datanode | 1g 1核 |
二、更改主機名
分別修改主機名文件(重啟永久生效)
sudo vi /etc/sysconfig/network
三、建立主機名和ip的映射
sudo vi /etc/hosts
拷貝到slave1和slave2中
四、關閉防火墻(master,slave1,slave2)
關閉防火墻:sudo service iptables stop
關閉防火墻自啟:sudo chkconfig iptables off
五、配置ssh免密碼登錄
ssh-keygen -t rsa
ssh-copy-id mast