大佬教程收集整理的这篇文章主要介绍了hadoop完全分布式搭建——跟着代码步骤走一步到位,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
这篇文章是搭建hadoop完全分布式的一步到位过程c;并没有对于内容的太多的介绍。直接按步骤代码走一步到位。 这篇文章是用以下两篇文章结合起来的。 hadoop伪分布式搭建及其介绍 hadoop完全分布式详细步骤
话不多说现在开始
首先要创建一个虚拟机然后将虚拟机打开
Ipaddr是本台虚拟机的IP地址
vi /etc/sysconfig/network-scripts/ifcfg-ens33
Ipaddr=192.173.10.100
NETMASK=255.255.255.0
PREFIX=24
GATEWAY=192.173.10.2
DNS1=192.193.10.2
HWADDR=00:0C:29:7E:A1:2A
点击你的虚拟机右键打开设置
打开网络右键打开属性
setenforce 0
systemctl stop firewalld
systemctl restart network.service
用ifconfig查看一下刚才配置的ip地址是否正确
然后进入root目录c;创建software文件夹。再用Xftp连接自己的电脑传递jdk和hadoop的安装包到/root/software文件夹里。
cd /root
@H_541_19@mkdir software
rpm -qa | grep jdk
rpm -e --nodeps jdk版本号
可以再使用上上条命令看看jdk是否卸载干净
在刚才存放jdk软件包的路径下(/root/software)操作
解压压缩包
tar -zxvf jdk-8u281-linux-x64.tar.gz
ll命令查看是否解压完毕
vim /etc/profile
再最后面插入以下内容
export JAVA_HOME=/root/software/jdk1.8.0_281 # 配置Java的安装目录
export PATH=$PATH:$JAVA_HOME/bin # 在原PATH的基础上加入JDK的bin目录
让环境变量生效
source /etc/profile
查看安装版本c;查得到就是安装成功
java -version
在刚才存放jdk软件包的路径下(/root/software)操作
解压压缩包
tar -zxvf hadoop-2.8.2.tar.gz
ll命令查看是否解压完毕
vim /etc/profile
再最后面插入以下内容
# 配置Hadoop的安装目录
export HADOOP_HOME=/root/software/hadoop-2.8.2
# 在原PATH的基础上加入Hadoop的bin和sbin目录
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
让环境变量生效
source /etc/profile
查看安装版本c;查得到就是安装成功
hadoop version
cd /root/software/hadoop-2.8.2/etc/hadoop
先使用下列方式得到JDK 的安装目录
echo $JAVA_HOME
vi hadoop-env.sh
vi core-site.xml
将下面的内容插入到文件里的 <configuration 和 /configuration>之间
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop1:8020</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/soft/tmp</value>
</property>
vi hdfs-site.xml
将下面的内容插入到文件里的<configuration 和 /configuration>之间
<property>
<name>dfs.Replication</name>
<value>3</value>
</property>
<property>
<name>dfs.block.size</name>
<value>134217728</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/soft/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/soft/data</value>
</property>
<property>
<name>fs.checkpoint.dir</name>
<value>file:///home/soft/cname</value>
</property>
<property>
<name>fs.checkpoint.edits.dir</name>
<value>file:///home/soft/cname</value>
</property>
<property>
<name>dfs.http.address</name>
<value>hadoop1:50070</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>hadoop2:50090</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
vi yarn-site.xml
将下面的内容插入到文件里的<configuration 和 /configuration>之间
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>@H_457_20@mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>hadoop1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hadoop1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hadoop1:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hadoop1:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hadoop1:8088</value>
</property>
vim slaves
写入以下的内容
hadoop1
hadoop2
hadoop3
创建一个名为mapred-site.xml的文件
touch mapred-site.xml
将mapred-site.xml.template的内容写入mapred-site.xml文件内
cat mapred-site.xml.template >> mapred-site.xml
然后再配置mapred-site.xml
vi mapred-site.xml
将下面的内容插入到文件里的<configuration 和 /configuration>之间
<property>
<name>@H_457_20@mapreduce.framework.name</name>
<value>yarn</value>
<final>true</final>
</property>
<property>
<name>@H_457_20@mapreduce.jobhistory.address</name>
<value>hadoop1:10020</value>
</property>
<property>
<name>@H_457_20@mapreduce.jobhistory.webapp.address</name>
<value>hadoop1:19888</value>
</property>
先将虚拟机关闭c;右键虚拟机管理里面的克隆虚拟机
vi /etc/sysconfig/network-scripts/ifcfg-ens33
vi /etc/sysconfig/network
HOSTNAME=hadoop2
reboot
然后打开第三台hadoop3虚拟机进行以上和hadoop2一样的操作
vi /etc/hosts
192.173.10.100 hadoop1
192.173.10.101 hadoop2
192.173.10.102 hadoop3
连接上三台虚拟机的XSHellc;下面的1.2.3.三台虚拟机都得一一完成。剩下按文字提示完成。 1.首先创建root底下的.ssh目录
cd /root
@H_541_19@mkdir .ssh
进入.ssh目录
cd /root/.ssh cd /root/.ssh
2.然后生成一个密钥(需要在三台虚拟机中都执行此命令c;生成密钥) (三次回车)
ssh-keygen -t rsa
3.然后创建authorized_keys文件
touch authorized_keys
4.将id_rsa.pub的内容写入authorized_keys文件
cat id_rsa.pub >> authorized_keys
5.将authorized_keys传到hadoop2的/root/.ssh下
scp authorized_keys hadoop2:/root/.ssh/
6.然后在hadoop2下将将id_rsa.pub的内容写入authorized_keys文件
cat id_rsa.pub >> authorized_keys
7.再将authorized_keys文件传到hadoop3的/root/.ssh下
scp authorized_keys hadoop3:/root/.ssh/
8.然后在hadoop3下将将id_rsa.pub的内容写入authorized_keys文件
cat id_rsa.pub >> authorized_keys
9.再将authorized_keys文件传到hadoop1和hadoop2的/root/.ssh下覆盖之前的authorized_keys文件
scp authorized_keys hadoop1:/root/.ssh/
scp authorized_keys hadoop2:/root/.ssh/
10.在虚拟机上用ssh hadoop1或者ssh hadoop2或者ssh hadoop3进行测试c;如果不需要输入密码则免密设置成功
格式化(只有第一次启动才会格式化)
hdfs namenode -format
启动
start-all.sh
网页验证: http:192.168.80.100:50070 http:192.168.80.100:8088
在虚拟机上分别运行一下jps,完全分布式搭建成功按下图所示。
以上是大佬教程为你收集整理的hadoop完全分布式搭建——跟着代码步骤走一步到位全部内容,希望文章能够帮你解决hadoop完全分布式搭建——跟着代码步骤走一步到位所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。