作者:kocdaniel 2019-09-26 15:43:52
开发
架构
分布式
Hadoop 首先准备三台客户机(hadoop102,hadoop103,hadoop104),关闭防火墙,修改为静态ip和ip地址映射
让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:空间域名、网络空间、营销软件、网站建设、孟连网站维护、网站推广。
首先准备三台客户机(hadoop102,hadoop103,hadoop104),关闭防火墙,修改为静态ip和ip地址映射
编写集群分发脚本
- [kocdaniel@hadoop102 ~]$ mkdir bin
- [kocdaniel@hadoop102 ~]$ cd bin/
- [kocdaniel@hadoop102 bin]$ vim xsync
在文件中编写如下脚本代码
- #!/bin/bash
- #1 获取输入参数个数,如果没有参数,直接退出
- pcount=$#
- if((pcount==0)); then
- echo no args;
- exit;
- fi
- #2 获取文件名称
- p1=$1
- fname=`basename $p1`
- echo fname=$fname
- #3 获取上级目录到绝对路径 –P指向实际物理地址,防止软连接
- pdir=`cd -P $(dirname $p1); pwd`
- echo pdir=$pdir
- #4 获取当前用户名称
- user=`whoami`
- #5 循环
- for((host=103; host<105; host++)); do
- echo ------------------- hadoop$host --------------
- rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
- done
- [kocdaniel@hadoop102 bin]$ chmod 777 xsync
- [kocdaniel@hadoop102 bin]$ xsync /home/atguigu/bin
集群配置
1.集群部署规划
由于计算机配置有限,只能使用三台虚拟机,工作环境中根据需要规划集群
2.配置集群
切换到hadoop安装目录/etc/hadoop/
- [kocdaniel@hadoop102 hadoop]$ vim core-site.xml
- # 在文件中写入如下内容
fs.defaultFS hdfs://hadoop102:9000 hadoop.tmp.dir /opt/module/hadoop-2.7.2/data/tmp
配置hadoop-env.sh
- [kocdaniel@hadoop102 hadoop]$ vim hadoop-env.sh
- export JAVA_HOME=/opt/module/jdk1.8.0_144
export JAVA_HOME=/opt/module/jdk1.8.0_144
注意:我们已经在/etc/profile文件中配置了JAVA_HOME,这里为什么还需要配置JAVA_HOME?
答:因为Hadoop运行是守护进程(守护进程是一个在后台运行并且不受任何终端控制的进程。--摘自百度百科)),正是因为它后台运行,不接受任何终端控制,所以它读取不到我们配置好的环境变量,所以这里需要单独配置一下。
- [kocdaniel@hadoop102 hadoop]$ vim hdfs-site.xml
- # 写入如下配置
dfs.replication 3 dfs.namenode.secondary.http-address hadoop104:50090
配置yarn-env.sh
- [kocdaniel@hadoop102 hadoop]$ vim yarn-env.sh
- export JAVA_HOME=/opt/module/jdk1.8.0_144
配置yarn-site.xml
- [kocdaniel@hadoop102 hadoop]$ vi yarn-site.xml
- # 增加如下配置
yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname hadoop103
配置mapred-env.sh
- [kocdaniel@hadoop102 hadoop]$ vim mapred-env.sh
- export JAVA_HOME=/opt/module/jdk1.8.0_144
配置mapred-site.xml
- # 如果是第一次配置的话,需要先将mapred-site.xml.template重命名为mapred-site.xml
- [kocdaniel@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml
- [kocdaniel@hadoop102 hadoop]$ vim mapred-site.xml
- # 在文件中增加如下配置
mapreduce.framework.name yarn
3.将配置好的文件利用集群分发脚本同步到hadoop103和hadoop104节点
- [kocdaniel@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/
1.如果是第一次启动,需要格式化namenode,否则跳过此步
- [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop namenode -format
2.在hadoop102上启动namenode
- [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode
- [kocdaniel@hadoop102 hadoop-2.7.2]$ jps
- 3461 NameNode
3.在hadoop102、hadoop103以及hadoop104上分别启动DataNode
- [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
- [kocdaniel@hadoop102 hadoop-2.7.2]$ jps
- 3461 NameNode
- 3608 Jps
- 3561 DataNode
- [kocdaniel@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
- [kocdaniel@hadoop103 hadoop-2.7.2]$ jps
- 3190 DataNode
- 3279 Jps
- [kocdaniel@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
- [kocdaniel@hadoop104 hadoop-2.7.2]$ jps
- 3237 Jps
- 3163 DataNode
4.访问hadoop102:50070查看结果
每次都一个一个节点启动,如果节点数增加到1000个怎么办?
1.配置ssh
ssh 另一个节点的ip 就可以切换到另一台机器,但是得输入密码
2.免密ssh配置
免密登录原理
切换目录到/home/用户名/.ssh/
- [kocdaniel@hadoop102 .ssh]$ ssh-keygen -t rsa
- - 然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
- - 将公钥拷贝到要免密登录的目标机器上
- ```shell
- [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop103
- [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop104
- # 注意:ssh访问自己也需要输入密码,所以我们需要将公钥也拷贝给102
- [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop102
- ```
1.配置slaves
- [kocdaniel@hadoop102 hadoop]$ vim slaves
- # 注意结尾不能有空格,文件中不能有空行
- hadoop102
- hadoop103
- hadoop104
- [kocdaniel@hadoop102 hadoop]$ xsync slaves
2.启动集群
- [kocdaniel@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
- # 查看启动结果,和集群规划(配置文件中)的一致
- [atguigu@hadoop102 hadoop-2.7.2]$ jps
- 4166 NameNode
- 4482 Jps
- 4263 DataNode
- [atguigu@hadoop103 hadoop-2.7.2]$ jps
- 3218 DataNode
- 3288 Jps
- [atguigu@hadoop104 hadoop-2.7.2]$ jps
- 3221 DataNode
- 3283 SecondaryNameNode
- 3364 Jps
- # 注意:NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN
- [kocdaniel@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
3.web端查看相关信息
当前标题:Hadoop之完全分布式集群
本文网址:http://www.gawzjz.com/qtweb/news7/181207.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联