hadoop伪分布式搭建操作步骤指南
作者:imxintian 2017-10-25 18:25:40
数据库
大数据
分布式
Hadoop 本文主要分享Hadoop伪分布式搭建的操作步骤,包括准备工作、Hadoop环境部署-JDK部分和Hadoop伪分布式环境部署-Hadoop部分,希望对大家有所帮助。
在成都做网站、成都网站设计中从网站色彩、结构布局、栏目设置、关键词群组等细微处着手,突出企业的产品/服务/品牌,帮助企业锁定精准用户,提高在线咨询和转化,使成都网站营销成为有效果、有回报的无锡营销推广。成都创新互联公司专业成都网站建设十余年了,客户满意度97.8%,欢迎成都创新互联客户联系。
一、准备工作
- 在 /opt/目录下创建文件夹modules,和softwares
- chown -R wxt:wxt /opt/
- mkdir softwares
-
- mkdir modules
- 安装lrzsz (在linux里可代替ftp上传和下载。)
首先安装lrzsz
- yum -y install lrzsz
- 上传文件,执行命令rz,会跳出文件选择窗口,选择好文件,点击确认即可。
- rz
- sz
二、Hadoop环境部署-JDK部分
1.
2.
- 解压jdk 至modules
- tar -zxvf jdk-7u67-linux-x64.tar.gz -C /opt/modules/
3.
- 修改环境变量
- 切换至 root 用户修改 vi /etc/profile 文件,配置jdk环境变量
- #JAVA_HOME
- export JAVA_HOME=/opt/modules/jdk1.7.0_67
- export PATH=$PATH:$JAVA_HOME/bin
4.
- source /etc/profile 使文件生效
- 验证是否配置成功
- java version "1.7.0_09-icedtea"
- OpenJDK Runtime Environment (rhel-2.3.4.1.el6_3-x86_64)
- OpenJDK 64-Bit Server VM (build 23.2-b09, mixed mode)
- jps命令可以查看java 进程
- echo $JAVA_HOME
三、Hadoop伪分布式环境部署-Hadoop部分
1.
- 上传文件hadoop-2.5.0.tar.gz,至softwares
- 解压文件至modules
- tar -zxvf hadoop-2.5.0.tar.gz -C /opt/modules/
2.
- 清理Hadoop的目录,将hadoop/share/doc目录删除,节省磁盘空间, 通过这个命令查看df -h
3.
- 修改hadoop/etc/hadoop/hadoop-env.sh文件
- 修改hadoop/etc/hadoop/mapred-env.sh文件
- 修改hadoop/etc/hadoop/yarn-env.sh文件
- 指定Java安装路径
- export JAVA_HOME=/opt/modules/jdk1.7.0_67
4.
- 注意:
- Hadoop中的四个核心模块对应四个默认配置文件
- HDFS,Hadoop默认的文件系统,是文件系统的访问入口
- Namenode,所在的机器9000端口是早期Hadoop 1.x使用的,现在 Hadoop 2.x使用的是8020端口号用于节点直接内部通信,使用RPC通信机制
5.
- 修改hadoop/etc/hadoop/core-site.xml文件
-
- fs.defaultFS
-
- hdfs://bigdata-4:8020
-
-
- hadoop.tmp.dir
- /opt/modules/hadoop-2.5.0/data/tmp
-
6.
- 注意:
- /tmp表示临时存储目录,系统每次重启会按照脚本预先设置好的删 除 里面的文件重新自定义系统生成的文件路径,/tmp会被清空,无法保证数据文件安全性。
7.
- 修改hadoop/etc/hadoop/hdfs-site.xml文件
- 指定HDFS文件存储的副本数个数,默认是3个,这里是单台机器就设置为1,这个数字要小于datanode的节点数。
-
- dfs.replication
- 1
-
8.
- 修改hadoop/etc/hadoop/slaves文件
- bigdata-4
9.
- bin/hdfs namenode -format
10.
- 启动命令
- sbin/hadoop-daemon.sh start namenode
- sbin/hadoop-daemon.sh start datanode
11.
- 查看HDFS外部UI界面
- bigdata-04或者IP地址 跟上50070端口号,外部通信http dfs.namenode.http-address 50070
- http://bigdata-4:50070 (如果windows本地没有配置hosts,需要配置)
- 如果不能正确打开页面,请检查防火墙是否关闭
- 切换至root 用户,service iptables status
- 关闭防火墙 chkconfig iptables off
12.
- 测试HDFS环境
- 创建文件夹,HDFS中有用户主目录的概念,和Linux一样
- bin/hdfs dfs -mkdir -p wxt_test/iuput
13.
- 上传文件到HDFS(随便找一个文件上传就行)
- bin/hdfs dfs -put /opt/modules/hadoop-2.5.0/etc/hadoop/core-site.xml wxt_test/input/core-site.xml
- 上传成功,HDFS外部UI界面,会有上传的文件显示
14.
- 读取HDFS的文件
- bin/hdfs dfs -text /core-site.xml
- 终端会显示上传文件的内容。
15.
- 下载文件到本地(指定下载到哪里,同时可以重命名成get-site.xml)bin/hdfs dfs -get /core-site.xml /home/wxt/Desktop/get-site.xml然后你会看到这个文件,并且重命名于桌面。
Hadoop 伪分布式搭建至此结束。
名称栏目:Hadoop伪分布式搭建操作步骤指南
本文链接:http://www.mswzjz.com/qtweb/news38/164038.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
广告
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源:
创新互联