Centos7搭建Hadoop集群(V3.3.4)
创始人
2024-05-20 08:01:08
0

Centos7搭建Hadoop集群V3.3.4

  • 一、准备工作
    • 1、配置hostname
    • 2、hosts映射
    • 3、关闭防火墙
    • 4、同步时间
    • 5、关闭selinux
    • 6、配置ssh免密登陆
    • 7、重启
  • 二、安装所需环境
    • 1、jdk安装
    • 2、hadoop安装
  • 三、修改配置
    • hadoop-env.sh
    • core-site.xml
    • hdfs-site.xml
    • mapred-site.xml
    • yarn-site.xml
    • workers
  • 四、初始化并启动
    • 1、初始化
    • 2、启动
  • 五、测试hdfs

本次安装Hadoop版本为3.3.4
安装规划(3台机器)

node01 :192.168.117.20     NameNode DataNode
node02 :192.168.117.21     DataNode
node03 :192.168.117.22     DataNode SecondaryNameNode

一、准备工作

1、配置hostname

hostname分别为node01,node02,node03

# 三台机器分别执行
hostnamectl set-hostname node01
hostnamectl set-hostname node02
hostnamectl set-hostname node03

在这里插入图片描述

2、hosts映射

# 三台机器均要执行
vim /etc/hosts
192.168.117.20 node01
192.168.117.21 node02
192.168.117.22 node03

3、关闭防火墙

systemctl stop firewalld.service
systemctl disable firewalld.service

4、同步时间

yum install ntpdate
ntpdate ntp5.aliyun.com

在这里插入图片描述

5、关闭selinux

vim /etc/selinux/config
修改为 SELINUX=disabled

在这里插入图片描述

6、配置ssh免密登陆

# 三台机器均执行一下命令
ssh-keygen -t rsa
# 将每台机器的公钥拷贝给每台机器
ssh-copy-id node01
ssh-copy-id node02
ssh-copy-id node03

测试
在这里插入图片描述

7、重启

reboot

二、安装所需环境

1、jdk安装

# 三台机器均执行
cd /etc/profile.d
vim jdk.sh
# 写入内容
export JAVA_HOME=/opt/button/jdk
export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/
export PATH=$PATH:$JAVA_HOME/bin
# 使配置生效
source /etc/profile

验证

java -version

在这里插入图片描述

2、hadoop安装

下载安装包
配置环境变量

# 三台机器均执行
vim /etc/profile.d/hadoop.sh
# 写入内容
export HADOOP_HOME=/opt/button/hadoop/hadoop-3.3.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# 使配置生效
source /etc/profile

验证

hadoop version

在这里插入图片描述
创建hadoop数据目录:

mkdir /opt/button/hadoop/data
cd /opt/button/hadoop
chmod -R 777 ./data/

三、修改配置

配置位于hadoop解压目录etc/hadoop目录下,三台机器配置保持一致
在这里插入图片描述

hadoop-env.sh

vim hadoop-env.sh
# jdk修改为自己的路径
export JAVA_HOME=/opt/button/jdk

core-site.xml


fs.defaultFShdfs://node01:9000

hadoop.tmp.dir/opt/button/hadoop/data


hadoop.http.staticuser.userroot
 

fs.trash.interval1440

hdfs-site.xml

dfs.replication3

dfs.namenode.secondary.http-addressnode03:50090

dfs.name.dir/opt/button/hadoop/data/

dfs.data.dir/opt/button/hadoop/data/

mapred-site.xml

mapreduce.framework.nameyarn

yarn-site.xml

yarn.nodemanager.aux-servicesmapreduce_shuffle


yarn.resourcemanager.hostnamenode01


yarn.nodemanager.pmem-check-enabledfalse

yarn.nodemanager.vmem-check-enabledfalse

workers

vim workers
# 写入如下内容
node01
node02
node03

四、初始化并启动

1、初始化

如果第一次启动集群需格式化NameNode,三个节点都操作

hdfs namenode –format

注:如果不是第一次,需要先执行stop-all.sh,然后删除data与logs中的文件再执行初始化命令

2、启动

在node01节点上的sbin目录找到start-all.sh并执行即可
在这里插入图片描述
执行如下操作解决此问题

vim /etc/profile.d/my_env.sh
# 添加如下内容
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
# 使配置生效
source /etc/profile

重新执行start-all.sh
在这里插入图片描述
查看启动的服务
在这里插入图片描述
NameNode默认端口9870
http://192.168.117.20:9870/
在这里插入图片描述
ResourceManager默认端口8088
在这里插入图片描述

五、测试hdfs

hadoop fs -mkdir /hfile
hadoop fs -put input.txt /hfile
hadoop fs -ls /hfile

在这里插入图片描述

相关内容

热门资讯

保存时出现了1个错误,导致这篇... 当保存文章时出现错误时,可以通过以下步骤解决问题:查看错误信息:查看错误提示信息可以帮助我们了解具体...
汇川伺服电机位置控制模式参数配... 1. 基本控制参数设置 1)设置位置控制模式   2)绝对值位置线性模...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
表格中数据未显示 当表格中的数据未显示时,可能是由于以下几个原因导致的:HTML代码问题:检查表格的HTML代码是否正...
本地主机上的图像未显示 问题描述:在本地主机上显示图像时,图像未能正常显示。解决方法:以下是一些可能的解决方法,具体取决于问...
不一致的条件格式 要解决不一致的条件格式问题,可以按照以下步骤进行:确定条件格式的规则:首先,需要明确条件格式的规则是...
表格列调整大小出现问题 问题描述:表格列调整大小出现问题,无法正常调整列宽。解决方法:检查表格的布局方式是否正确。确保表格使...
Android|无法访问或保存... 这个问题可能是由于权限设置不正确导致的。您需要在应用程序清单文件中添加以下代码来请求适当的权限:此外...
【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...