成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數據 Hadoop 環境搭建圖文詳解

系統 OpenHarmony
本篇使用大數據 Hadoop 2.7.2環境搭建,希望能夠幫助到你!

??想了解更多關于開源的內容,請訪問:??

??51CTO 開源基礎軟件社區??

??https://ost.51cto.com??

一、虛擬機環境準備

1、虛擬機網絡模式設置為 NAT

點擊 “編輯虛擬機設置”。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

點擊 “網絡適配器” → “NAT模式” 即可。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

2、克隆虛擬機

右鍵需要克隆的虛擬機 → 管理 → 克隆。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

選擇“虛擬機中的當前狀態”,點擊下一步。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

選擇“創建完整克隆”,點擊下一步。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

更改虛擬機名稱以及位置,點擊下一步。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

創建完成后關閉即可。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

3、修改虛擬機為靜態 IP

查看虛擬網卡信息。

輸入 ifconfig ,看到可以正常使用的網卡以及相關信息。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

可以看到我們這里的網卡是 ens33。

查看網關。

在 VMware 中的虛擬網絡編輯器中可以看到。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

修改網卡配置。

輸入以下命令,即可編寫網卡配置。

vim /etc/sysconfig/network-scripts/ifcfg-網卡名

我這里的網卡名是 ens33,則命令如下:

vim /etc/sysconfig/network-scripts/ifcfg-ens33

把有的部分注釋掉,沒有的部分在最后加上。

# 要配制的部分
BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.182.128 #IP地址
NETMASK=255.255.255.0 #子網掩碼
NETWORK=192.168.0.0

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

修改網關配置。

輸入以下命令,編寫網關配置。

vim /etc/sysconfig/network

編寫以下內容。

NETWORKING=yes
GATEWAY=192.168.182.2 #網關

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

修改 DNS 配置。

輸入以下內容,編寫 DNS 配置。

vim /etc/resolv.conf

編寫以下內容。

search localdomain
nameserver 8.8.8.8
nameserver 192.168.182.2

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

重啟網絡服務。

service network restart

4、修改主機名

查看本機主機名

查看本機主機名使用 hostname 即可。

hostname

修改主機名(CentOS 7)。

使用下面的命令修改主機名。

hostnamectl set-hostname 主機名

示例:

hostnamectl set-hostname node1

修改主機名(通用,CentOS7 與 非 CentOS7)。

NETWORKING=yes
NETWORKING_IPV6=no
GATEWAY=192.168.182.2 #網關
HOSTNAME=node1 #主機名

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

修改 CentOS 的 hosts。

使用下面的命令編輯 hosts。

vim /etc/hosts

在每個虛擬機的 hosts 文件后面增加自己所安裝的虛擬機的 IP 地址以及主機名。

192.168.182.133 master
192.168.182.128 node1
192.168.182.129 node2

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

將 hosts 文件拷貝到 node1 和 node2 節點命令:

scp /etc/hosts node1:/etc/hosts  # 拷貝到 node1
scp /etc/hosts node2:/etc/hosts # 拷貝到 node2

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

修改 Windows 的 hosts。

進入 C:\Windows\System32\drivers\etc 路徑。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

打開 hosts 文件,填寫如下內容:

192.168.182.133 master
192.168.182.128 node1
192.168.182.129 node2

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

保存文件,如果不行的話可以先移出來,再移回去。

5、關閉防火墻

查看防火墻狀態。

systemctl status firewalld.service

綠的running表示防火墻開啟。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

關閉防火墻。

systemctl stop firewalld.service

或:

service iptables stop

開機禁用防火墻自啟。

systemctl disable firewalld.service

或:

chkconfig iptables off

啟動防火墻。

systemctl start firewalld.service

防火墻隨系統開啟啟動。

systemctl enable firewalld.service

6、設置 ssh 免密??碼登錄(只在 Master 這臺主機操作)

生成密鑰并拷貝到子節點。

主節點執行命令 ssh-keygen -t rsa 產生密鑰,一直回車執行命令。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

將密鑰拷貝到其他兩個子節點,命令如下:

ssh-copy-id -i node1
ssh-copy-id -i node2

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

實現主節點 master 本地免密??碼登錄。

首先進入到 /root 命令:

cd /root

在進入到 ./.ssh 目錄下:

cd ./.ssh/

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

將公鑰寫入本地執行命令:

cat ./id_rsa.pub>> ./authorized_keys

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

二、用戶及文件權限配置

1、創建用戶

adduser atguigu  #添加用戶
passwd atguigu #修改密??碼

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

2、配置用戶具有 root 權限

輸入以下命令進行配置:

vi /etc/sudoers

配置 atguigu 用戶的信息:

## Allow root to run any commands anywhere
root ALL=(ALL) ALL
atguigu ALL=(ALL) ALL

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

3、在 /opt 目錄下創建文件夾

在 /opt 目錄下創建 module、software 文件夾。

mkdir module  # 創建 module 文件夾
mkdir software # 創建 software 文件夾

修改 module、software 文件夾的所有者 cd。

chown atguigu:atguigu module
chown atguigu:atguigu software

查看文件歸屬。

ls -al

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

三、JDK 安裝

1、卸載現有 jdk

查詢是否安裝 Java。

rpm -qa|grep java

如果安裝的版本低于 1.7,則卸載該 jdk。

sudo rpm -e 軟件包

2、將 jdk、Hadoop 導入到 opt 目錄的 software 文件夾下

導入 jdk 安裝包。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

導入 Hadoop 安裝包。

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

3、查看軟件包是否導入成功

cd software/
ls

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

4、解壓 jdk 到 /opt/module 目錄下

tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/

5、配置 jdk 環境變量

獲取 jdk 路徑。

進入 jdk 的解壓路徑,輸入以下命令即可查看 jdk 路徑:

pwd

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

打開 /etc/profile 文件:

輸入以下命令打開 profile 文件。

sudo vi /etc/profile

輸入以下命令配置 Java 環境變量。

export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin

保存退出。

配置 jdk 環境生效。

source  /etc/profile

測試 jdk 是否安裝成功。

java -version

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

重啟(如果 java -version 可以用就不用重啟)。

sync
sudo reboot

四、Hadoop 安裝(master 主機)

1、進入 Hadoop 安裝包路徑下

cd /opt/software/

2、解壓安裝文件到 /opt/module 目錄下

tar -zxf hadoop-2.7.2.tar.gz -C /opt/module/

3、查看是否解壓成功

ls /opt/module/

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

4、將 Hadoop 添加到環境變量下

獲取 Hadoop 安裝路徑。

進入 Hadoop 路徑,輸入以下命令查看 Hadoop 安裝路徑。

pwd

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

打開 /etc/profile 文件。

使用 vim 打開 profile 文件。

sudo vi /etc/profile

編輯 Hadoop 環境。

##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

保存退出。

Hadoop 環境生效。

source /etc/profile

測試 Hadoop 是否安裝成功。

hadoop version

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

重啟(如果 hadoop version 可以用就不用重啟)。

sync
sudo reboot

5、修改 Hadoop 相關配置文件

(1) 修改 Hadoop 的 slaves 文件

進入 /opt/module/hadoop-2.7.2/etc/hadoop 目錄。

cd /opt/module/hadoop-2.7.2/etc/hadoop

修改該目錄下的 slaves 文件。

使用 vim 編輯 slaves 文件。

vim slaves

刪除原來的內容,修改為如下內容。

node1
node2

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

(2) 修改 Hadoop 的 hadoop-env.sh 文件

進入 /opt/module/hadoop-2.7.2/etc/hadoop 目錄。

cd /opt/module/hadoop-2.7.2/etc/hadoop

修改該目錄下的 hadoop-env.sh 文件。

添加 JAVA_HOME 路徑:

export JAVA_HOME=/opt/module/jdk1.8.0_144

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

(3) 修改 Hadoop 的 core-site.xml 文件

進入 /opt/module/hadoop-2.7.2/etc/hadoop 目錄。

cd /opt/module/hadoop-2.7.2/etc/hadoop

修改該目錄下的 core-site.xml 文件。

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/tmp</value>
</property>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
</configuration>

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

(4) 修改 Hadoop 的 hdfs-site.xml 文件

進入 /opt/module/hadoop-2.7.2/etc/hadoop 目錄。

cd /opt/module/hadoop-2.7.2/etc/hadoop

修改該目錄下的 hdfs-site.xml 文件。

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

(5) 修改 Hadoop 的 yarn-site.xml 文件

進入 /opt/module/hadoop-2.7.2/etc/hadoop 目錄。

cd /opt/module/hadoop-2.7.2/etc/hadoop

修改該目錄下的 yarn-site.xml 文件。

<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
</configuration>

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

(6) 修改 Hadoop 的 mapred-site.xml 文件

進入 /opt/module/hadoop-2.7.2/etc/hadoop 目錄。

cd /opt/module/hadoop-2.7.2/etc/hadoop

復制 mapred-site.xml.template 為 mapred-site.xml。

cp mapred-site.xml.template mapred-site.xml

修改該目錄下的 mapred-site.xml 文件。

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

(7) 復制 Hadoop 的安裝目錄到其它子節點

scp -r /opt/module/hadoop-2.7.2 node1:/opt/module/hadoop-2.7.2
scp -r /opt/module/hadoop-2.7.2 node2:/opt/module/hadoop-2.7.2

6、驗證(啟動 Hadoop)

首先看下 hadoop-2.7.2 目錄下有沒有 tmp 文件夾。 如果沒有執行一次格式化命令:

cd /opt/module/hadoop-2.7.2  #進入 hadoop 安裝目錄
./bin/hdfs namenode -format # 格式化命令

執行完格式化命令會生成 tmp 文件。

啟動 Hadoop。

輸入以下命令啟動 Hadoop。

cd /opt/module/hadoop-2.7.2  #進入 hadoop 安裝目錄
./sbin/start-all.sh #啟動程序

驗證主節點進程。

輸入以下命令查看進程:

jps  #顯示所有 java 進程 pid

主節點進程

  • ResourceManager
  • NameNode
  • SecondaryNameNode

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

子節點進程

  • DataNode
  • NodeManager

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

④ 驗證 HDFS:

瀏覽器登錄地址:192.168.182.133:50070(ip 地址是 master 節點的地址)。

出現以下界面則證明 HDFS 安裝成功:

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

剛搭建完成,什么都沒有。

PS:

如果第一次啟動失敗了,請重新檢查配置文件或者哪里步驟少了。 再次重啟的時候 需要手動將每個節點的 tmp 目錄刪除:

rm -rf /opt/module/hadoop-2.7.2/tmp

然后在<font color=“red”>主節點</font>執行以下命令格式化 namenode。

./bin/hdfs namenode -format

#打卡不停更# 大數據 Hadoop 環境搭建圖文詳解-開源基礎軟件社區

文章相關附件可以點擊下面的原文鏈接前往下載:

https://ost.51cto.com/resource/2334。

??想了解更多關于開源的內容,請訪問:??

??51CTO 開源基礎軟件社區??

??https://ost.51cto.com??。

責任編輯:jianghua
相關推薦

2017-05-11 11:00:11

大數據Hadoop數據處理

2011-08-31 13:11:53

AndroidPhoneGap

2020-11-24 10:40:12

Ubuntu 20.0LinuxVue

2010-06-04 17:43:12

Hadoop集群搭建

2017-03-09 14:45:13

DIY Hadoop大數據環境

2017-05-05 09:53:34

Hadoop大數據處理

2022-07-20 15:10:38

Docker大數據平臺

2016-12-20 18:21:29

Hadoop大數據面試

2018-07-10 15:15:11

2010-06-04 16:17:02

2011-07-19 16:34:01

Xcode 證書

2020-04-01 11:11:35

Hadoop運行環境分布式

2017-12-07 15:24:10

Hadoop大數據服務器

2017-05-11 17:36:50

2017-04-10 08:56:46

Hadoop環境數據存儲技巧

2012-05-15 14:00:51

WP7開發環境

2020-09-22 18:01:22

SparkStandalone運行

2012-11-01 17:15:04

2011-08-25 15:02:17

Lua環境搭建EditPlus

2013-04-12 10:56:31

大數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一区二区三区视频在线 | 国产精品久久久久久久久 | 日日天天 | 亚洲电影专区 | 国产永久免费 | 婷婷激情五月网 | 91传媒在线播放 | 欧美黄在线观看 | 国产在线精品一区二区三区 | 国产69久久精品成人看动漫 | 精品视频免费 | 国产一区二区三区四区三区四 | 亚洲三级视频 | 欧美一级黄视频 | 久久麻豆精品 | 四虎影视免费在线 | 欧美日韩免费 | 国产极品粉嫩美女呻吟在线看人 | 九色在线视频 | 欧美一级二级三级 | 狠狠涩 | 国产综合久久 | 久久综合香蕉 | aaa国产大片 | 亚洲国产精品久久 | 精品视频一区二区三区在线观看 | 9999精品视频| 国产我和子的乱视频网站 | 91亚洲精选| 午夜av一区二区 | 中文字幕三区 | 欧美久久天堂 | 亚洲精品一区二区三区在线 | 久久久日韩精品一区二区三区 | 一级片av| 毛片一区二区三区 | 亚洲免费在线观看 | a视频在线观看 | 在线超碰 | 91久久久www播放日本观看 | 作爱视频免费看 |