成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hadoop之完全分布式集群

開發 架構 分布式 Hadoop
首先準備三臺客戶機(hadoop102,hadoop103,hadoop104),關閉防火墻,修改為靜態ip和ip地址映射

 首先準備三臺客戶機(hadoop102,hadoop103,hadoop104),關閉防火墻,修改為靜態ip和ip地址映射

[[278009]]

配置集群

編寫集群分發腳本

  1. 創建一個遠程同步的腳本xsync,并放到當前用戶下新建的bin目錄下,配置到PATH中,使得此腳本在任何目錄下都可以執行
  2. 腳本實現
  1. [kocdaniel@hadoop102 ~]$ mkdir bin 
  2. [kocdaniel@hadoop102 ~]$ cd bin/ 
  3. [kocdaniel@hadoop102 bin]$ vim xsync 

在文件中編寫如下腳本代碼

  1. #!/bin/bash 
  2. #1 獲取輸入參數個數,如果沒有參數,直接退出 
  3. pcount=$# 
  4. if((pcount==0)); then 
  5. echo no args; 
  6. exit; 
  7. fi 
  8.  
  9. #2 獲取文件名稱 
  10. p1=$1 
  11. fname=`basename $p1` 
  12. echo fname=$fname 
  13.  
  14. #3 獲取上級目錄到絕對路徑 –P指向實際物理地址,防止軟連接 
  15. pdir=`cd -P $(dirname $p1); pwd` 
  16. echo pdir=$pdir 
  17.  
  18. #4 獲取當前用戶名稱 
  19. user=`whoami` 
  20.  
  21. #5 循環 
  22. for((host=103; host<105; host++)); do 
  23.         echo ------------------- hadoop$host -------------- 
  24.         rsync -rvl $pdir/$fname $user@hadoop$host:$pdir 
  25. done 
  1. 修改腳本xsync具有執行權限,并調用腳本,將腳本復制到103和104節點
  1. [kocdaniel@hadoop102 bin]$ chmod 777 xsync 
  2. [kocdaniel@hadoop102 bin]$ xsync /home/atguigu/bin 

集群配置

1.集群部署規劃

由于計算機配置有限,只能使用三臺虛擬機,工作環境中根據需要規劃集群

2.配置集群

切換到hadoop安裝目錄/etc/hadoop/

  • 配置core-site.xml
  1. [kocdaniel@hadoop102 hadoop]$ vim core-site.xml 
  2. # 在文件中寫入如下內容 
  3. <!-- 指定HDFS中NameNode的地址 --> 
  4. <property> 
  5.     <name>fs.defaultFS</name
  6.       <value>hdfs://hadoop102:9000</value> 
  7. </property> 
  8.  
  9. <!-- 指定Hadoop運行時產生文件的存儲目錄 --> 
  10. <property> 
  11.         <name>hadoop.tmp.dir</name
  12.         <value>/opt/module/hadoop-2.7.2/data/tmp</value> 
  13. </property>
  • HDFS配置文件

配置hadoop-env.sh

  1. [kocdaniel@hadoop102 hadoop]$ vim hadoop-env.sh 
  2. export JAVA_HOME=/opt/module/jdk1.8.0_144 

export JAVA_HOME=/opt/module/jdk1.8.0_144

注意:我們已經在/etc/profile文件中配置了JAVA_HOME,這里為什么還需要配置JAVA_HOME?

答:因為Hadoop運行是守護進程(守護進程是一個在后臺運行并且不受任何終端控制的進程。--摘自百度百科)),正是因為它后臺運行,不接受任何終端控制,所以它讀取不到我們配置好的環境變量,所以這里需要單獨配置一下。

  • 配置hdfs-site.xml
  1. [kocdaniel@hadoop102 hadoop]$ vim hdfs-site.xml 
  2. # 寫入如下配置 
  3. <!-- 配置副本數量為3,默認也為3,所以這個也可以刪掉 --> 
  4. <property> 
  5.         <name>dfs.replication</name
  6.         <value>3</value> 
  7. </property> 
  8.  
  9. <!-- 指定Hadoop輔助名稱節點主機配置 --> 
  10. <property> 
  11.       <name>dfs.namenode.secondary.http-address</name
  12.       <value>hadoop104:50090</value> 
  13. </property> 
  • YARN配置文件

配置yarn-env.sh

  1. [kocdaniel@hadoop102 hadoop]$ vim yarn-env.sh 
  2. export JAVA_HOME=/opt/module/jdk1.8.0_144 

配置yarn-site.xml

  1. [kocdaniel@hadoop102 hadoop]$ vi yarn-site.xml 
  2. # 增加如下配置 
  3. <!-- Reducer獲取數據的方式 --> 
  4. <property> 
  5.         <name>yarn.nodemanager.aux-services</name
  6.         <value>mapreduce_shuffle</value> 
  7. </property> 
  8.  
  9. <!-- 指定YARN的ResourceManager的地址 --> 
  10. <property> 
  11.         <name>yarn.resourcemanager.hostname</name
  12.         <value>hadoop103</value> 
  13. </property> 
  • MapReduce配置文件

配置mapred-env.sh

  1. [kocdaniel@hadoop102 hadoop]$ vim mapred-env.sh 
  2. export JAVA_HOME=/opt/module/jdk1.8.0_144 

配置mapred-site.xml

  1. # 如果是第一次配置的話,需要先將mapred-site.xml.template重命名為mapred-site.xml 
  2. [kocdaniel@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml 
  3. [kocdaniel@hadoop102 hadoop]$ vim mapred-site.xml 
  4. # 在文件中增加如下配置 
  5. <!-- 指定MR運行在Yarn上 --> 
  6. <property> 
  7.         <name>mapreduce.framework.name</name
  8.         <value>yarn</value> 
  9. </property> 

3.將配置好的文件利用集群分發腳本同步到hadoop103和hadoop104節點

  1. [kocdaniel@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/ 
  • 最好在同步完成之后檢查一下同步結果,避免錯誤

單點啟動

1.如果是第一次啟動,需要格式化namenode,否則跳過此步

  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop namenode -format 
  • 格式化需要注意的問題:
  1. 只有第一次啟動需要格式化,以后不要總是格式化,否則會出現namenode和datanode的集群id不一致的情況,導致datanode啟動失敗
  2. 正確的格式化姿勢:
  • 在執行第一次格式化時會在hadoop安裝目錄下產生data文件夾,里面會生成namenode的信息
  • 在啟動namenode和datanode后,還會在同樣的目錄下產生logs的日志文件夾
  • 所以在格式化之前需要先將這兩個文件夾刪除,然后再格式化,最后啟動namenode和datanode

2.在hadoop102上啟動namenode

  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode 
  2. [kocdaniel@hadoop102 hadoop-2.7.2]$ jps 
  3. 3461 NameNode 

3.在hadoop102、hadoop103以及hadoop104上分別啟動DataNode

  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode 
  2. [kocdaniel@hadoop102 hadoop-2.7.2]$ jps 
  3. 3461 NameNode 
  4. 3608 Jps 
  5. 3561 DataNode 
  6. [kocdaniel@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode 
  7. [kocdaniel@hadoop103 hadoop-2.7.2]$ jps 
  8. 3190 DataNode 
  9. 3279 Jps 
  10. [kocdaniel@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode 
  11. [kocdaniel@hadoop104 hadoop-2.7.2]$ jps 
  12. 3237 Jps 
  13. 3163 DataNode 

4.訪問hadoop102:50070查看結果

  • 但是以上單點啟動有一個問題:

每次都一個一個節點啟動,如果節點數增加到1000個怎么辦?

配置ssh免密登錄

1.配置ssh

ssh 另一個節點的ip 就可以切換到另一臺機器,但是得輸入密碼

2.免密ssh配置

免密登錄原理

  • 在配置namenode的主機hadoop102上生成私鑰和公鑰

切換目錄到/home/用戶名/.ssh/

  1. [kocdaniel@hadoop102 .ssh]$ ssh-keygen -t rsa 
  1. - 然后敲(三個回車),就會生成兩個文件id_rsa(私鑰)、id_rsa.pub(公鑰) 
  2.  - 將公鑰拷貝到要免密登錄的目標機器上 
  3.  
  4.  ```shell 
  5.  [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop103 
  6.  [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop104 
  7.  # 注意:ssh訪問自己也需要輸入密碼,所以我們需要將公鑰也拷貝給102 
  8.  [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop102 
  9.   
  10.  ``` 
  • 同樣,在配置resourcemanager的主機hadoop103上執行同樣的操作,然后就可以群起集群了

群起集群

1.配置slaves

  • 切換目錄到:hadoop安裝目錄/etc/hadoop/
  • 在目錄下的slaves文件中添加如下內容
  1. [kocdaniel@hadoop102 hadoop]$ vim slaves 
  2. # 注意結尾不能有空格,文件中不能有空行 
  3. hadoop102 
  4. hadoop103 
  5. hadoop104 
  • 同步所有節點的配置文件
  1. [kocdaniel@hadoop102 hadoop]$ xsync slaves 

2.啟動集群

  • 同樣,如果是第一次啟動,需要格式化
  • 啟動HDFS
  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh 
  2.  
  3. # 查看啟動結果,和集群規劃(配置文件中)的一致 
  4. [atguigu@hadoop102 hadoop-2.7.2]$ jps 
  5. 4166 NameNode 
  6. 4482 Jps 
  7. 4263 DataNode 
  8.  
  9. [atguigu@hadoop103 hadoop-2.7.2]$ jps 
  10. 3218 DataNode 
  11. 3288 Jps 
  12.  
  13. [atguigu@hadoop104 hadoop-2.7.2]$ jps 
  14. 3221 DataNode 
  15. 3283 SecondaryNameNode 
  16. 3364 Jps 
  • 啟動YARN
  1. # 注意:NameNode和ResourceManger如果不是同一臺機器,不能在NameNode上啟動 YARN,應該在ResouceManager所在的機器上啟動YARN 
  2. [kocdaniel@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh 

3.web端查看相關信息

責任編輯:華軒 來源: segmentfault
相關推薦

2020-09-08 13:25:52

HBase分布式數據庫

2017-08-10 10:17:32

Hadoop分布式搭建

2021-04-12 07:41:57

Centos7系統分布式集群

2012-09-19 14:09:20

Hadoop開源

2010-06-03 14:42:47

Hadoop分布式集群

2017-12-07 15:24:10

Hadoop大數據服務器

2014-07-15 11:15:44

hadoop分布式部署

2018-07-17 08:14:22

分布式分布式鎖方位

2017-02-28 09:48:30

2017-09-11 15:17:01

分布式集群負載均衡

2022-10-19 08:39:46

?可?分布式集群

2022-03-29 23:17:52

PostgreSQL集群Citus

2010-06-03 19:46:44

Hadoop

2010-06-04 18:45:43

Hadoop分布式文件

2018-11-15 12:35:25

Ceph分布式存儲

2025-06-13 07:30:51

2020-07-15 09:20:48

MyCatMySQL分布式

2022-03-21 19:44:30

CitusPostgreSQ執行器

2022-03-06 21:43:05

Citus架構PostgreSQL

2019-02-13 13:41:07

MemCache分布式HashMap
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91一区二区 | 欧美男人天堂 | 成年人在线观看视频 | 国产精品一区二区三区在线 | 国产三级在线观看播放 | 天天天操天天天干 | av网站在线播放 | 国产农村妇女毛片精品久久麻豆 | 中文字幕一区二区在线观看 | 久草在线 | 国产精品一区二区不卡 | 色一阁 | 国产三区视频在线观看 | 欧美一级艳情片免费观看 | 国产精品成人av | 国产美女永久免费无遮挡 | 日韩视频一区二区三区 | 一区二区免费 | 亚洲精品久久久久中文字幕欢迎你 | 国产精品久久久久aaaa樱花 | 亚洲第一区久久 | 91传媒在线观看 | 亚洲视频一区在线观看 | 午夜免费影视 | 我我色综合 | 国产成人网 | 黄色a级一级片 | 欧美日韩综合一区 | 天天艹天天干天天 | 密室大逃脱第六季大神版在线观看 | 午夜黄色影院 | 久久精品国产99国产精品 | 久久视频精品 | 97国产精品 | 久久综合伊人 | 国产午夜精品一区二区三区四区 | 日韩中文字幕2019 | 一级黄色片网址 | 成人久久| 国产一区在线免费观看视频 | 免费看国产精品视频 |