成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hadoop集群搭建

系統 Linux Hadoop
本文主要像大家介紹有關Hadoop集群搭建,從配置環境到簡單的命令啟動一一進行了講解。希望對于想接觸hadoop的你有所幫助。

首先說一下配置環境:三臺電腦

192.168.30.149 hadoop149 namenode和jobtracker ###因為149機器稍微好一點

  1. 192.168.30.150  hadoop150 datanode和TaskTracker  
  2. 192.168.30.148  hadoop150 datanode和TaskTracker  

配置ssh無需密碼登陸:

 
  1. $ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  
  2. $ cat~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  
 
  1. 我的master在149可以吧149的.pub文件拷貝到150和148上 然后執行
 

我用的hadoop版本是hadoop-0.20.2 下載地址:

 

 
  1. google吧 過兩天弄個網盤都放在上面再寫到這里。

    下載后:編輯幾個文件:

    在/root/hadoop-0.20.2/conf中(這里注意的是幾臺電腦的hadoop文件路徑必須相同):加入如下一句話

       [root@localhostconf]# vim 

 

   [root@localhostconf]# vim core-site.xml 

 

 
  1. fs.default.name  
  2. hdfs://192.168.30.149:9000 ###具體的意義之后會講解  

[root@localhostconf]# vim mapred-site.xml 

mapred.job.tracker   #p#

  • hdfs://192.168.30.149:9004  

[root@localhostconf]# vim hdfs-site.xml

 

 
  1. dfs.replication  
  2. 2  

[root@localhostconf]# vim masters 

 

 
  1. hadoop149   

 

[root@localhostconf]# vim slaves 

 

 
  1. hadoop150  
  2. hadoop148  

 

一共編輯了5個文件,具體意義代表什么,之后會講到

這里注意要被指/etc/hosts文件,如下(192.168.30.149):

         [root@localhostconf]# vim /etc/hosts

 
  1. # Do not removethe following line, or various programs  
  2. # that requirenetwork functionality will fail.  
  3. 127.0.0.1               localhost.localdomain localhost  
  4. ::1             localhost6.localdomain6 localhost6  
  5.           
  6. 192.168.30.149hadoop149  
  7. 192.168.30.150hadoop150  
  8. 192.168.30.148hadoop148   
     

#p#

4.啟動hadoop:

這里用簡單的命令進行啟動,

         A.格式化文件系統:                 

 
  1. #bin/hadoop namenode –format  

         B.啟動hadoop         #bin/start-all.sh  

         C.利用hadoop自帶的例子測試hadoop是否啟動成功                  

 
  1. #bin/hadoop fs -mkdir input     ###在文件系統中創建input文件夾  
  2. #bin/hadoopfs -put README.txt input    ###把本地readme.txt上傳到input中  
  3. #bin/hadoop fs –lsr            ###查看本件系統所有文件  
  4.     存在文件并且大小不為0則hadoop文件系統搭建成功。  
  5. #bin/hadoopjar hadoop-0.20.2-examples.jar wordcount input/README.txt output  
  6.                                                                                     ###將輸出結果輸出到output中  
  7. #bin/hadoop jar hadoop-0.20.2-examples.jar wordcount input/1.txt output  

11/12/02 17:47:14 INFOinput.FileInputFormat: Total input paths to process : 1

11/12/02 17:47:14 INFO mapred.JobClient:Running job: job_201112021743_0001

11/12/02 17:47:15 INFOmapred.JobClient:  map 0% reduce 0%

11/12/02 17:47:22 INFOmapred.JobClient:  map 100% reduce 0%

11/12/02 17:47:34 INFOmapred.JobClient:  map 100% reduce 100%

11/12/02 17:47:36 INFO mapred.JobClient:Job complete: job_201112021743_0001

11/12/02 17:47:36 INFO mapred.JobClient:Counters: 17

11/12/02 17:47:36 INFOmapred.JobClient:   Job Counters

11/12/02 17:47:36 INFOmapred.JobClient:     Launched reducetasks=1

11/12/02 17:47:36 INFOmapred.JobClient:     Launched maptasks=1

11/12/02 17:47:36 INFOmapred.JobClient:     Data-local maptasks=1

11/12/02 17:47:36 INFOmapred.JobClient:   FileSystemCounters

11/12/02 17:47:36 INFOmapred.JobClient:    FILE_BYTES_READ=32523

11/12/02 17:47:36 INFOmapred.JobClient:    HDFS_BYTES_READ=44253

11/12/02 17:47:36 INFOmapred.JobClient:    FILE_BYTES_WRITTEN=65078

11/12/02 17:47:36 INFOmapred.JobClient:    HDFS_BYTES_WRITTEN=23148

11/12/02 17:47:36 INFOmapred.JobClient:   Map-Reduce Framework

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce inputgroups=2367

11/12/02 17:47:36 INFOmapred.JobClient:     Combine outputrecords=2367

11/12/02 17:47:36 INFOmapred.JobClient:     Map inputrecords=734

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce shufflebytes=32523

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce outputrecords=2367

11/12/02 17:47:36 INFO mapred.JobClient:     Spilled Records=4734

11/12/02 17:47:36 INFOmapred.JobClient:     Map outputbytes=73334

11/12/02 17:47:36 INFOmapred.JobClient:     Combine inputrecords=7508

11/12/02 17:47:36 INFOmapred.JobClient:     Map outputrecords=7508

11/12/02 17:47:36 INFOmapred.JobClient:     Reduce inputrecords=2367 

也可以通過本地瀏覽器進行查看狀態:50070和50030端口(注意配置本地C:\Windows\System32\drivers\etc\hosts文件)

 
  1. 192.168.30.150      hadoop150  
  2. 192.168.30.149      hadoop149  
  3. 192.168.30.148      hadoop148  

【編輯推薦】

  1. 雅虎對Apache Hadoop到底做了什么
  2. SQL Server Hadoop:開拓大數據新疆域
  3. Hadoop人才需求高漲 你準備好了嗎?
責任編輯:Yeva 來源: linuxeden.com
相關推薦

2016-10-27 09:37:10

Hadoop集群配置

2010-06-04 18:17:50

Hadoop集群

2010-06-03 19:02:31

Hadoop集群搭建

2014-03-17 10:05:45

Hadoop集群

2021-04-19 08:52:58

Hadoop集群搭建Python

2010-06-04 18:06:22

Hadoop集群搭建

2012-11-01 17:15:04

2017-08-10 10:17:32

Hadoop分布式搭建

2016-01-07 09:36:20

Docker容器

2012-09-13 13:26:40

Hadoop集群

2015-05-27 10:29:41

DockerHadoopHadoop集群

2010-06-04 17:43:12

Hadoop集群搭建

2017-12-07 15:24:10

Hadoop大數據服務器

2017-05-11 17:36:50

2010-05-24 14:59:29

Hadoop集群

2017-02-28 09:48:30

2012-09-10 15:18:11

云梯淘寶大數據

2020-12-14 12:48:51

Kafka集群節點

2015-05-06 13:34:14

MySQL集群搭建

2022-09-15 08:31:11

主從復制模式Docker
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91精品久久久久久久久 | 伊人在线| 国内精品视频在线观看 | 色片在线观看 | 久久黄色| 亚洲va国产日韩欧美精品色婷婷 | 九色国产 | 国产日韩中文字幕 | 91日日 | 国产乱码精品一区二三赶尸艳谈 | 国产一区二区小视频 | 99久久免费精品国产男女高不卡 | 国产精品一区在线观看 | 碰碰视频 | av大全在线观看 | 国产欧美性成人精品午夜 | 色播99| 激情在线视频网站 | 日韩精品一区二区三区久久 | 亚洲视频在线观看 | 成人在线小视频 | 欧一区二区 | 黄色片视频 | 欧美成人精品一区二区男人看 | 久久久久久国产精品 | 国内精品久久久久久久影视简单 | 国产精品久久久久久久久动漫 | 欧美一区二区三区在线播放 | 欧美日韩国产在线观看 | 日韩福利在线观看 | 精品欧美一区二区三区久久久 | 老司机狠狠爱 | 午夜精品久久久久久久久久久久 | 一区二区三区成人 | 成人在线h| 久久久99国产精品免费 | 国产亚洲精品精品国产亚洲综合 | 超碰日本| 狠狠干2020 | 理论片87福利理论电影 | 国产精品资源在线观看 |