成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Python pyspider的安裝與開發

開發 后端
PySpider是一個國人編寫的強大的網絡爬蟲系統并帶有強大的WebUI。采用Python語言編寫,分布式架構,支持多種數據庫后端,強大的WebUI支持腳本編輯器、任務監視器,項目管理器以及結果查看器。

PySpider 簡介

PySpider是一個國人編寫的強大的網絡爬蟲系統并帶有強大的WebUI。采用Python語言編寫,分布式架構,支持多種數據庫后端,強大的WebUI支持腳本編輯器、任務監視器,項目管理器以及結果查看器。

PySpider 來源于以前做的一個垂直搜索引擎使用的爬蟲后端。我們需要從200個站點(由于站點失效,不是都同時啦,同時有100+在跑吧)采集數據,并要求在5分鐘內將對方網站的更新更新到庫中。所以,靈活的抓取控制是必須的。

同時,由于100個站點,每天都可能會有站點失效或者改版,所以需要能夠監控模板失效,以及查看抓取狀態。

為了達到5分鐘更新,我們使用抓取最近更新頁上面的最后更新時間,以此來判斷頁面是否需要再次抓取。

可見,這個項目對于爬蟲的監控和調度要求是非常高的。

PySpider 特性

python 腳本控制,可以用任何你喜歡的html解析包(內置 pyquery)

WEB 界面編寫調試腳本、起停腳本、監控執行狀態,查看活動歷史,獲取結果產出

數據存儲支持MySQL、MongoDB、Redis、SQLite、 ElasticSearch; PostgreSQL 及 SQLAlchemy

隊列服務支持RabbitMQ、Beanstalk、Redis、Kombu

支持抓取 JavaScript 的頁面

組件可替換,支持單機/分布式部署,支持 Docker 部署

強大的調度控制,支持超時重爬及優先級設置

支持Python 2.{6, 7}, 3.{3, 4, 5, 6}

PySpider 安裝

1) pip 安裝

pip可以在以下版本的CPython下運行:2.6, 2.7, 3.1, 3.2, 3.3, 3.4 和 pypy.

pip可以在Unix/Linux、Mac OS X、Windows系統中運行.

a)腳本安裝

python get-pip.py

如果 setuptools (或 distribute) 未安裝, get-pip.py

會 自動為你安裝 setuptools

如果需要升級 setuptools (或 distribute),運行 pip install -U setuptools

b)命令安裝

sudo apt-get install python-pip // Debian、Ubuntu

sudo yum install python-pip // CentOS、Redhat、Fedora

2)PhantomJS 安裝

PhantomJS 是一個基于 WebKit 的服務器端 JavaScript API。它全面支持web而不需瀏覽器支持,其快速、原生支持各種Web標準:DOM 處理、CSS 選擇器、JSON、Canvas 和 SVG。 PhantomJS 可以用于頁面自動化、網絡監測、網頁截屏以及無界面測試等。支持Windows、Linux、Mac OS X等多操作系統。

PhantomJS 下載:http://phantomjs.org/download.html

PhantomJS不需要安裝,解壓后,配置環境變量后,便可直接使用,詳見 PhantomJS 安裝與開發

PhantomJS 安裝命令:

sudo apt-get install phantomjs // Debian、Ubuntu

sudo pkg install phantomjs // FreeBSD

brew install phantomjs // Mac OS X

3)PySpider 安裝

PySpider 安裝的依賴包 requirements.txt

  1. Flask>=0.10 
  2. Jinja2>=2.7 
  3. chardet>=2.2 
  4. cssselect>=0.9 
  5. lxml 
  6. pycurl 
  7. pyquery 
  8. requests>=2.2 
  9. tornado>=3.2 
  10. mysql-connector-python>=1.2.2 
  11. pika>=0.9.14 
  12. pymongo>=2.7.2 
  13. unittest2>=0.5.1 
  14. Flask-Login>=0.2.11 
  15. u-msgpack-python>=1.6 
  16. click>=3.3 
  17. SQLAlchemy>=0.9.7 
  18. six>=1.5.0 
  19. amqp>=1.3.0,<2.0 
  20. redis 
  21. redis-py-cluster 
  22. kombu 
  23. psycopg2 
  24. elasticsearch 
  25. tblib  

PySpider 安裝命令:

  1. pip install pyspider 

Ubuntu 用戶,請提前安裝好以下支持類庫:

  1. sudo apt-get install python python-dev python-distribute python-pip libcurl4-openssl-dev libxml2-dev libxslt1-dev python-lxml 

4)驗證安裝成功

控制臺輸入命令:

  1. pyspider all 

使用瀏覽器訪問 http://localhost:5000 

 

 

 

正常出現 PySpider 的頁面,那證明一切 OK

PySpider 示例

1)示例1:爬取米撲科技首頁(mimvp.com)

  1. #!/usr/bin/env python 
  2. # -*- encoding: utf-8 -*- 
  3. # Created on 2017-07-28 13:44:53 
  4. # Project: pyspiderdemo 
  5. # mimvp.com 
  6.   
  7. from pyspider.libs.base_handler import * 
  8.   
  9.   
  10. class Handler(BaseHandler): 
  11.     crawl_config = { 
  12.     } 
  13.   
  14.     @every(minutes=24 * 60) 
  15.     def on_start(self): 
  16.         self.crawl('mimvp.com', callback=self.index_page) 
  17.   
  18.     @config(age=10 * 24 * 60 * 60) 
  19.     def index_page(self, response): 
  20.         for each in response.doc('a[href^="http"]').items(): 
  21.             self.crawl(each.attr.href, callback=self.detail_page) 
  22.   
  23.     @config(priority=2) 
  24.     def detail_page(self, response): 
  25.         return { 
  26.             "url": response.url, 
  27.             "title": response.doc('title').text(), 
  28.         }  

運行結果: 

 

 

 

2)示例2:設置代理爬取網頁

PySpider 支持使用代理爬取網頁,其使用代理有兩種方式:

方式1:

--phantomjs-proxy TEXT phantomjs proxy ip:port

啟動命令例如:

pyspider --phantomjs-proxy "188.226.141.217:8080" all

方式2:

設置代理全局變量,如下圖:

crawl_config = { 'proxy' : '188.226.141.217:8080'}

示例代碼:

  1. #!/usr/bin/env python 
  2. # -*- encoding: utf-8 -*- 
  3. # Created on 2017-07-28 14:13:14 
  4. # Project: mimvp_proxy_pyspider 
  5. # mimvp.com 
  6.   
  7. from pyspider.libs.base_handler import * 
  8.   
  9.   
  10. class Handler(BaseHandler): 
  11.     crawl_config = { 
  12.         'proxy' : 'http://188.226.141.217:8080',     # http 
  13.         'proxy' : 'https://182.253.32.65:3128'      # https 
  14.     } 
  15.   
  16.     @every(minutes=24 * 60) 
  17.     def on_start(self): 
  18.         self.crawl('http://proxy.mimvp.com/exist.php', callback=self.index_page) 
  19.   
  20.     @config(age=10 * 24 * 60 * 60) 
  21.     def index_page(self, response): 
  22.         for each in response.doc('a[href^="http"]').items(): 
  23.             self.crawl(each.attr.href, callback=self.detail_page) 
  24.   
  25.     @config(priority=2) 
  26.     def detail_page(self, response): 
  27.         return { 
  28.             "url": response.url, 
  29.             "title": response.doc('title').text(), 
  30.         }  

運行結果: 

 

責任編輯:龐桂玉 來源: segmentfault
相關推薦

2017-05-12 18:00:44

pyspiderAJAXHTTP

2013-07-17 15:39:39

Github詳解

2011-05-25 15:17:39

Android SDK 安裝

2017-05-10 12:05:17

pyspiderHTMLCSS

2010-07-26 16:28:40

Perl開發環境

2022-09-15 13:33:48

PythonPDFPyMuPDF

2016-11-07 10:30:07

微信小程序安裝配置

2010-03-03 13:09:08

Linux安裝

2016-11-07 15:23:37

Python

2024-04-01 11:46:34

BpythonPython開發

2011-03-21 10:15:07

LAMPLAMP安裝LAMP配置

2011-01-20 11:00:07

Zimbra安裝

2011-01-19 16:12:00

Postfix安裝啟動

2015-09-17 11:04:46

2023-03-06 16:44:41

編程語言開發編碼

2015-06-25 15:56:08

2014-12-24 09:54:30

2020-11-24 10:13:20

測試開發管理

2014-09-12 15:14:53

運維開發

2009-07-20 15:37:26

JRuby安裝JRuby配置
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日本三级日产三级国产三级 | 一级全黄视频 | 国产成人精品一区二区三区视频 | 成人小视频在线观看 | 亚洲视频一区 | 欧美激情亚洲 | 久久亚洲一区 | 亚洲视频欧美视频 | 国产伦精品一区二区三区在线 | 精品区一区二区 | 中文字幕一区二区三区四区五区 | 日韩一级免费电影 | 久久国产精品免费一区二区三区 | 中文字幕加勒比 | 亚洲va在线va天堂va狼色在线 | 国产一区日韩在线 | 日操操夜操操 | 一区二区在线 | 欧美日韩国产精品一区二区 | 成人一区二区三区在线观看 | 国外成人在线视频网站 | 久久中文字幕一区 | 久久一区二区av | 人人看人人爽 | 成人亚洲精品久久久久软件 | 天天天天天天操 | 日本激情视频在线播放 | 国产成人91视频 | 久久久亚洲成人 | 激情 亚洲 | 亚洲福利一区二区 | 亚洲午夜视频在线观看 | 国产黄色精品在线观看 | 91精品久久久久久久 | 五月综合激情婷婷 | 精品国产欧美一区二区三区不卡 | 五月天激情综合网 | 天天玩天天操天天干 | 亚洲成av | 久久久www成人免费无遮挡大片 | 在线播放国产一区二区三区 |