成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Python爬蟲實現爬取百度百科詞條功能實例

開發 后端
本文實例講述了Python爬蟲實現爬取百度百科詞條功能。分享給大家供大家參考,具體如下: 以下我寫了一個爬取百度百科詞條的實例。

[[421433]]

本文實例講述了Python爬蟲實現爬取百度百科詞條功能。分享給大家供大家參考,具體如下:

以下我寫了一個爬取百度百科詞條的實例。

爬蟲主程序入口 

  1. from crawler_test.html_downloader import UrlDownLoader  
  2. from crawler_test.html_outer import HtmlOuter  
  3. from crawler_test.html_parser import HtmlParser  
  4. from crawler_test.url_manager import UrlManager  
  5. # 爬蟲主程序入口  
  6. class MainCrawler():  
  7.   def __init__(self):  
  8.     # 初始值,實例化四大處理器:url管理器,下載器,解析器,輸出器  
  9.     self.urls = UrlManager()  
  10.     self.downloader = UrlDownLoader()  
  11.     self.parser = HtmlParser()  
  12.     self.outer = HtmlOuter()  
  13.   # 開始爬蟲方法  
  14.   def start_craw(self, main_url):  
  15.     print('爬蟲開始...')  
  16.     count = 1  
  17.     self.urls.add_new_url(main_url)  
  18.     while self.urls.has_new_url():  
  19.       try:  
  20.         new_url = self.urls.get_new_url() 
  21.         print('爬蟲%d,%s' % (count, new_url))  
  22.         html_cont = self.downloader.down_load(new_url)  
  23.         new_urls, new_data = self.parser.parse(new_url, html_cont)  
  24.         # 將解析出的url放入url管理器,解析出的數據放入輸出器中  
  25.         self.urls.add_new_urls(new_urls)  
  26.         self.outer.conllect_data(new_data)  
  27.         if count >= 10:# 控制爬取的數量  
  28.           break  
  29.         count += 1  
  30.       except:  
  31.         print('爬蟲失敗一條') 
  32.     self.outer.output()  
  33.     print('爬蟲結束。')  
  34. if __name__ == '__main__':  
  35.   main_url = 'https://baike.baidu.com/item/Python/407313'  
  36.   mc = MainCrawler()  
  37.   mc.start_craw(main_url) 

URL管理器 

  1. # URL管理器  
  2. class UrlManager():  
  3.   def __init__(self):  
  4.     self.new_urls = set() # 待爬取  
  5.     self.old_urls = set() # 已爬取  
  6.   # 添加一個新的url  
  7.   def add_new_url(self, url):  
  8.     if url is None:  
  9.       return  
  10.     elif url not in self.new_urls and url not in self.old_urls:  
  11.       self.new_urls.add(url)  
  12.   # 批量添加url  
  13.   def add_new_urls(self, urls):  
  14.     if urls is None or len(urls) == 0:  
  15.       return  
  16.     else:  
  17.       for url in urls:  
  18.         self.add_new_url(url)  
  19.   # 判斷是否有url  
  20.   def has_new_url(self):  
  21.     return len(self.new_urls) != 0  
  22.   # 從待爬取的集合中獲取一個url  
  23.   def get_new_url(self):  
  24.     new_url = self.new_urls.pop()  
  25.     self.old_urls.add(new_url)  
  26.     return new_url 

網頁下載器 

  1. from urllib import request  
  2. # 網頁下載器  
  3. class UrlDownLoader():  
  4.   def down_load(self, url):  
  5.     if url is None:  
  6.       return None  
  7.     else:  
  8.       rt = request.Request(urlurl=url, method='GET')   # 發GET請求  
  9.       with request.urlopen(rt) as rp:         # 打開網頁  
  10.         if rp.status != 200:  
  11.           return None  
  12.         else:  
  13.           return rp.read()            # 讀取網頁內容 

網頁解析器 

  1. import re  
  2. from urllib import parse  
  3. from bs4 import BeautifulSoup  
  4. # 網頁解析器,使用BeautifulSoup  
  5. class HtmlParser():  
  6.   # 每個詞條中,可以有多個超鏈接  
  7.   # main_url指url公共部分,如“https://baike.baidu.com/”  
  8.   def _get_new_url(self, main_url, soup):  
  9.     # baike.baidu.com/  
  10.     # <a target="_blank" href="/item/%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A8%8B%E5%BA%8F%E8%AE%BE%E8%AE%A1%E8%AF%AD%E8%A8%80" rel="external nofollow" >計算機程序設計語言</a> 
  11.     new_urls = set()  
  12.     # 解析出main_url之后的url部分  
  13.     child_urls = soup.find_all('a', href=re.compile(r'/item/(\%\w{2})+'))  
  14.     for child_url in child_urls:  
  15.       new_url = child_url['href']  
  16.       # 再拼接成完整的url  
  17.       full_url = parse.urljoin(main_url, new_url)  
  18.       new_urls.add(full_url)  
  19.     return new_urls  
  20.   # 每個詞條中,只有一個描述內容,解析出數據(詞條,內容)  
  21.   def _get_new_data(self, main_url, soup):  
  22.     new_datas = {}  
  23.     new_datas['url'] = main_url  
  24.     # <dd class="lemmaWgt-lemmaTitle-title"><h1>計算機程序設計語言</h1>...  
  25.     new_datas['title'] = soup.find('dd', class_='lemmaWgt-lemmaTitle-title').find('h1').get_text()  
  26.     # class="lemma-summary" label-module="lemmaSummary"...  
  27.     new_datas['content'] = soup.find('div', attrs={'label-module': 'lemmaSummary'},  
  28.                      class_='lemma-summary').get_text()  
  29.     return new_datas  
  30.   # 解析出url和數據(詞條,內容)  
  31.   def parse(self, main_url, html_cont):  
  32.     if main_url is None or html_cont is None:  
  33.       return  
  34.     soup = BeautifulSoup(html_cont, 'lxml', from_encoding='utf-8' 
  35.     new_url = self._get_new_url(main_url, soup)  
  36.     new_data = self._get_new_data(main_url, soup)  
  37.     return new_url, new_data 

輸出處理器 

  1. # 輸出器  
  2. class HtmlOuter():  
  3.   def __init__(self):  
  4.     self.datas = []  
  5.   # 先收集數據  
  6.   def conllect_data(self, data):  
  7.     if data is None:  
  8.       return  
  9.     self.datas.append(data)  
  10.     return self.datas  
  11.   # 輸出為HTML  
  12.   def output(self, file='output_html.html'):  
  13.     with open(file, 'w', encoding='utf-8') as fh:  
  14.       fh.write('<html>')  
  15.       fh.write('<head>')  
  16.       fh.write('<meta charset="utf-8"></meta>')  
  17.       fh.write('<title>爬蟲數據結果</title>')  
  18.       fh.write('</head>')  
  19.       fh.write('<body>')  
  20.       fh.write(  
  21.         '<table style="border-collapse:collapse; border:1px solid gray; width:80%; word-break:break-all; margin:20px auto;">')  
  22.       fh.write('<tr>')  
  23.       fh.write('<th style="border:1px solid black; width:35%;">URL</th>')  
  24.       fh.write('<th style="border:1px solid black; width:15%;">詞條</th>')  
  25.       fh.write('<th style="border:1px solid black; width:50%;">內容</th>')  
  26.       fh.write('</tr>')  
  27.       for data in self.datas:  
  28.         fh.write('<tr>')  
  29.         fh.write('<td style="border:1px solid black">{0}</td>'.format(data['url']))  
  30.         fh.write('<td style="border:1px solid black">{0}</td>'.format(data['title']))  
  31.         fh.write('<td style="border:1px solid black">{0}</td>'.format(data['content']))  
  32.         fh.write('</tr>')  
  33.       fh.write('</table>')  
  34.       fh.write('</body>')  
  35.       fh.write('</html>') 

效果(部分):

希望本文所述對大家Python程序設計有所幫助。 

 

責任編輯:龐桂玉 來源: 馬哥Linux運維
相關推薦

2017-06-20 10:51:15

芒果

2014-01-07 15:38:28

信息

2010-04-16 13:23:17

百度百科

2013-09-13 10:26:10

糗事百科百度

2011-06-28 17:34:35

外鏈

2014-07-22 10:02:31

桌面云

2010-05-11 17:48:38

百度百科世博模塊

2010-07-07 17:52:04

百度百科

2013-12-09 11:23:19

百度聯盟糗事百科

2010-04-23 18:15:29

2014-07-25 17:12:39

數據庫WOT2014MongoDB

2015-06-23 16:18:26

性能優化

2013-08-22 17:08:50

2017-12-20 09:35:25

Python爬蟲百度云資源

2017-02-09 17:05:03

2017-10-26 14:29:50

互動百科

2021-02-17 09:23:31

Python百度搜索
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲免费精品 | 国产高清免费 | 午夜影院视频在线观看 | 亚洲午夜精品 | 久久午夜国产精品www忘忧草 | 天天色天天| 本地毛片 | 99精品国产一区二区三区 | 麻豆changesxxx国产 | 免费国产视频 | 黑人精品欧美一区二区蜜桃 | 在线观看中文字幕亚洲 | 日韩在线视频免费观看 | www.色综合| 日韩国产高清在线观看 | 国产综合久久 | 久久成人国产精品 | 精品一区免费 | 久久99国产精一区二区三区 | www.亚洲精品| 亚洲国产成人精品女人久久久 | 91精品国产91久久久久久 | 337p日本欧洲亚洲大胆鲁鲁 | 亚洲欧美一区二区在线观看 | 亚洲入口 | 懂色中文一区二区三区在线视频 | 欧美大片一区二区 | 亚洲成人国产综合 | 国产精品视频在线观看 | 成人免费看片 | 成人在线精品视频 | 中文字幕日韩在线 | 日韩免费激情视频 | 久久综合久久久 | 狠狠操电影 | 81精品国产乱码久久久久久 | 福利av在线 | www.日本在线播放 | 麻豆av在线| 欧美日韩福利视频 | 久久综合一区 |