成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

10行代碼爬取微信公眾號文章評論

開發(fā) 開發(fā)工具
10 行代碼就能把公眾號文章評論爬下來,有點聳人聽聞?如果我跟你說是用 Python 實現(xiàn)的,你可能會信了,因為 Python 確實很強大,寫個簡單爬蟲真的只要幾行代碼就可以搞定,這次爬的是微信的數(shù)據(jù),相對來說要麻煩一點

10 行代碼就能把公眾號文章評論爬下來,有點聳人聽聞?如果我跟你說是用 Python 實現(xiàn)的,你可能會信了,因為 Python 確實很強大,寫個簡單爬蟲真的只要幾行代碼就可以搞定,這次爬的是微信的數(shù)據(jù),相對來說要麻煩一點。這里討論的是如何爬自己公眾號下面文章的評論,有人說別人文章能抓取嗎?理論上都可以,但凡是你能看到的都可以爬,不過,這篇文章討論的是自己文章,思路都是相通的,希望本文可以給你一些啟迪。

1. 獲取Cookie

因為是爬自己微信號文章里面的評論,首先你需要登錄公眾號后臺,登錄后才能看到文章的評論,登錄就會涉及到 cookie,發(fā)起請求時只有帶上 cookie 才能得到正確的數(shù)據(jù)。所以***步就是把 cookie 信息取到。

cookie 信息

打開 Chrome 瀏覽器你會看到發(fā)送請求時會自動把 Cookie 信息發(fā)送給微信,我們就把這段 Cookie 數(shù)據(jù)拷貝出來,用 Python 構(gòu)建一個 Cookie 對象,給 requests 使用。

  1. from http.cookies import SimpleCookie 
  2. raw_cookie = "gsScrollPos-5517=; ..中間還省略很多... bizuin=2393828" 
  3.  
  4. cookie = SimpleCookie(raw_cookie) 
  5. requests_cookies = dict([(c, cookie[c].value) for c in cookie]) 
  6.  
  7. r = requests.get(url, cookies=requests_cookies

2. 構(gòu)造URL

打開任意文章的評論列表,你會發(fā)現(xiàn)它的 URL 結(jié)構(gòu)非常清晰,根據(jù)名字基本能判斷每個參數(shù)的意義,這里比較重要的參數(shù)是 begin,它是作為分頁的起始位置,其實它固定不變就好

  1. url = "https://mp.weixin.qq.com/misc/appmsgcomment?" \ 
  2.                  "action=list_comment&" \ 
  3.                  "mp_version=7&" \ 
  4.                  "type=0&" \ 
  5.                  "comment_id=2881104117&" \ # 被評論的文章ID 
  6.                  "begin=0&" \  # 分頁參數(shù) 
  7.                  "count=10&" \ # 每次返回10條評論 
  8.                  "token=1300595798&" \ 
  9.                  "lang=zh_CN

3. 抓取數(shù)據(jù)

把 Cookie 和 URL 都搞清楚了,就可以把模擬瀏覽器抓取數(shù)據(jù)并進行清洗,開始想著用 BeautifulSoup 來解析網(wǎng)頁,結(jié)果失敗了。

 抓取數(shù)據(jù)

查找了原因,把爬下來的頁面另存為 html 文件,在 html 源代碼文件中找留言里面的關(guān)鍵字,發(fā)現(xiàn)評論并沒有在 div 標簽中,而是存在于一段 JS 代碼塊中,看起來像 JSON 數(shù)據(jù),看來數(shù)據(jù)是在本地用 JavaScript 渲染后顯示的。

 抓取數(shù)據(jù)

于是改用正則表達式,截取需要的數(shù)據(jù),最終存儲數(shù)據(jù)庫,差不多10代碼搞定。

  1. def main(): 
  2.     # 普通留言, 精選留言總數(shù) 
  3.     normal_count, selected_count = 141, 100 
  4.     # 普通留言url 
  5.     normal_url = "https://mp.weixin.qq.com/misc/appmsgcomment?" 
  6.     dd = dict([(normal_count, selected_url)]) 
  7.  
  8.     for k, v in dd.items(): 
  9.         crawler(k, v) 
  10.  
  11. def crawler(count, url): 
  12.     for i in range(0, count, 10): 
  13.         r = requests.get(url.format(begin=i), cookies=requests_cookies
  14.         match = re.search(r'"comment":(\[\{.*\}\])', r.text, re.S) 
  15.         if match: 
  16.             data = json.loads(match.group(1), encoding="utf-8"
  17.             conn.insert_many(data) 
  18.         time.sleep(1) 

【本文是51CTO專欄作者“劉志軍”的原創(chuàng)文章,作者微信公眾號:Python之禪(VTtalk)】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2014-12-19 10:11:37

微信公眾號

2021-04-14 14:12:26

微信微信公眾號留言功能

2013-04-09 22:41:00

微信公眾平臺公眾賬號

2019-12-27 13:31:33

Talking DatAI人工智能

2013-04-08 15:56:49

2015-08-24 15:08:50

OpenShiftNode.js微信開發(fā)

2020-03-01 17:14:22

數(shù)據(jù)MySQL數(shù)據(jù)庫

2021-10-22 15:06:38

騰訊微信移動應(yīng)用

2021-05-28 19:51:54

微信公眾號移動應(yīng)用

2020-11-19 15:38:07

Android微信改版

2013-04-08 16:57:21

微信微信公眾賬號認證

2013-04-09 23:02:34

微信公眾平臺圖文消息

2021-03-05 06:25:19

fiddler微信公眾號小程序

2015-09-29 11:02:44

微信公眾號運營

2018-11-30 10:28:44

Python反爬網(wǎng)頁

2018-01-16 08:31:47

微信跳一跳公眾號

2019-09-19 17:00:32

微信公眾號假冒

2016-03-07 13:22:33

無界信息網(wǎng)

2016-10-24 13:47:37

大數(shù)據(jù)微信運營

2013-05-24 09:35:46

Java實現(xiàn)
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 亚洲一区二区三区四区五区中文 | re久久 | 日本亚洲欧美 | 蜜桃在线一区二区三区 | 午夜在线小视频 | 波多野结衣精品在线 | 成人影院av | 黄色毛片在线观看 | 日韩免费视频一区二区 | 国产一区不卡 | 亚洲精品在线看 | 99国产精品久久久久 | 亚洲国产成人精品久久 | 日韩高清一区二区 | 国产在线aa | 亚洲国产成人精品久久久国产成人一区 | 日韩一区二区三区在线播放 | 91久久| 不卡的av在线 | av网站免费 | 91久久国产综合久久 | 欧美日韩国产三级 | 日本偷偷操 | 亚洲一二三区精品 | 国产日韩欧美一区 | 9191在线观看 | 国产免费自拍 | 亚洲精品自在在线观看 | 91观看| 色综合久| 中文字幕在线精品 | 日本黄色免费视频 | 欧美激情综合 | 日韩中文一区二区 | 第一区在线观看免费国语入口 | 99成人免费视频 | 国产综合精品一区二区三区 | 亚洲欧美日韩激情 | 久久综合国产 | 国产精品久久久久999 | 欧美国产视频 |