成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

手把手教你使用Python網絡爬蟲實現郵件定時發送(附源碼)

開發 后端
這篇文章主要給大家介紹了使用Python網絡爬蟲并實現郵件自動定時發送的小項目。實現的主要思路是構造一個爬蟲任務。

[[434046]]

大家好,我是Python進階者。

前言

前幾天【馮誠】大佬在群里分享了一個抓取讀書目錄并實現郵件定時發送的代碼,感覺還是蠻不錯的,這里分享給大家學習。

一、思路

思路倒是不難,構造一個爬蟲任務,抓取某書網站上的目錄,之后將獲取的內容返回,然后利用Python實現郵件發送的功能,剩下的就是定時任務構建了,下面一起來看看具體的實現過程。

二、具體實現

這里直接丟大佬的代碼了,如下所示:

  1. # -*- coding: utf-8 -*- 
  2. import requests, bs4 
  3. import smtplib 
  4. import schedule 
  5. import time 
  6. from bs4 import BeautifulSoup 
  7. from email.mime.text import MIMEText 
  8. from email.header import Header 
  9.  
  10.  
  11. # account = '{0}'.format('發件人qq郵箱'
  12. password = '{0}'.format('qq郵箱授權碼'
  13. # receiver = '{0}'.format('收件人163郵箱或者qq郵箱'
  14. account = '{0}'.format('2352180977@qq.com'
  15. password = '{0}'.format('awmowqginzdijg'
  16. receiver = '{0}'.format('2352180977@qq.com'
  17.  
  18.  
  19. # 爬蟲任務,獲取sobooks網站上的書名和作者,其中頁面的話,可以根據自己需求進行修改 
  20. def recipe_spider(): 
  21.     list_all = '' 
  22.     num = 0 
  23.     for a in range(1, 3): 
  24.         n = '{0}{1}'.format('https://sobooks.cc/page/', a) 
  25.         res = requests.get(n) 
  26.         res.encoding = res.apparent_encoding 
  27.         bs = BeautifulSoup(res.text, 'html.parser'
  28. # print(bs) 
  29.      
  30.         books = bs.find_all('h3'
  31.         authors = bs.find_all('p'
  32.          
  33.         for i in range(len(books)): 
  34.             num = num+1 
  35.             book = books[i].text.strip() 
  36.             author = authors[i+1].text.strip() 
  37.         #list_books.append([book,author]) 
  38. #  list_books.append(list_book) 
  39.  
  40.             n = ''
  41.  書名%s: %s,作者: %s 
  42.             ''' % (num, book, author) 
  43.             list_all = list_all + n 
  44.     return list_all 
  45.  
  46.  
  47. # 將獲取到的內容發送郵件 
  48. def send_email(list_all): 
  49.     global account, password, receiver 
  50.     mailhost = 'smtp.qq.com' 
  51.     qqmail = smtplib.SMTP() 
  52.     qqmail.connect(mailhost, 25) 
  53.     qqmail.login(account, password
  54.     content = '親愛的,今天書單' + list_all 
  55.     print(content) 
  56.     message = MIMEText(content, 'plain''utf-8'
  57.     subject = '今天看什么' 
  58.     message['Subject'] = Header(subject, 'utf-8'
  59.     try: 
  60.         qqmail.sendmail(account, receiver, message.as_string()) 
  61.         print('郵件發送成功'
  62.     except
  63.         print('郵件發送失敗'
  64.     qqmail.quit() 
  65.  
  66.  
  67. def job(): 
  68.     print('開始一次任務'
  69.     list_all = recipe_spider() 
  70.     send_email(list_all) 
  71.     print('任務完成'
  72.  
  73.  
  74. if __name__ == '__main__'
  75.     # 定時任務,其中0.05是間隔的意思,以分鐘為間隔,時間默認是整數。 
  76.     schedule.every(0.05).minutes.do(job) 
  77.     while True
  78.         schedule.run_pending() 
  79.         time.sleep(1) 

程序運行之后,即可實現郵件自動發送了。

稍等片刻,郵件便會自動給你發送過去,下圖是郵件通知。

下圖是郵件的具體內容:

針對上述代碼,你只需要更改三個地方,其一是發件人的qq郵箱,其二是qq郵箱的授權碼,其三是收件人的郵箱,如下圖紅色框框所示。

三、常見問題

在運行過程中小伙伴們應該會經常遇到這個問題,如下圖所示。

這個很可能是因為你的郵箱沒有填對或者授權碼錯誤,檢查下郵箱后綴是否添加或者檢查下授權碼是否復制完整。

有的小伙伴還不知道qq郵箱授權碼怎么獲得,這里引導下,首先你得打開自己的qq郵箱,然后點擊設置-->賬戶,如下圖所示:

拉到最下方,如下圖所示:

點擊生成授權碼,之后會彈出下圖界面:

手機發送“配置郵件客戶端”關鍵字,記得,是“郵件”,而不是“郵箱”,小編之前就是因為發錯了字,所以導致沒成功,論細心的重要性!發送成功之后,就會彈出下圖:

上圖左側中的條框字母部分就是qq郵箱的授權碼了,將其復制到代碼中進行粘貼即可。

四、總結

我是Python進階者,這篇文章主要給大家介紹了使用Python網絡爬蟲并實現郵件自動定時發送的小項目。實現的主要思路是構造一個爬蟲任務,抓取某書網站上的目錄,之后將獲取的內容返回,然后利用Python實現郵件發送的功能,并進行定時任務構建,在最后還給大家例舉了常見問題的處理方法。

小伙伴們,快快用實踐一下吧!

責任編輯:姜華 來源: Python爬蟲與數據挖掘
相關推薦

2020-07-10 08:24:18

Python開發工具

2020-12-08 10:32:15

Python郵件tcp

2018-05-16 15:46:06

Python網絡爬蟲PhantomJS

2018-05-16 13:50:30

Python網絡爬蟲Scrapy

2018-05-14 15:27:06

Python網絡爬蟲爬蟲架構

2025-05-07 00:31:30

2018-05-22 15:30:30

Python網絡爬蟲分布式爬蟲

2021-07-14 09:00:00

JavaFX開發應用

2021-04-01 09:02:38

Python小說下載網絡爬蟲

2018-05-14 16:34:08

Python網絡爬蟲Scrapy

2018-05-22 16:28:46

Python網絡爬蟲URL去重

2020-05-15 08:07:33

JWT登錄單點

2021-03-12 10:01:24

JavaScript 前端表單驗證

2023-04-26 12:46:43

DockerSpringKubernetes

2022-12-07 08:42:35

2021-01-30 10:37:18

ScrapyGerapy網絡爬蟲

2011-01-06 10:39:25

.NET程序打包

2009-11-09 14:57:37

WCF上傳文件

2021-09-01 14:49:48

curl2pypython工具

2011-01-10 14:41:26

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日日摸日日碰夜夜爽2015电影 | 色婷婷精品国产一区二区三区 | 久久久久久国产免费视网址 | 国产精品毛片无码 | 日日噜| 日韩电影中文字幕在线观看 | 亚洲欧美日韩国产综合 | 日韩av一区二区在线观看 | 久久综合狠狠综合久久综合88 | 精品1区2区 | 午夜久久久久久久久久一区二区 | 欧美第一页| 成人水多啪啪片 | 国产精品久久久久aaaa九色 | 亚洲va欧美va天堂v国产综合 | 91精品国产欧美一区二区成人 | 中文字幕一区在线 | 一区影院| www日本高清 | 欧美精品一区在线 | 一区二区三区中文字幕 | 欧美色综合网 | 日韩在线观看 | 日韩激情在线 | 九九热免费在线观看 | 久久综合影院 | 黄片毛片免费观看 | av一区二区三区四区 | 亚洲 中文 欧美 日韩 在线观看 | 久久精品视频免费看 | 欧美精品一区二区三区四区 | 久久国产欧美一区二区三区精品 | 国产一级大片 | 久久精品国产久精国产 | 亚洲狠狠爱| 香蕉av免费 | 成人午夜在线观看 | 久久91精品国产一区二区 | 国产乱码精品一品二品 | 日韩一区二区三区四区五区六区 | 亚洲一区中文字幕 |