成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

使用Python輕松收集Web站點數據

開發 后端 前端
在使用Python從Web頁面收集數據時,可以使用mechanize庫自動從Web站點收集數據并與之交互,通過Mechanize您可以填充表單并設置和保存cookies,此外,Mechanize提供了各種各樣的工具來使Python腳本具備真正的Web瀏覽器的功能,可以與交互式Web站點進行交互。

使用基本的Python模塊,可以編寫腳本來與Web站點交互,但是如果沒有必要的話,那么您就不希望這樣做。Python2.x中的模塊urllib和urllib2,以及Python3.0中的統一的urllib.*子包,可以在URL的末尾獲取資源。然而,當您希望與Web頁面中找到的內容進行某種比較復雜的交互時,您需要使用mechanize庫。

51CTO推薦專題: Python實用開發指南

在自動化Webscrap或用戶與Web站點的交互模擬中,最大的困難之一就是服務器使用cookies跟蹤會話進度。顯然,cookies是HTTP頭部的一部分,在urllib打開資源時會自然顯示出來。

即使如此,在這個層次上執行處理也非常的繁瑣。mechanize庫將這種處理提升到一個更高程度的抽象并使您的腳本—或交互性Pythonshell—表現出非常類似實際Web瀏覽器的行為。

Python的mechanize受到Perl的WWW:Mechanize的啟發,后者具有類似的一組功能。當然,作為長期的Python支持者,我認為mechanize更健壯,它看上去似乎繼承了兩種語言的通用模式。

mechanize的一個親密伙伴是同樣出色的BeautifulSoup庫。這是一個非常神奇的“粗糙的解析器”,用于解析實際Web頁面中包含的有效HTML。您不需要將BeautifulSoup用于mechanize,反之亦然,但是多半情況下,當您與“實際存在的Web”交互時,您將希望同時使用這兩種工具。

一個實際示例

我曾在多個編程項目中使用過mechanize。最近一個項目是從一個流行的Web站點中收集匹配某種條件的名稱的列表。該站點提供了一些搜索工具,但是沒有提供任何正式的API來執行此類搜索。雖然訪問者可能能夠更明確地猜出我過去在做什么,但我將修改給出的代碼的細節,以避免暴露有關被scrap的站點或我的客戶機的過多信息。一般情況下,我給出的代碼對于類似任務是通用的。

入門工具

在實際開發Webscrap/分析代碼的過程中,我發現以交互式方式查看、處理和分析Web頁面的內容以了解相關Web頁面實際發生的操作是非常重要的功能。通常,站點中的一些頁面是由查詢動態生成(但是具有一致的模式),或是根據非常嚴格的模板預先生成。

完成這種交互式體驗的一種重要方法就是在Pythonshell內使用mechanize本身,特別是在一個增強的shell內,比如IPython。通過這種方式,您可以在編寫執行希望用于生產中的交互的最終腳本之前,請求各種已鏈接的資源、提交表單、維護或操作站點cookies,等等。

然而,我發現我與Web站點的許多實驗性質的交互在實際的現代Web瀏覽器中得到了更好的執行。方便地呈現頁面可以使您更加快速地了解給定頁面或表單中正在發生的事情。問題在于,呈現頁面僅僅完成了事情的一半,可能還不到一半。獲得“頁面源代碼”會讓您更進一步。要真正理解給定Web頁面或與Web服務器的一系列交互的背后的原理,需要了解更多。

要了解這些內容,我常常使用Firebug或面向Firefox的WebDeveloper插件。所有這些工具都可以執行諸如顯示表單字段、顯示密碼、檢查頁面的DOM、查看或運行Javascript、觀察Ajax通信等操作。比較這些工具的優劣需要另外撰寫一篇文章,但是如果您要進行面向Web的編程的話,那么必須熟悉這些工具。

不管使用哪一種工具來對準備實現自動化交互的Web站點做實驗,您都需要花比編寫簡潔的mechanize代碼(用于執行您的任務)更多的時間來了解站點實際發生的行為。

搜索結果scraper

考慮到上面提到的項目的意圖,我將把包含100行代碼的腳本分為兩個功能:

◆檢索所有感興趣的結果

◆從被檢索的頁面中拉取我感興趣的信息

使用這種方式組織腳本是為了便于開發;當我開始任務時,我需要知道如何完成這兩個功能。我覺得我需要的信息位于一個普通的頁面集合中,但是我還沒有檢查這些頁面的具體布局。

首先我將檢索一組頁面并將它們保存到磁盤,然后執行第二個任務,從這些已保存的文件中拉取所需的信息。當然,如果任務涉及使用檢索到的信息構成同一會話內的新交互,那么您將需要使用順序稍微不同的開發步驟。因此,首先讓我們查看我的fetch()函數:

  1. 清單1.獲取頁面內容  
  2. importsys,time,os  
  3. frommechanizeimportBrowser  
  4.  
  5. LOGIN_URL='http://www.example.com/login' 
  6. USERNAME='DavidMertz' 
  7. PASSWORD='TheSpanishInquisition' 
  8. SEARCH_URL='http://www.example.com/search?' 
  9. FIXED_QUERY='food=spam&''utensil=spork&''date=the_future&' 
  10. VARIABLE_QUERY=['actor=%s'%actorforactorin  
  11. ('GrahamChapman',  
  12. 'JohnCleese',  
  13. 'TerryGilliam',  
  14. 'EricIdle',  
  15. 'TerryJones',  
  16. 'MichaelPalin')]  
  17.  
  18. deffetch():  
  19. result_no=0#Numbertheoutputfiles  
  20. br=Browser()#Createabrowser  
  21. br.open(LOGIN_URL)#Opentheloginpage  
  22. br.select_form(name="login")#Findtheloginform  
  23. br['username']=USERNAME#Settheformvalues  
  24. br['password']=PASSWORD  
  25. resp=br.submit()#Submittheform 

 

  1. #Automaticredirectsometimesfails,followmanuallywhenneeded  
  2. if'Redirecting'inbr.title():  
  3. resp=br.follow_link(text_regex='clickhere')  
  4.  
  5. #Loopthroughthesearches,keepingfixedqueryparameters  
  6. foractorininVARIABLE_QUERY:  
  7. #Iliketowatchwhat'shappeningintheconsole  
  8. print>>sys.stderr,'***',actor  
  9. #Letsdotheactualquerynow  
  10. br.open(SEARCH_URL+FIXED_QUERY+actor)  
  11. #Thequeryactuallygivesuslinkstothecontentpageswelike,  
  12. #buttherearesomeotherlinksonthepagethatweignore  
  13. nice_links=[lforlinbr.links()  
  14. if'good_path'inl.url  
  15. and'credential'inl.url]  
  16. ifnotnice_links:#Maybetherelevantresultsareempty  
  17. break  
  18. forlinkinnice_links:  
  19. try:  
  20. response=br.follow_link(link)  
  21. #Moreconsolereportingontitleoffollowedlinkpage  
  22. print>>sys.stderr,br.title()  
  23. #Incrementoutputfilenames,openandwritethefile  
  24. result_no+=1  
  25. out=open(result_%04d'%result_no,'w')  
  26. print>>out,response.read()  
  27. out.close()  
  28. #Nothingevergoesperfectly,ignoreifwedonotgetpage  
  29. exceptmechanize._response.httperror_seek_wrapper:  
  30. print>>sys.stderr,"Responseerror(probably404)"  
  31. #Let'snothammerthesitetoomuchbetweenfetches  
  32. time.sleep(1) 

對感興趣的站點進行交互式研究后,我發現我希望執行的查詢含有一些固定的元素和一些變化的元素。我僅僅是將這些元素連接成一個大的GET請求并查看“results”頁面。而結果列表包含了我實際需要的資源的鏈接。

因此,我訪問這些鏈接(當此過程出現某些錯誤時,會拋出try/except塊)并保存在這些內容頁面上找到的任何內容。很簡單,是不是?Mechanize可以做的不止這些,但是這個簡單的例子向您展示了Mechanize的大致功能。

#p#

處理結果

現在,我們已經完成了對mechanize的操作;剩下的工作是理解在fetch()循環期間保存的大量HTML文件。批量處理特性讓我能夠在一個不同的程序中將這些文件整齊、明顯地分離開來,fetch()和process()可能交互得更密切。BeautifulSoup使得后期處理比初次獲取更加簡單。對于這個批處理任務,我們希望從獲取的各種Web頁面的零散內容中生成表式的以逗號分隔的值(CSV)數據。

  1. 清單2.使用BeautifulSoup從無序的內容中生成整齊的數據  
  2. fromglobimportglob  
  3. fromBeautifulSoupimportBeautifulSoup  
  4.  
  5. defprocess():  
  6. print"!MOVIE,DIRECTOR,KEY_GRIP,THE_MOOSE"  
  7. forfnameinglob('result_*'):  
  8. #PutthatsloppyHTMLintothesoup  
  9. soup=BeautifulSoup(open(fname))  
  10.  
  11. #Trytofindthefieldswewant,butdefaulttounknownvalues  
  12. try:  
  13. movie=soup.findAll('span',{'class':'movie_title'})[1].contents[0]  
  14. exceptIndexError:  
  15. fname="UNKNOWN" 
  16.  
  17. try:  
  18. director=soup.findAll('div',{'class':'director'})[1].contents[0]  
  19. exceptIndexError:  
  20. lname="UNKNOWN" 
  21.  
  22. try:  
  23. #Maybemultiplegripslisted,keyoneshouldbeinthere  
  24. grips=soup.findAll('p',{'id':'grip'})[0]  
  25. grips="".join(grips.split())#Normalizeextraspaces  
  26. exceptIndexError:  
  27. title="UNKNOWN" 
  28.  
  29. try:  
  30. #HidesomestuffintheHTML<meta>tags  
  31. moose=soup.findAll('meta',{'name':'shibboleth'})[0]['content']  
  32. exceptIndexError:  
  33. moose="UNKNOWN" 
  34. print'"%s","%s","%s","%s"'%(movie,director,grips,moose) 

第一次查看BeautifulSoup,process()中的代碼令人印象深刻。讀者應當閱讀有關文檔來獲得關于這個模塊的更多細節,但是這個代碼片段很好地體現了它的整體風格。大多數soup代碼包含一些對只含有格式良好的HTML的頁面的.findAll()調用。這里是一些類似DOM的.parent、nextSibling和previousSibling屬性。它們類似于Web瀏覽器的“quirks”模式。我們在soup中找到的內容并不完全是一個解析樹。

結束語

諸如我之類的守舊者,甚至于一些更年輕的讀者,都會記住使用TCLExpect(或使用用Python和其他許多語言編寫的類似內容)編寫腳本帶來的愉悅。自動化與shell的交互,包括telnet、ftp、ssh等等遠程shell,變得非常的直觀,因為會話中的所有內容都被顯示出來。

Web交互變得更加細致,因為信息被分為頭部和內容體,并且各種相關的資源常常通過href鏈接、框架、Ajax等被綁定在一起。然而,總的來說,您可以使用wget之類的工具來檢索Web服務器提供的所有字節,然后像使用其他連接協議一樣運行與Expect風格完全相同的腳本。

在實踐中,幾乎沒有編程人員過分執著于過去的老方法,比如我建議的wget+Expect方法。Mechanize保留了許多與出色的Expect腳本相同的東西,令人感覺熟悉和親切,并且和Expect一樣易于編寫(如果不是更簡單的話)。

Browser()對象命令,比如.select_form()、.submit()和.follow_link(),真的是實現“查找并發送”操作的最簡單、最明顯的方法,同時綁定了我們希望在Web自動化框架中具備的復雜狀態和會話處理的所有優點。

【編輯推薦】

  1. PHP資深開發者談:緣何放棄PHP改用Python
  2. 加速程序開發 Python整合C語言模塊
  3. 對Python特色的詳細介紹 

 

責任編輯:王曉東 來源: IBM
相關推薦

2012-11-21 14:41:00

2009-10-30 10:40:56

2018-10-26 11:30:40

Apache Web服務器站點

2013-08-16 14:43:14

高性能移動Web移動Web站點移動Web

2023-08-31 07:46:54

KubernetesLoki

2013-09-10 17:13:57

移動網站性能優化移動web

2010-05-12 16:58:59

IIS Web

2021-05-20 10:16:44

Web滲透漏洞

2011-12-29 10:48:49

移動Web

2011-08-10 13:00:14

Adobe

2025-04-18 08:55:47

2017-05-16 14:48:24

WhatsApp數據安全

2011-10-27 16:24:48

API

2022-09-06 12:10:30

PythonBinance代碼

2009-04-14 13:19:13

2017-02-06 12:40:15

微軟windows數據隱私

2011-07-27 17:02:43

2010-05-18 16:52:42

IIS服務器

2010-01-06 14:08:33

JSON WEB站點

2009-03-13 17:33:06

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 午夜寂寞影院列表 | 一区二区高清不卡 | 一区二区三区久久久 | 人人擦人人| 久久国产精品一区二区三区 | 久久精品1 | 午夜精品一区二区三区三上悠亚 | 91精品久久久久久久久久小网站 | 犬夜叉在线观看 | 欧美性精品 | 精品熟人一区二区三区四区 | 国产精品视频 | 精品国产乱码久久久久久闺蜜 | 国产成人精品网站 | 伊人久久免费视频 | 视频一区在线观看 | 成人精品一区二区 | 欧美黄色网 | 亚洲高清视频在线观看 | 涩涩视频在线观看免费 | 欧美精品欧美精品系列 | 精品国产一区二区三区免费 | 精品久久久久久久久久 | 欧美一级片在线观看 | 久久久久一区二区三区 | 亚洲人在线播放 | 国产亚洲欧美另类一区二区三区 | 日日噜| 亚洲一级黄色 | 97视频久久 | 国产精品久久久久久久久久 | 91高清视频在线 | 成人精品久久 | 成人免费视频在线观看 | 密桃av | 日韩欧美在线视频 | 久久国产精品网站 | 一级黄色在线 | 在线观看成人av | 亚洲网在线 | 天堂国产 |