成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

從測試300萬個超鏈接接學到的

開發 測試
Stack Exchange上有超過三百萬個不同的鏈接。經過很長時間,許多鏈接已經不能用了。最近我花時間編寫了一個工具,它能判斷哪些是壞鏈,能幫助我們來修復壞鏈。

Stack Exchange上有超過三百萬個不同的鏈接。經過很長時間,許多鏈接已經不能用了。

最近我花時間編寫了一個工具,它能判斷哪些是壞鏈,能幫助我們來修復壞鏈。

我們是怎么做的?

首先,我們要對他人的網站心存敬意。

做一個好的網民

● 對每個域名限制請求

我們采用自動過期的set,來確保十秒鐘內對單個域名不會請求多過一次。當我們覺得需要對某些鏈接進行更多的測試時,我們也做了特殊處理。

  1. public class AutoExpireSet<T>  
  2. {  
  3.    
  4.     Dictionary<T, DateTime> items = new Dictionary<T, DateTime>();  
  5.     Dictionary<T, TimeSpan> expireOverride =  
  6.          new Dictionary<T, TimeSpan>();  
  7.    
  8.     int defaultDurationSeconds;  
  9.    
  10.     public AutoExpireSet(int defaultDurationSeconds)  
  11.     {  
  12.         this.defaultDurationSeconds =  
  13.            defaultDurationSeconds;  
  14.     }  
  15.    
  16.     public bool TryReserve(T t)  
  17.     {  
  18.         bool reserved = false;  
  19.         lock (this)  
  20.         {  
  21.             DateTime dt;  
  22.             if (!items.TryGetValue(t, out dt))  
  23.             {  
  24.                 dt = DateTime.MinValue;  
  25.             }  
  26.    
  27.             if (dt < DateTime.UtcNow)  
  28.             {  
  29.                 TimeSpan span;  
  30.                 if (!expireOverride.TryGetValue(t, out span))  
  31.                 {  
  32.                     span =  
  33.                      TimeSpan.FromSeconds(defaultDurationSeconds);  
  34.                 }  
  35.                 items[t] = DateTime.UtcNow.Add(span);  
  36.                 reserved = true;  
  37.             }  
  38.    
  39.         }  
  40.         return reserved;  
  41.     }  
  42.    
  43.     public void ExpireOverride(T t, TimeSpan span)  
  44.     {  
  45.         lock (this)  
  46.         {  
  47.             expireOverride[t] = span;  
  48.         }  
  49.     }  

● 健壯的驗證函數

我們的驗證函數包括了許多我認為非常重要的概念。

  1. public ValidateResult Validate(  
  2.       bool useHeadMethod = true,  
  3.       bool enableKeepAlive = false,  
  4.       int timeoutSeconds = 30 )  
  5. {  
  6.     ValidateResult result = new ValidateResult();  
  7.    
  8.     HttpWebRequest request = WebRequest.Create(Uri)  
  9.                                   as HttpWebRequest;  
  10.     if (useHeadMethod)  
  11.     {  
  12.         request.Method = "HEAD";  
  13.     }  
  14.     else 
  15.     {  
  16.         request.Method = "GET";  
  17.     }  
  18.    
  19.     // always compress, if you get back a 404 from a HEAD  
  20.     //     it can be quite big.  
  21.     request.AutomaticDecompression = DecompressionMethods.GZip;  
  22.     request.AllowAutoRedirect = false;  
  23.     request.UserAgent = UserAgentString;  
  24.     request.Timeout = timeoutSeconds * 1000;  
  25.     request.KeepAlive = enableKeepAlive;  
  26.    
  27.     HttpWebResponse response = null;  
  28.     try 
  29.     {  
  30.         response = request.GetResponse() as HttpWebResponse;  
  31.    
  32.         result.StatusCode = response.StatusCode;  
  33.         if (response.StatusCode ==  
  34.                    HttpStatusCode.Redirect ||  
  35.             response.StatusCode ==  
  36.                    HttpStatusCode.MovedPermanently ||  
  37.             response.StatusCode ==  
  38.                    HttpStatusCode.SeeOther ||  
  39.             response.StatusCode ==  
  40.                    HttpStatusCode.TemporaryRedirect)  
  41.         {  
  42.             try 
  43.             {  
  44.                 Uri targetUri =  
  45.                   new Uri(Uri, response.Headers["Location"]);  
  46.                 var scheme = targetUri.Scheme.ToLower();  
  47.                 if (scheme == "http" || scheme == "https")  
  48.                 {  
  49.                     result.RedirectResult =  
  50.                         new ExternalUrl(targetUri);  
  51.                 }  
  52.                 else 
  53.                 {  
  54.                     // this little gem was born out of  
  55.                     //   http://tinyurl.com/18r  
  56.                     //   redirecting to about:blank  
  57.                     result.StatusCode =  
  58.                            HttpStatusCode.SwitchingProtocols;  
  59.                     result.WebExceptionStatus = null;  
  60.                 }  
  61.             }  
  62.             catch (UriFormatException)  
  63.             {  
  64.                 // another gem ... people sometimes redirect to  
  65.                 //    http://nonsense:port/yay  
  66.                 result.StatusCode =  
  67.                     HttpStatusCode.SwitchingProtocols;  
  68.                 result.WebExceptionStatus =  
  69.                     WebExceptionStatus.NameResolutionFailure;  
  70.             }  
  71.    
  72.         } 

● 從***天開始就設置正確的User Agent字符串

如果什么地方出錯了,你希望他人能夠聯系到你。我們的鏈接爬蟲的user agent字符串為: Mozilla/5.0 (compatible; stackexchangebot/1.0; +http://meta.stackoverflow.com/q/130398)。

● 處理302, 303, 307等頁面跳轉

盡管302和303跳轉非常常見,307卻不多見。它被作為一種針對瀏覽器的錯誤表現的解決方法被引入,解釋見此處

307***的例子是http://www.haskell.org。我非常不贊同在首頁就跳轉地做法,URL重寫以及其他的工具可以解決這個問題,而不需要有多余的跳轉;但是,首頁跳轉仍舊存在。

當你跳轉時,你需要繼續測試。我們的鏈接測試機會測試最多五層。你需要設置層次上限,否則你會陷入無限循環。

跳轉有時很奇怪,網站有時會把你導向到about:config或一個不存在的URL。檢驗跳轉的頁面信息很重要。

● 當你獲得所需要的信息時,請及時中斷請求

在TCP協議中,包收到時,特殊的狀態會被標記。當客戶端發送給服務器的包中標記了FIN的話,連接會早早的中止。調用request.Abort你可以避免在404時從服務器端下載大量數據。

當測試鏈接時,你經常需要避免HTTP keepalive。因為我們的測試機沒必要給服務器造成不必要得連接負擔。

中斷可以減少壓縮,但我非常贊成啟用壓縮。

● 先使用HEAD請求,再用GET請求

一些服務器不使用HEAD。例如,Amazon完全禁止了,對HEAD請求返回405。在ASP.NET MVC中,人們經常顯式設置路由經過的verb屬性。程序員們在規定使用HttpVerbs.Get時往往沒有使用HttpVerbs.Head。所以當你失敗時(沒有獲得200響應),你需要重新使用GET verb來測試。(譯者:這一段不是很懂,如有錯誤請指正。)

● 忽略robots.txt

開始我打算做一個好網民,解析了所有的robots.txt文件,遵守排除和爬蟲頻率。但事實上許多網站如GitHub, Delicious和Facebook都有針對爬蟲的白名單。所有的爬蟲都被屏蔽了,除了那些著名的允許爬蟲的網站(如Google, Yahoo和Bing)。因為鏈接測試機是不會抓取網頁,關注robots.txt也不現實,所以我建議忽略robots.txt。這在Meta Stack Overflow也有討論。

● 使用合理的超時

測試時,我們給網站30s來響應,但有些網站需要更長時間。你當然不想讓一個惡意的網站讓你的測試機停止。所以我們采用30s作為最長的響應時間。

● 用很多線程來測試鏈接

我用在悉尼的開發電腦來做鏈接測試,顯然串行的三百萬次訪問不知道會占用多長時間。所以我用了30個線程。

并發當然也會帶來一些技術挑戰。你也不想在等待一個域名釋放資源的時候讓一個線程阻塞。

我采用Async類來管理隊列。相對于微軟的任務并行庫(Microsoft Task Parallel Library),我更喜歡Async,因為使用它來限制線程池中的線程數量非常簡單,而且API也簡單易用。

● 一次實效不代表***失效

我仍舊在調整判斷一個鏈接是壞鏈的算法。一次失效有可能是偶然事件。一個星期內的數次失效可能是服務器壞掉或者不幸的巧合。

現在隔天的兩次失效看起來比較可靠 – 我們沒有去尋找最***的算法,而是讓用戶告訴我們什么時候出錯了,但我們相信出錯率不高。

同樣的我們仍舊需要確定在一次成功測試之后多久藥重新測試。我想每隔三個月測一次就足夠了。

測試鏈接的一些有趣發現

Kernel.org被黑了

2011年9月1日,Kernel.org被黑了。你要問,這和測試鏈接有什么關系呢?

事實證明有人破壞了所有的文檔鏈接,這些鏈接今天仍舊不能用。例如http://www.kernel.org/pub/software/scm /git/docs/git-svn.html 在Stack Overflow的150個左右的帖子里出現過,現在它們會將你導向到404頁面,而它的新地址應該在:http://git-scm.com/docs /git-svn。在所有我碰到的壞鏈中,git文檔的壞鏈是最嚴重的。將近影響了6000個帖子。采用Apache的重寫功能來處理它是非常容易的。

有的網站的URL不能給你任何信息

http://www.microsoft.com/downloads/details.aspx?familyid=e59c3964-672d-4511-bb3e-2d5e1db91038displaylang=en 是個壞鏈,在60個左右的帖子中出現。想象下,如果這個鏈接類似于http://www.microsoft.com/downloads/ie- developer-toolbar-beta-3,那么就算微軟打算移走這個鏈接,我們仍舊克一猜測它可能帶我們去到什么頁面。

將你的404頁面做的別致和有用–從GitHub學到的

在所有的404頁面中,GitHub的讓我最生氣。

你問為什么?

它看起來很酷,有相當不錯的視覺效果。有些人就是看什么都不順眼。

嗯,事實上是:

https://github.com/dbalatero/typhoeus 在50個左右的帖子里被引用,而它已經轉移到https://github.com/typhoeus。GitHub沒有使用任何的跳轉,僅僅將你轉到404頁面。

對url采用最基本的解析以確定真正想要去的頁面是非常小的開銷:

對不起,我們沒有找到你鏈接到的頁面。用戶經常會改變賬戶導致鏈接失效。”typhoeus”庫也存在于:https://github.com/typhoeus

是的,沒有任何信息告訴我我犯了個錯誤。GitHub應該讓404頁面變得更有用。對我來說GitHub 404頁面最讓我氣憤地是我花了很多力氣而找不到結果。不要給我漂亮的頁面,能提供一些有用的信息嗎。

你可以做多一步,跳轉到他們新的首頁去,我理解賬號是非常有技巧的,但它看起來在GitHub上是多么不可思議的常見錯誤啊。

在Stack Overflow上我們花了很多時間來優化這種情況,例如“你最喜歡的程序員笑話是什么?”,討論區認為這個問題不會持續很久,所以我們盡可能解釋為什么要移除它,以及哪里可以找到它。

Oracle的問題

Oracle收購Sun對Java生態圈來說是個永遠的沉重的打擊。Oracle的任務是重新樹立品牌,重構Java 生態圈,但這是錯誤的引導。大量的文檔都沒有被正確定向。就連最近的在dev.java.net下的所有項目都沒有正確的跳轉頁面。Hudson這個 Java持續集成的服務器曾經使用https://hudson.dev.java.net/ (譯者注:也失效了),Stack Overflow中150個帖子都引用了它。

個人的教訓

href 標題的重要性

在短鏈的世界里,看起來在URI里使用任何合理的標題不再那么被鼓勵了。事實上過去的三年里你訪問的5%的鏈接都失效了。我相信我的博客中也有許多壞鏈。修復壞鏈是個困難的任務,尤其在沒有上下文的情況下,這項任務變得更加困難。

所以我決定為我的鏈接都加上合理的標題。不僅因為能讓搜索引擎更好地搜索結果,也能讓用戶知道受損的圖片下是什么內容,同時在處理壞的勢后能幫我修復它。

超鏈接是很脆弱的

當我們使用Google時,我們從來沒得到404。它確保我們在雜亂無章的網絡中高效的搜索。測試很多的鏈接告訴你現實并沒有那么的好。那么意味著我要避免使用鏈接嗎?當然不是,知道問題的存在能夠幫我思考我寫下的內容。我會避免寫出失去意義的文章。在Stack Overflow我們經常看到如下的回復:

See this blog post over here. 看看這里的文章。

當外部資源鏈接失效的時候,這種答案就沒有了意義。

原文鏈接: samsaffron.com 

編譯:http://blog.jobbole.com/22288/

責任編輯:林師授 來源: 伯樂在線
相關推薦

2016-01-18 10:06:05

編程

2015-06-29 13:47:19

創業創業智慧

2013-08-19 12:46:27

2010-08-23 10:30:05

CSS超鏈接

2012-05-22 09:52:03

jQuery

2024-04-15 12:54:00

ReactVue列表邏輯

2022-02-22 10:40:27

漏洞網絡攻擊

2014-08-06 12:29:33

騰訊開放平臺市場

2022-09-13 08:05:47

AlloyDb架構數據庫

2010-10-18 09:10:57

Google日歷宕機

2015-09-24 09:41:04

Amazon云停機云安全教訓

2015-06-01 06:42:50

開源公司三大教訓

2009-05-26 09:07:50

Windows 7微軟操作系統

2022-03-21 10:21:50

jQuery代碼模式

2014-12-22 10:09:50

工程師

2010-01-15 18:12:28

VB.NET超鏈接

2021-03-09 09:55:02

Vuejs前端代碼

2022-12-12 11:08:07

數字化轉型企業

2023-11-14 11:18:13

2024-06-13 15:59:30

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品国产一区二区三区日日嗨 | 欧美理论片在线观看 | 一本色道精品久久一区二区三区 | 免费能直接在线观看黄的视频 | 国产精品一区二区久久精品爱微奶 | 国产一区 | 日韩在线播放网址 | 99精品免费视频 | 黄色欧美视频 | 天天天天天操 | 亚洲国产成人精品久久久国产成人一区 | 欧美日韩精品一区 | 中文字幕视频在线观看 | 国产三级 | 国产精品综合久久 | 欧美日韩一区精品 | 欧美国产一区二区三区 | 精品久久久久久久久久 | 日韩欧美在线播放 | 欧美中文字幕一区 | 久久久久国色av免费观看性色 | 国产激情免费视频 | 91久久精品日日躁夜夜躁国产 | 粉嫩一区二区三区四区公司1 | 国产精品久久久久久久久久久免费看 | 天堂国产 | 日韩免费av | 国产在线观看一区二区三区 | 日韩精品一区二区三区久久 | 国产小网站 | 欧美激情欧美激情在线五月 | 久久精品国产99国产精品亚洲 | 91素人 | 国产精品美女久久久 | 九九热精品视频 | 国精产品一区一区三区免费完 | 国产情侣啪啪 | 91看片网| 欧美在线观看一区 | 日韩高清中文字幕 | 国产97人人超碰caoprom |