解說網頁加載速度對于SEO的影響
有時候我們做SEO,光顧著做好結構跟鏈接,可能沒有去注意到一些細節問題,比如網頁的加載速度,這也是蕭涵今天要談的話題。
我們知道,一個服務器或者虛擬主機所分配的資源是有限的,如何讓搜索引擎蜘蛛能夠最大化地抓取頁面,網頁的加載速度就有著直接的影響,如果速度很慢的話,會讓蜘蛛浪費大量的時間在這個加載過程中。如果從蜘蛛的角度來了解,從用戶體驗來說也是同樣的道理,用戶不會愿意花很多時間去等你的網頁打開的。
雖然網頁的打開速度對有網站排名沒有直接影響,但還是有很好的促進作用。如果網站速度慢,勢必影響用戶體驗度,自然會影響排名;而對應的蜘蛛抓取效率不高,那么就影響著網站的收錄,大量頁面未被抓取到,收錄就少了,什么長尾關鍵詞優化啊等等,都成浮云了。
這些都是可以用數據來證明的,擅長分析日志的同學應該能注意到這點。對于網站速度的優化,我以前也寫過類似文章,總結了10個方法,這些都是基本的前端代碼的優化,這也是我建議學習SEO的朋友都需掌握的技能。
另外,除了對于基本代碼的優化,我們還可以使用服務器端的GZIP來壓縮文件,也就是說,在服務器上的網頁,傳輸之前,先使用Gzip壓縮再傳輸給客戶端,客戶端接收之后由瀏覽器解壓顯示,這樣雖然稍微占用了一些服務器和客戶端的 CPU,但是換來的是更高的帶寬利用率、更快的網頁加載速度,而且對于純文本來講,壓縮率是相當可觀的。
我之后會寫一下關于如何使用GZIP來壓縮網頁,效果很明顯哦,能壓縮60%以上。
再提一點,就是關于上面提到的一個服務器的資源有限,對于蜘蛛的抓取也是有限制的,我們可以通過分析日志,會看到很多一些沒聽過的,或者基本很少用的搜索引擎蜘蛛也在爬行,我們完全可以將這些蜘蛛屏蔽掉以節省帶寬,而相應地就會提高其他蜘蛛的爬行量了。屏蔽蜘蛛的方法是在robots.txt文件中另起一行加入如下代碼:
- User-agent: 蜘蛛爬蟲名稱
- Disallow: /
當然,最終能不能收錄,這個還得建立在高質量的內容和良好的內部鏈接結構的前提下。
【編輯推薦】