文章目錄
- 一.前言
- 二.通用爬蟲
- 1.工作原理
- 2.通用爬蟲的局限性
- 三.聚焦爬蟲
一.前言
根據使用場景,網絡爬蟲可分為 通用爬蟲 和 聚焦爬蟲 兩種。
其中通用網絡爬蟲是捜索引擎抓取系統(Baidu、Google、Yahoo等)的重要組成部分。主要目的是將互聯網上的網頁下載到本地,形成一個互聯網內容的鏡像備份。
二.通用爬蟲
1.工作原理
通用網絡爬蟲從互聯網中搜集網頁,采集信息,這些網頁信息用于為搜索引擎建立索引從而提供支持,它決定著整個引擎系統的內容是否豐富,信息是否即時,因此其性能的優劣直接影響著搜索引擎的效果。
(1)抓取網頁:通過搜索引擎將待爬取的url加入到通用爬蟲的url隊列中,進行網頁內容的爬取
(2)數據存儲:將爬取下來的網頁保存到本地,這個過程會有一定的去重操作,如果某個網頁的內 容大部分內容都會重復,搜索引擎可能不會保存。
(3)預處理:提取文字,中文分詞,消除噪音(比如版權聲明文字,導航條,廣告等)。
除了HTML文件外,搜索引擎通常還能抓取和索引以文字為基礎的多種文件類型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。我們在搜索結果中也經常會看到這些文件類型。
但搜索引擎還不能處理圖片、視頻、Flash 這類非文字內容,也不能執行腳本和程序。
(4)設置網站排名,為用戶提供服務。
同時會根據頁面的PageRank值(鏈接的訪問量排名)來進行網站排名,這樣Rank值高的網站在搜索結果中會排名較前,當然也可以直接使用 Money 購買搜索引擎網站排名,簡單粗暴。
2.通用爬蟲的局限性
但是,這些通用性搜索引擎也存在著一定的局限性:
-
通用搜索引擎所返回的結果都是網頁,而大多情況下,網頁里90%的內容對用戶來說都是無用的。
-
不同領域、不同背景的用戶往往具有不同的檢索目的和需求,搜索引擎無法提供針對某個用戶的搜索結果。
-
萬維網數據形式的豐富和網絡技術的不斷發展,圖片、數據庫、音頻、視頻多媒體等不同數據大量出現,通用搜索引擎對這些文件無能為力,不能很好地發現和獲取。
-
通用搜索引擎大多提供基于關鍵字的檢索,難以支持根據語義信息提出的查詢,無法準確理解用戶的具體需求。
三.聚焦爬蟲
針對這些情況,聚焦爬蟲技術得以廣泛使用。
聚焦爬蟲,是"面向特定主題需求"的一種網絡爬蟲程序,它與通用搜索引擎爬蟲的區別在于: 聚焦爬蟲在實施網頁抓取時會對內容進行處理篩選,盡量保證只抓取與需求相關的網頁信息。
而我們今后要學習的網絡爬蟲,就是聚焦爬蟲。