SuperSpider——打造功能強大的爬蟲利器
?
博文作者:加菲
發布日期:2013-12-11
閱讀次數:4506
博文內容:
?
1.爬蟲的介紹

圖1-1? 爬蟲(spider)
? ? ??
? ? ? 網絡爬蟲(web spider)是一個自動的通過網絡抓取互聯網上的網頁的程序,在當今互聯網中得到越來越廣泛的使用。這種技術一般用來爬取網頁中鏈接,資源等,當然,更為高級的技術是把網頁中的相關數據保存下來,成為搜索引擎,例如著名的google和百度。常見的爬蟲應用還有像一淘這樣的比價網站,電影推薦網站等。
? ? ? 為了讓大家進一步感受到爬蟲的魅力,筆者編寫了一個爬取淘寶和京東數據的比價網站(http://jiafei.org:8888/),如圖1-2所示。由于淘寶和京東的搜索結果頁面中有部分內容引(如價格)是通過ajax動態獲得的,再用javascript把內容寫入到相應的標簽中的,當搜索Iphone 5s時,后臺爬蟲利用webkit生成去最終的dom樹,爬取有用的數據,經過簡單的處理后返回相應的結果。

?
圖1-2? 一個簡單的比較網站
?
2.為何需要爬蟲
? ? ? 爬蟲對于掃描器來說至關重要,站在整個掃描器的最前線(如圖2-1所示)。在一個專業掃描器中,一般首先會由爬蟲爬取指定的頁面,接著把爬到的url傳遞給調度server,最后由調度server分發需要掃描的url給掃描agent來完成整個掃描過程。

?
圖2-1? 掃描器的組成
?
2.爬蟲的架構與分析
?
? ? ? Web安全對于互聯網公司來說至關重要,為了讓公司的掃描器與業界的掃描器看齊,server安全組自研了一款功能強大的爬蟲——SuperSpider,主要用來為漏洞掃描提供豐富的urls。SuperSpider的架構如圖3-1所示,首先由下載器模塊下載指定的頁面,分析頁面模塊分析完成后一方面把需要的數據傳遞給存儲模塊,另一方面將爬取的urls傳遞給去重模塊,去重后放到url隊列中,最后由調度器安排次序傳遞url給下載器下載新的頁面。接下來詳細講講分析頁面,調度器和去重這3個模塊。
?

圖3-1? 爬蟲的架構
?
3.1分析頁面
簡單的來說, 爬蟲主要作用就是用來分析頁面。
難點:因為現在是web2.0時代,絕大部分網頁都會使用javascript處理頁面,而且很多網頁內容都是通過Ajax技術加載的。因此,只是簡單地解析HTML文件會遠遠不夠。
解決:如何做到這點?編寫一個基于webkit的爬蟲SuperSpider。下面將詳細說明SuperSpider所具有的5個功能強大的爬取能力。
a.??靜態頁面鏈接分析
? ? ? 簡單點來說,就是分析html文檔,例如下圖的一個<a>標簽的超鏈接,SuperSpider會識別出href中的值為一個超鏈接,提取其值html_link.php?id=1。

b.? javascript動態解析
? ? ? 下圖為一段javascript代碼,該代碼的目的是在id為hi的a標簽中提交屬性href。

? ? ??
? ? ? SuperSpider利用webkit內核執行以上javascript代碼生成出以下html代碼,再通過靜態頁面鏈接分析獲取js_link.php?id=1&msg=abc這個url。

c.??自動分析表單
? ? ? SuperSpider會自動識別出action中的值為所提交的地址,提取input標簽中的name和value作為參數,最終生成出 post_link.php?id=1&msg=abc 這個url。

?
d.??自動交互
? ? ? 自動交換就是說要模仿出人的行為,例如點擊鼠標,按下回車鍵等,下圖就是一個需要點擊鼠標的例子。

? ? ? SuperSpider會自動識別出onclick是一個交換行為,從而執行里面的js代碼生成出以下html,從而爬到了 click_link.php?id=1 這個url。

?
e.? hook所有的網絡請求
? ? ? 這是一個ajax請求,有別于以上4種基于dom樹解析的分析技術,要捉到其請求的url只能通過hook請求,而webkit文檔中并沒有提到hook 網絡請求的方法。于是通過修改webkit代碼hook住每一個由webkit發送出去的請求,從而拿到了 ajax_link.php?id=1&t=1這個url。

?
3.2調度器
? ? ? SuperSpider的調度器使用廣度優先搜索策略,具體的邏輯如下圖所示。首先,從入口頁面1.html中爬到了2.html, 3.html和4.html,依次把它們放到url隊列中。接著取出2.html,把爬到的5.html和6.html放到url隊列中,隨后便開始爬取3.html,依廣度次序進行。

圖3-2-1? 爬蟲調度的廣度優先搜索策略
3.3去重
? ? ? 為了掃描的質量和效率,需要進行去重。例如大部分網站中日期作為其url的組成部分,尤其是門戶網站。SuperSpider使用將數字替換成d+的算法對url進行去重。例如,
1.http://video.sina.com.cn/ent/s/h/2010-01-10/163961994.shtml?a=1&b=10
2.http://video.sina.com.cn/ent/s/h/2009-12-10/16334456.shtml?a=12&b=67
對數字進行模式處理為:
http://video.sina.com.cn/ent/s/h/d+-d+-d+/d+.shtml?a=d+&b=d+
如果鏈接1已經爬取過,鏈接2與鏈接1類似, 不重復爬取。
試驗證明這種方法簡捷高效,漏爬率極低,大大提升掃描器的效率。
?
4.爬蟲的具體實現
a.webkit的易用性
? ? ? 常用的chrome, safari等瀏覽器都是基于webkit內核,不過提起這個內核,大家可能會覺得有點龐大艱深。但如果只是對于應用層面來說,webkit使用起來還是挺簡易的。如圖4-1所示,只需14行便可以寫出一個瀏覽器。

圖4-1? 使用webkit編寫的瀏覽器
b.難點解決
問題:Webkit需要視窗系統才能正常啟動,而服務器一般都沒有視窗系統的,那么如何在后臺穩定地運行webkit?之前是去掉webkit中的圖形渲染,css等與gui有關的代碼,太麻煩,易出眾多bug。
解決:使用xvfb虛擬出一個視窗系統,只需把alert, confirm, prompt的代碼注釋掉(因為會讓瀏覽器卡住),簡單快捷穩定。
c.爬蟲的邏輯代碼
圖4-2為爬蟲的邏輯代碼,在parse函數里利用webkit生成出來的dom樹來做具體的第三部分所提到的分析邏輯。
圖4-2? 爬蟲的邏輯代碼
5.效果
? ? ? SuperSpider與wvs的爬蟲對比,在著名的爬蟲測試平臺http://demo.aisec.cn/demo/進行測試,該平臺要求爬蟲要完全具備3.1所提到的5個功能才能爬取到所有的url,上圖為掃描器的爬蟲,下圖為wvs的爬蟲, 其中click_link.php (在3.1.d提到)是需要爬蟲具有自動交換能力才能爬取到的。
結論:SuperSpider全部都能爬到, 在自動交互方面比wvs表現更好
圖4-1? SuperSpider與wvs的結果對比
?
6.結尾
以上筆者的一些思考與總結,歡迎大牛們的意見和建議!