本帖最後由 江楓 於 2011-6-14 18:52 編輯 * ]( I* P1 j$ A; ?
; _2 v1 I6 s8 E' J0 o2 k) j" |
我們以前是通過次數和邏輯算法來控制的,這樣才能治標治本,如果真想採集你的網站信息的話,其實很簡單. ) b' l6 ? h0 Z& Y
我在網上找了一個很全面的防採集的方法,參考一下
# Q$ n5 K' N9 _( Q( Y/ @
9 L% @4 R- S A( G$ Z很多防採集方法在施行的時候需要考慮是否影響搜索引擎對網站的抓取,所以先來分析下一般採集器和搜索引擎爬蟲採集有何不同。 3 _9 [$ A1 _) u7 y, o( V3 o
相同點:a. 兩者都需要直接抓取到網頁源碼才能有效工作,b. 兩者單位時間內會多次大量抓取被訪問的網站內容;c. 宏觀上來講兩者IP都會變動;d. 兩者多沒耐心的去破解你對網頁的一些加密(驗證),比如網頁內容通過js文件加密,比如需要輸入驗證碼才能瀏覽內容,比如需要登錄才能訪問內容等。
8 v) S* X) U& h# X
S9 y5 R! k! x; a! u4 _2 C不同點:搜索引擎爬蟲先忽略整個網頁源碼腳本和樣式以及html標籤代碼,然後對剩下的文字部分進行切詞語法句法分析等一系列的複雜處理。而採集器一般是通過html標籤特點來抓取需要的數據,在製作採集規則時需要填寫目標內容的開始標誌何結束標誌,這樣就定位了所需要的內容;或者採用對特定網頁製作特定的正則表達式,來篩選出需要的內容。無論是利用開始結束標誌還是正則表達式,都會涉及到html標籤(網頁結構分析)。 8 P# Y/ I/ g/ t0 g$ k( O Z; U
6 [- V8 L' m6 T$ T% V F
然後再來提出一些防採集方法 8 X6 R) C, R' J
1、限制IP地址單位時間的訪問次數
7 Q1 L9 B f/ O分析:沒有哪個常人一秒鐘內能訪問相同網站5次,除非是程序訪問,而有這種喜好的,就剩下搜索引擎爬蟲和討厭的採集器了。
8 i# v; B% L4 |0 j6 u8 L弊端:一刀切,這同樣會阻止搜索引擎對網站的收錄 : B k9 \5 Z7 Y3 K( d ^
適用網站:不太依靠搜索引擎的網站 ! L( A' Y) ~9 x% `1 Q
採集器會怎麼做:減少單位時間的訪問次數,減低採集效率 , v/ O& Q F* M# B$ m
4 T" b6 N7 R8 T, u1 j8 l( K2、屏蔽ip - `. X. v% X2 R0 q; B- @+ `3 j
分析:通過後台計數器,記錄來訪者ip和訪問頻率,人為分析來訪記錄,屏蔽可疑Ip。
% P# Q) g, B5 r9 R" {; X; c0 E弊端:似乎沒神馬弊端,就是站長忙了點 , v8 l1 v, o8 e8 O" G
適用網站:所有網站,且站長能夠知道哪些是google或者百度的機器人
, i( o! V( g O採集器會怎麼做:打游擊戰唄!利用ip代理採集一次換一次,不過會降低採集器的效率和網速(用代理嘛)。
6 y, L9 h9 N2 g8 u& v% E1 U; X) f) b$ Z9 t( M& z/ o
3、利用js加密網頁內容
' r& Q0 m- {6 d7 |! ^Note:這個方法我沒接觸過,只是從別處看來
7 K2 C. ~) ?, ?- `0 v2 C6 s$ p分析:不用分析了,搜索引擎爬蟲和採集器通殺
/ a- p" [( X" m適用網站:極度討厭搜索引擎和採集器的網站 F+ b: h2 z$ L2 k8 G, u1 A* A% f
採集器會這麼做:你那麼牛,都豁出去了,他就不來采你了
9 b5 p" T$ v: _3 C! H4 U" Y- d z1 I! h0 ~
4、網頁裡隱藏網站版權或者一些隨機垃圾文字,這些文字風格寫在css文件中 , S" f& c" F/ u z! _/ k0 A
分析:雖然不能防止採集,但是會讓採集後的內容充滿了你網站的版權說明或者一些垃圾文字,因為一般採集器不會同時採集你的css文件,那些文字沒了風格,就顯示出來了。 1 B# _6 T+ m8 x1 n: {, @/ V
適用網站:所有網站 & D X! o3 v- U# o
採集器會怎麼做:對於版權文字,好辦,替換掉。對於隨機的垃圾文字,沒辦法,勤快點了。 5 M& W$ J, T3 ], B( {! G1 K" K) S1 n
6 t/ o- B9 C6 ?3 m4 s5、用戶登錄才能訪問網站內容
) T, Q9 w; a. d, w6 ?3 c+ ^分析:搜索引擎爬蟲不會對每個這樣類型的網站設計登錄程序。聽說採集器可以針對某個網站設計模擬用戶登錄提交表單行為。
4 E: c+ h$ f& _- p適用網站:極度討厭搜索引擎,且想阻止大部分採集器的網站 3 B! D) {6 M8 E2 q+ p% ~
採集器會怎麼做:製作擬用戶登錄提交表單行為的模塊 3 H2 [% e3 x& z+ ]( T
" Q* j* x# [( g* r1 I1 d9 ], j6、利用腳本語言做分頁(隱藏分頁)
) H/ N2 \" N t% F0 o分析:還是那句,搜索引擎爬蟲不會針對各種網站的隱藏分頁進行分析,這影響搜索引擎對其收錄。但是,採集者在編寫採集規則時,要分析目標網頁代碼,懂點腳本知識的人,就會知道分頁的真實鏈接地址。
7 q% [ z( `* r, e. o5 t適用網站:對搜索引擎依賴度不高的網站,還有,採集你的人不懂腳本知識 k8 r" O& X3 K( z1 ^4 ^/ ?1 I) Z# x
採集器會怎麼做:應該說採集者會怎麼做,他反正都要分析你的網頁代碼,順便分析你的分頁腳本,花不了多少額外時間。 ( w( V8 a$ f( D0 }" M( b5 b8 W3 D
7 F3 a% O0 ^( ?: O) ^- T. V7、防盜鏈措施(只允許通過本站頁面連接查看,如:Request.ServerVariables(「HTTP_REFERER「) ) ; P5 \+ F3 F. C B% x; Y
分析:asp和php可以通過讀取請求的HTTP_REFERER屬性,來判斷該請求是否來自本網站,從而來限制採集器,同樣也限制了搜索引擎爬蟲,嚴重影響搜索引擎對網站部分防盜鏈內容的收錄。
+ P3 [ h6 W. B$ p" L適用網站:不太考慮搜索引擎收錄的網站
# M$ g# Q. q1 ~) B* d5 l採集器會怎麼做:偽裝HTTP_REFERER嘛,不難。
3 J9 V6 g- G# U+ b0 n7 G
8 d5 s, D1 {$ ], B$ q" H8、全flash、圖片或者pdf來呈現網站內容
- z' @+ a4 H# K分析:對搜索引擎爬蟲和採集器支持性不好,這個很多懂點seo的人都知道
+ ?4 X( D3 C$ P# q% L, ~適用網站:媒體設計類並且不在意搜索引擎收錄的網站
5 o5 U. a8 l+ G6 a採集器會怎麼做:不採了,走人
/ G4 `% k9 h( _, L6 }" u+ U
6 E0 a l6 X9 [/ z2 r: c7 y6 j* G9、網站隨機採用不同模版 8 z( N0 K* P- o0 c8 c" e
分析:因為採集器是根據網頁結構來定位所需要的內容,一旦先後兩次模版更換,採集規則就失效,不錯。而且這樣對搜索引擎爬蟲沒影響。 0 ?, s/ l6 t& o0 W
適用網站:動態網站,並且不考慮用戶體驗。 / u, _0 D# M% [) y5 J
採集器會怎麼做:一個網站模版不可能多於10個吧,每個模版弄一個規則就行了,不同模版採用不同採集規則。如果多於10個模版了,既然目標網站都那麼費勁的更換模版,成全他,撤。 : y/ V7 N0 ~7 ?0 Z
9 t1 S. ]0 F2 j$ E/ c7 U5 a; O3 O0 r10、採用動態不規則的html標籤 2 z# r+ M( n, B0 w# f" h
分析:這個比較變態。考慮到html標籤內含空格和不含空格效果是一樣的,所以< div >和< div >對於頁面顯示效果一樣,但是作為採集器的標記就是兩個不同標記了。如果每次頁面的html標籤內空格數隨機,那麼 - W7 B& ^# f5 E! C
採集規則就失效了。但是,這對搜索引擎爬蟲沒多大影響。
1 F2 S* A, j! k( H- u適合網站:所有動態且不想遵守網頁設計規範的網站。
0 G4 q5 `0 t: K1 I採集器會怎麼做:還是有對策的,現在html cleaner還是很多的,先清理了html標籤,然後再寫採集規則;應該用採集規則前先清理html標籤,還是能夠拿到所需數據。
9 M9 S1 Z( Z4 F4 V. E
3 h0 y2 _" L w Q# t9 y) R* w8 d0 x! B4 H7 e
總結:
7 q; ^0 `7 V4 E+ K5 i; L, V一旦要同時搜索引擎爬蟲和採集器,這是很讓人無奈的事情,因為搜索引擎第一步就是採集目標網頁內容,這跟採集器原理一樣,所以很多防止採集的方法同時也阻礙了搜索引擎對網站的收錄,無奈,是吧?以上10條建議雖然不能百分之百防採集,但是幾種方法一起適用已經拒絕了一大部分採集器了。 |
|