过期域名预定抢注

 找回密碼
 免费注册

搜索引擎不會告訴你的關於robots的潛規則

[複製鏈接]
發表於 2014-10-14 09:18:18 | 顯示全部樓層 |閱讀模式
本帖最後由 外貿協會one 於 2014-10-14 09:19 編輯
) {7 a" a$ \& w" {  z: u1 B' a; |
4 P- H; t# z( T0 F9 ~4 O% S相信很多人都知道robots文件,但是他的真正用途,不知道瞭解的多不多。我在光年論壇看了一篇,覺得挺好的,就轉載過來了。
# e8 s+ I& k$ z) _3 \2 g
! E: z0 S; U/ `' e  Robots文件是我們與搜索引擎對話的最重要渠道。2 O( C* d9 o9 d/ V

6 h8 R7 U  G7 E$ r+ B  為什麼meta信息有這麼多種類,我們卻從來沒有在網頁上看到過它們呢?因為meta標籤的內容在瀏覽器上是不顯示的。絕大部分的meta信息是寫給搜索引擎看的,用於幫助搜索引擎判斷頁面的價值、重要性。; v; A0 y; D* [( G% K( Z9 G; h

9 K3 a: U  b1 C' d+ L( Z% I/ [  作為網頁設計者和搜索引擎交流的一個重要渠道,各種meta標籤提供了從不同角度描述頁面的基礎信息,而機器人在訪問網頁時也會首先讀取這個部分。
" u6 O& a. a* U$ f' z5 N2 Y
0 k; H. V0 g- d關於robots基礎閱讀:
$ t- ~4 {% W6 w3 _' f; ~
4 d, |4 Z3 @( j% F+ e/ J絕大部分 spider 能夠識別的是以下幾種:
7 G3 {  V& \; i  q* T( {- ?$ \- `  {$ h) m; J/ W/ o& u
  noindex -【頁面會被抓取,但在被google的後台系統分析完以後會被丟棄,不會進入google的索引排序,對用戶而言也就不會出現在搜索結果中】1 B! A6 X4 {/ f  f6 W4 Q' X
  nofollow -【禁止googlebot追蹤頁面上的一切鏈接(阻止訪問)。(與meta級別的nofollow不同的是, link級別裡的nofollow只會阻止robot追蹤單條鏈接)】- S4 c* @7 Z0 ]
  noarchive -【禁止在搜索結果中顯示該頁面的快照】8 c9 ]0 y1 b" Q  ]( N
  nosnippet -【禁止在搜索結果的網頁鏈接下顯示內容摘要,同時阻止搜索引擎產生該頁面的快照】/ }; ]# h: M# B  c5 A4 v) _! A
  noodp -【在搜索結果的頁面摘要部分屏蔽open directory project對該頁面的描述】
8 Q+ L+ C" F* b* r; r/ B2 X* M  none -【等同於同時使用noindex和nofollow兩個參數】5 r. T  q, S- k" ~8 y5 g
  robots文件的使用,有很多特別需要注意的,甚至很多知識點甚至搜索引擎本身都沒有給出詳盡的說明或者是使用方法。在參閱了大量的資料和結合自身的一些嘗試,本文將重點說明下,一些在對robots文件進行處理的過程中需要特別注意的潛規則:
6 A- A7 u* _( p" z! Q5 `4 R( k9 C5 c: k
一不允許出現多條user-agent的記錄
) }7 u( V( e4 \7 p4 D' l" n7 r  c2 ?% E) _4 S) W8 H
  一份「/robots.txt」文檔中不允許出現多條包含「user-agent: *」的記錄(但允許沒有此記錄)。
" T5 x7 D* a7 u% x% U/ T0 a7 Z0 ]# Z3 {
二- spider名字的大小寫問題
4 h; z$ f  S1 [9 @6 [6 w/ F
. q* v' c7 U2 |3 `- @; F$ E  大多數搜索引擎的spider在讀取user-agent值的時候都是忽略大小寫,既Googlebot和googlebot應該都能被google識別。但是,我在學習淘寶seo的時候也發現,或許為了保險起見,淘寶的工作人員在自己的「/robots.txt」裡面分別寫了「user-agent: baiduspider」和「user-agent: baiduspider」兩條。(參9 p7 z$ S* \1 m8 u+ |/ o

/ t' u+ I7 G+ \: O* f5 a  L見:http://www.taobao.com/robots.txt)) \+ I9 W2 X- J/ g/ V6 @  T9 i+ v
2 H2 _) ?+ q$ i
三、allow和disallow的順序" l1 p" N2 T9 L7 S) P9 h

2 ?8 s7 R% t/ o( Z. C8 J9 C  大部分情況下,想要兼容所有的機器人,就應當將allow指令放在disallow指令的前面,例如:' _1 @1 ]: r1 D( |

% u4 ]$ w$ `: @! Z: x$ z7 sAllow: /a/b.html
) c" q" e4 F" V/ {% `4 i3 @Disallow: /a/
$ d7 v- O% [" G: M
/ _% Z# J0 W, Q# c2 H/ j+ v  這會阻止對"/a/"內除了"/a/b.html"以外一切內容的檢索,因為後者是優先匹配成功的。雖然對於google和百度來說,先後順序並不重要。但是不排除會導致其他搜索引擎出現抓取問題。
/ x: b* j/ p5 B. B
5 b9 n, \- m8 {/ D; W四、allow與disallow的角力
* k( O& f& o6 F1 X* \# Y+ w/ a' k6 D$ M1 Q1 y& W
  如果allow指令中的地址同disallow指令中的地址相比具有相同或更多字符(意味著allow指令所描述的地址更「深」、更「具體」)的話,雖然disallow指令也能匹配,但allow指令仍然會「獲勝」(這樣就達到開放子文件夾的目的了,同時沒被allow的部分依然不會被檢索)。
' J: u2 o; N$ C! }9 v
1 l9 T, ]) C7 i  B& v; I五、反斜槓「/」的意義
+ s* |' E% [* y9 b4 m$ ^  @
$ @+ d% |6 ~: w5 w( m; L  反斜槓「/」表示禁止搜索引擎進入該目錄。
5 M& ~3 t3 U' s: d: D3 k3 |2 s' ?& |) R; y/ j1 B( ?8 T
User-agent: spider& C6 s7 N$ Z1 C( D* G+ T- h- i3 {
Disallow: /a# a8 O- P2 s# |; @" S) U2 b

$ D: h- H& N. U  對這樣的記錄機器人該怎麼反應?按照res標準,機器人會將名為「a」的文件和名為「a」的目錄都disallow。當然,比較符合邏輯切清晰的寫法是使用「9 k) j+ |# b4 z% {, O0 m. l( g; ~

) U) B2 i1 a- }/」來標識所聲明的路徑:8 N  t1 O- C, [5 e
+ V$ r. z" d1 d
Disallow: /a/
0 D# \% _' N8 O0 A7 e3 ]0 H$ c+ h" \. m; n  T
  注意不要忘記「a」前面的「/」
, f) S; T- c8 C3 i/ u3 U) H
/ S! w/ e" Z  R" K+ P六、在指示行末尾加注的問題
8 h) J/ E  y& H; [& X- A% b* [! J
9 a- @# E  r& A  在「/robots.txt」文件中,凡以「#」開頭的行,均被視為註解內容,這和unix中的慣例是一樣的。例如:
: t9 W5 \9 u. G. l, i% h
* ^, d& I+ n3 b6 W" PDisallow: /cgi-bin/ # this bans robots from our cgi-bin
6 M5 E" y% |1 a, p9 g. E. {+ h- f
( R4 ]0 U+ Z, \- Q- }( q+ {/ _; z2 ?七、盡量不要在一行的前面出現空格,如「 disallow: /」《很多人非常不小心,空格就沒了》
# \; n+ s& N! D+ u% T2 b
( _+ N! v( N9 S* Z! J  Res標準並未對這種格式予以特別說明,但和上面一個問題一樣,可能導致某些機器人無法正確解讀。3 S0 H6 z) Z% f/ p% Q- j
0 ?& f7 b: E5 Q7 u- F
八.文件目錄區分大小寫(這個或許是困惑大多數人的)0 F5 i; m8 D, L  A6 W7 J7 Y
8 ?) {$ }2 \, q4 c/ A# N
  雖然res標準忽略大小寫(case insensitive),但目錄和文件名卻是大小寫敏感的。所以對於"user-agent"和"disallow"指令,用大小寫都是可以的。但對於所聲明的目錄或文件名卻一定要注意大小寫的問題。例如:' \3 w1 z/ s8 S, {2 @1 p
* r- L: }0 I9 q: P5 U/ ?
Disallow: /abc.htm
* a: V$ r* Q( p; z) }( ?  會攔截「http://www.example.com/abc.htm」
- i6 Y* C7 W' ^  卻會允許http://www.example.com/Abc.htm1 i/ o8 p" ?8 k8 C  d

9 @& k( r: M& f2 m  所以在IIS服務器可能出現的 諸多 大小寫目錄問題,可以通過此方法得到圓滿解決。
8 x9 j7 v% D7 E  z
5 _, j/ J9 i' N2 i7 S九、如果頁面中包含了多個同類型meta標籤,spider會累加內容取值
$ U# _% O0 S4 K" C3 E; s
, ~, O  I4 r+ c% P1 s2 D  u2 j  對於下面兩條語句來說:
5 Z& i$ p3 n9 m% w<meta name="robots" content="noindex" />) {5 B6 }/ n3 f; k+ d! V
<meta name="robots" content="nofollow" />% L5 I9 g: }. z5 C2 u! d
9 L) h- g# p2 Y+ b
  搜索引擎將會理解成:! c4 L: |1 ^, o4 |
<meta name="robots" content="noindex, nofollow" />& Q& H9 d: j. t( D, x1 m4 B

& V/ _7 y0 [6 D+ M1 u& ]十當內容取值衝突的時候,google和百度等大多數搜索引擎會採納限制性最強的參數
; @7 [. I: R# ^+ e6 e" K
3 q& l* M- a% b6 O. j( W* w  例如,如果頁面中包含如下meta標籤:9 f8 T/ Y2 N4 R+ L
<meta name="robots" content="noindex" />: s2 b" Z1 x7 l: Y5 x% W
<meta name="robots" content="index" />
0 O  d5 ]+ E# ~, I( D9 \  Spider會服從noindex的取值。
) Q" F. T1 F2 X- D: E
8 L3 b* i2 T, V" y/ Y: J; }; l十一.如果你既用了robots.txt文件又用了robots meta標籤: D, D$ {$ i0 L7 @* G1 T# n; ?

. e7 }8 {% Y$ Q1 _4 T  當二者出現衝突,googlebot會服從其中限制較嚴的規則
* K* `5 b* O2 E* S4 _2 D( [" L
: I/ I* x6 S! K  _( h5 E  如果你在robots.txt中阻止了對一個頁面的檢索,googlebot永遠不會爬到這個頁面,因此也根本不會讀到這個頁面上的meta標籤。 如果你在robots.txt裡面允許了對一個頁面的檢索,卻在meta標籤中禁止了這一行為,googlebot會到達這個頁面,在讀到meta標籤後終止進一步的檢索行為。
( x! v3 u8 H' h: k8 ?$ i1 Y  z" f2 N! o  ~* o
  當然關於robots文件的使用,還有更多等待大家的挖掘和分享。
( Z% d* u: A! n( C$ ~, w. V
& f7 Q! f9 x; I4 ?P.S.附上一個robots.txt文件的在線檢測地址- w7 V  t0 S$ H0 g2 }
http://tool.motoricerca.info/robots-checker.phtml
  W; D: }/ S+ l: K' h! |; c9 Q5 O6 q; @; X
來自sem9" C; ?( @5 y' t. S3 i9 }5 Y
9 G; `' t$ x9 [8 }, N& x

" K0 [' ~& g) K9 _: B
回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 免费注册

本版積分規則

點基跨境 數位編輯創業論壇

GMT+8, 2025-4-5 07:38

By DZ X3.5

小黑屋

快速回復 返回頂部 返回列表