欧美日韩日本国产_中文有码在线_久久久激情视频_中文字幕不卡在线

在線網(wǎng)站robots.txt文件生成器

robots.txt生成器,robots.txt寫法,robots協(xié)議
限制目錄:每個(gè)路徑之前都要包含:"/"

Sitemap:留空為無(wú),谷歌為xml格式,百度為html格式

所有搜索引擎:
  • 允許
    拒絕
國(guó)內(nèi)搜索引擎
  • 百度
    默認(rèn)
    允許
    拒絕
  • SOSO
    默認(rèn)
    允許
    拒絕
  • 搜狗
    默認(rèn)
    允許
    拒絕
  • 有道
    默認(rèn)
    允許
    拒絕
國(guó)外搜索引擎
  • 谷歌
    默認(rèn)
    允許
    拒絕
  • Bing
    默認(rèn)
    允許
    拒絕
  • 雅虎
    默認(rèn)
    允許
    拒絕
  • Ask/Teoma
    默認(rèn)
    允許
    拒絕
  • Alexa/Wayback
    默認(rèn)
    允許
    拒絕
  • Cuil
    默認(rèn)
    允許
    拒絕
  • MSN Search
    默認(rèn)
    允許
    拒絕
  • Scrub The Web
    默認(rèn)
    允許
    拒絕
  • DMOZ
    默認(rèn)
    允許
    拒絕
  • GigaBlast
    默認(rèn)
    允許
    拒絕
特殊搜索引擎(機(jī)器人)
  • Google Image
    默認(rèn)
    允許
    拒絕
  • Google Mobile
    默認(rèn)
    允許
    拒絕
  • Yahoo MM
    默認(rèn)
    允許
    拒絕
  • Yahoo Blogs
    默認(rèn)
    允許
    拒絕
  • MSN PicSearch
    默認(rèn)
    允許
    拒絕

請(qǐng)將以上結(jié)果保存到記事本,命名為robots.txt上傳到網(wǎng)站根目錄

工具簡(jiǎn)介

Robots.txt 是存放在站點(diǎn)根目錄下的一個(gè)純文本文件。雖然它的設(shè)置很簡(jiǎn)單,但是作用卻很強(qiáng)大。它可以指定搜索引擎蜘蛛只抓取指定的內(nèi)容,或者是禁止搜索引擎蜘蛛抓取網(wǎng)站的部分或全部?jī)?nèi)容。

使用方法:

Robots.txt 文件應(yīng)該放在網(wǎng)站根目錄下,并且該文件是可以通過(guò)互聯(lián)網(wǎng)進(jìn)行訪問(wèn)的。
例如:如果您的網(wǎng)站地址是 http://www.yourdomain.com/那么,該文件必須能夠通過(guò) http://www.yourdomain.com/robots.txt 打開(kāi)并看到里面的內(nèi)容。

格式:

User-agent:

用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)搜索引擎蜘蛛會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"這樣的記錄只能有一條。

Disallow:

用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開(kāi)頭的URL均不會(huì)被Robot訪問(wèn)到。

舉例:

例一:"Disallow:/help"是指/help.html 和/help/index.html都不允許搜索引擎蜘蛛抓取。

例二:"Disallow:/help/"是指允許搜索引擎蜘蛛抓取/help.html,而不能抓取/help/index.html。

例三:Disallow記錄為空說(shuō)明該網(wǎng)站的所有頁(yè)面都允許被搜索引擎抓取,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"是一個(gè)空文件,則對(duì)于所有的搜索引擎蜘蛛,該網(wǎng)站都是開(kāi)放的可以被抓取的。

#:Robots.txt 協(xié)議中的注釋符。

綜合例子 :

例一:通過(guò)"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目錄,以及 "/tmp/"目錄和 /foo.html 文件,設(shè)置方法如下:

User-agent: *

Disallow: /bin/cgi/

Disallow: /tmp/

Disallow: /foo.html

例二:通過(guò)"/robots.txt"只允許某個(gè)搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允許名為"slurp"的搜索引擎蜘蛛抓取,而拒絕其他的搜索引擎蜘蛛抓取 "/cgi/" 目錄下的內(nèi)容,設(shè)置方法如下:

User-agent: *

Disallow: /cgi/

User-agent: slurp

Disallow:

例三:禁止任何搜索引擎抓取我的網(wǎng)站,設(shè)置方法如下:

User-agent: *

Disallow: /

例四:只禁止某個(gè)搜索引擎抓取我的網(wǎng)站如:只禁止名為“slurp”的搜索引擎蜘蛛抓取,設(shè)置方法如下:

User-agent: slurp

Disallow: /

更多參考資料 (英文版)

robots.txt是什么
robots.txt是一個(gè)協(xié)議,而不是一個(gè)命令。robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的,也可以指定sitemap的路徑。
當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。 Google和百度官方建議,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。
robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫。robots.txt必須遵循robots.txt協(xié)議使用標(biāo)準(zhǔn)語(yǔ)法,嚴(yán)格按照用法來(lái)編寫,不然會(huì)造成搜索引擎無(wú)法訪問(wèn)你的網(wǎng)站。
robots.txt文件的格式
"robots.txt"文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(kāi)(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:
   <field><optional space><value><optional space>
在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開(kāi)始,后面加上若干Disallow和Allow行,詳細(xì)情況如下:
User-agent:
該項(xiàng)的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受 到"robots.txt"的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。 如果該項(xiàng)的值設(shè)為*,則對(duì)任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、 Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

Disallow:
該項(xiàng)的值用于描述不希望被訪問(wèn)的一組URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項(xiàng)的值開(kāi)頭的URL不會(huì)被 robot訪問(wèn)。 例如"Disallow:/help"禁止robot訪問(wèn)/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問(wèn)/help.html、/helpabc.html, 不能訪問(wèn) /help/index.html。"Disallow:"說(shuō)明允許robot訪問(wèn)該網(wǎng)站的所有url,在"/robots.txt"文件中,至少要有一 條Disallow記錄。如果"/robots.txt"不存在或者為空文件, 則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開(kāi)放的。

Allow:
該項(xiàng)的值用于描述希望被訪問(wèn)的一組URL,與Disallow項(xiàng)相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項(xiàng)的值開(kāi)頭的URL 是允許robot訪問(wèn)的。 例如"Allow:/hibaidu"允許robot訪問(wèn)/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個(gè)網(wǎng)站的所有URL默認(rèn)是Allow的,所以Allow通常與Disallow搭配使用, 實(shí)現(xiàn)允許訪問(wèn)一部分網(wǎng)頁(yè) 同時(shí)禁止訪問(wèn)其它所有URL的功能。

使用"*"and"$":
Baiduspider支持使用通配符"*"和"$"來(lái)模糊匹配url。
"$" 匹配行結(jié)束符。
"*" 匹配0或多個(gè)任意字符。
robots.txt文件參考資料
robots.txt文件的更具體設(shè)置,請(qǐng)參看以下鏈接:
百度搜索幫助中心-禁止搜索引擎收錄的方法
Web Server Administrator's Guide to the Robots Exclusion Protocol
HTML Author's Guide to the Robots Exclusion Protocol
The original 1994 protocol description, as currently deployed
The revised Internet-Draft specification, which is not yet completed or implemented
欧美日韩日本国产_中文有码在线_久久久激情视频_中文字幕不卡在线
91视频这里只有精品| 中文字幕在线观看第三页| 高清av免费看| 东京热加勒比无码少妇| 日韩a级黄色片| 欧美性受xxxx黒人xyx性爽| 欧美性猛交久久久乱大交小说 | 成人黄色一区二区| 天天夜碰日日摸日日澡性色av| 精品国产无码在线| 999在线精品视频| 福利片一区二区三区| 狠狠热免费视频| 国产麻花豆剧传媒精品mv在线| 国产精品裸体瑜伽视频| 国内精品视频一区二区三区| 精品国产av无码一区二区三区 | 91网址在线观看精品| 色戒在线免费观看| 色18美女社区| 国产精品12p| 国产卡一卡二在线| 男人天堂新网址| 久久成人福利视频| 欧美色图另类小说| 久久久久久三级| 99热一区二区| 91免费网站视频| 免费超爽大片黄| 精品人妻一区二区三区四区在线 | 婷婷激情综合五月天| www.午夜av| 精品视频在线观看一区二区| 精品无码国产一区二区三区av| 隔壁人妻偷人bd中字| 人人妻人人添人人爽欧美一区| 无码aⅴ精品一区二区三区浪潮| 天堂在线资源视频| 中文字幕精品一区二区三区在线| 无码人妻精品一区二区三区99v| 好吊色视频988gao在线观看| 欧美日韩一道本| 中文字幕一区二区三区四区在线视频| 亚洲免费999| 日本人妻伦在线中文字幕| 99精品视频在线看| 日本一二三四区视频| 性欧美大战久久久久久久| 亚洲人辣妹窥探嘘嘘| 喜爱夜蒲2在线| 国产二区视频在线播放| 国产精品久久久久久9999| 亚洲精品蜜桃久久久久久| 精品久久久久久中文字幕2017| 91亚洲精品久久久蜜桃借种| 日韩日韩日韩日韩日韩| 香港日本韩国三级网站| 亚洲乱码日产精品bd在线观看| 精品一卡二卡三卡| 超碰97免费观看| 欧美成人黄色网址| 丁香花在线影院观看在线播放| 中文字幕成人在线视频| 女人天堂av手机在线| 一本二本三本亚洲码| 青青青国产在线视频| 国产欧美日韩小视频| 天堂av.com| www.国产区| 欧美极品欧美精品欧美| 欧美与动交zoz0z| 日本男人操女人| 亚洲熟妇无码另类久久久| 污污视频在线免费| 黄色手机在线视频| 国产极品尤物在线| 国产美女永久无遮挡| www.com黄色片| 18禁男女爽爽爽午夜网站免费| 真实国产乱子伦对白视频| 日韩av在线中文| 欧洲av无码放荡人妇网站| 欧美乱大交xxxxx潮喷l头像| 九九热视频免费| 嫩草视频免费在线观看| 精品少妇无遮挡毛片| av免费在线播放网站| 国产精品沙发午睡系列| 亚洲理论电影在线观看| 深爱五月综合网| 欧美国产在线一区| 国产女同无遮挡互慰高潮91| 亚洲精品20p| 成人亚洲精品777777大片| 成年人视频在线免费| 日韩精品视频一区二区在线观看| 欧美精品久久久久久久免费| 欧美三级在线观看视频| 少妇高潮喷水久久久久久久久久| 大肉大捧一进一出好爽视频| 日韩在线一级片| 久久精品免费一区二区| 女人和拘做爰正片视频| 国产福利视频在线播放| 国产av人人夜夜澡人人爽| xx欧美撒尿嘘撒尿xx| 国产超碰在线播放| 国产乱女淫av麻豆国产| 天堂av手机在线| 法国空姐在线观看免费| 欧美狂野激情性xxxx在线观| 国产精品无码免费专区午夜| 男女激情无遮挡| 免费日韩中文字幕| 91高清国产视频| 久久最新免费视频| 精品成在人线av无码免费看| 免费一级特黄毛片| 自慰无码一区二区三区| 日韩av播放器| 在线播放免费视频| 国产一级大片免费看| 亚洲熟妇av日韩熟妇在线| 欧美一级黄色片视频| 一区二区在线免费看| 欧美日韩dvd| 免费av网址在线| 中日韩av在线播放| 成年人视频网站免费| 国产欧美在线一区| 在线观看国产福利| 男人添女荫道口图片| 天天爱天天操天天干| 男人天堂新网址| 国产情侣av自拍| 18视频在线观看娇喘| 无码内射中文字幕岛国片| 吴梦梦av在线| 青青草原成人网| 波多野结衣网页| 久久久精品在线视频| 国产又大又长又粗又黄| 欧美韩国日本在线| japanese在线播放| 亚洲黄色av网址| 9色porny| 国产又黄又猛又粗又爽的视频| 国内少妇毛片视频| 天堂中文av在线| 国产成人精品视频免费看| eeuss中文| 一级黄色特级片| 日日碰狠狠添天天爽超碰97| 欧美一级免费在线| 波多野结衣天堂| 男人日女人下面视频| 日本一区二区免费高清视频| 国产成人av影视| 免费一级特黄毛片| 青春草在线视频免费观看| 国产综合免费视频| 成人免费视频91| 永久免费网站视频在线观看| 亚洲精品天堂成人片av在线播放 | 国产精品三级一区二区| 欧美伦理片在线观看| 中国丰满人妻videoshd | 黄色a级在线观看| 手机版av在线| 国产区二区三区| 噼里啪啦国语在线观看免费版高清版 | 成人在线免费高清视频| 天天色天天综合网| 免费看污黄网站| 色悠悠久久综合网| 可以在线看的黄色网址| 777精品久无码人妻蜜桃| www.xxx麻豆| 佐佐木明希av| 黄色一级片av| 99精品一区二区三区的区别| 中文字幕日韩久久| 亚洲一区二区三区四区精品| www.成人黄色| 精品一区二区成人免费视频 | 亚洲爆乳无码精品aaa片蜜桃| 污视频在线观看免费网站| 日本一二区免费| 欧洲美女亚洲激情| 浴室偷拍美女洗澡456在线| 日本xxxxx18| 国产91沈先生在线播放| 欧美精品久久久久久久自慰| 欧美视频在线免费播放| 日本毛片在线免费观看| 国产九九在线视频| 男人的天堂最新网址| 一本之道在线视频| www.xxx麻豆| 中文字幕在线观看第三页| `