dg112.com-日韩欧美在线免费,日韩电影免费在线,日韩av在线一区二区三区,日韩精品电影

在線網(wǎng)站robots.txt文件生成器

robots.txt生成器,robots.txt寫(xiě)法,robots協(xié)議
限制目錄:每個(gè)路徑之前都要包含:"/"

Sitemap:留空為無(wú),谷歌為xml格式,百度為html格式

所有搜索引擎:
  • 允許
    拒絕
國(guó)內(nèi)搜索引擎
  • 百度
    默認(rèn)
    允許
    拒絕
  • SOSO
    默認(rèn)
    允許
    拒絕
  • 搜狗
    默認(rèn)
    允許
    拒絕
  • 有道
    默認(rèn)
    允許
    拒絕
國(guó)外搜索引擎
  • 谷歌
    默認(rèn)
    允許
    拒絕
  • Bing
    默認(rèn)
    允許
    拒絕
  • 雅虎
    默認(rèn)
    允許
    拒絕
  • Ask/Teoma
    默認(rèn)
    允許
    拒絕
  • Alexa/Wayback
    默認(rèn)
    允許
    拒絕
  • Cuil
    默認(rèn)
    允許
    拒絕
  • MSN Search
    默認(rèn)
    允許
    拒絕
  • Scrub The Web
    默認(rèn)
    允許
    拒絕
  • DMOZ
    默認(rèn)
    允許
    拒絕
  • GigaBlast
    默認(rèn)
    允許
    拒絕
特殊搜索引擎(機(jī)器人)
  • Google Image
    默認(rèn)
    允許
    拒絕
  • Google Mobile
    默認(rèn)
    允許
    拒絕
  • Yahoo MM
    默認(rèn)
    允許
    拒絕
  • Yahoo Blogs
    默認(rèn)
    允許
    拒絕
  • MSN PicSearch
    默認(rèn)
    允許
    拒絕

請(qǐng)將以上結(jié)果保存到記事本,命名為robots.txt上傳到網(wǎng)站根目錄

工具簡(jiǎn)介

Robots.txt 是存放在站點(diǎn)根目錄下的一個(gè)純文本文件。雖然它的設(shè)置很簡(jiǎn)單,但是作用卻很強(qiáng)大。它可以指定搜索引擎蜘蛛只抓取指定的內(nèi)容,或者是禁止搜索引擎蜘蛛抓取網(wǎng)站的部分或全部?jī)?nèi)容。

使用方法:

Robots.txt 文件應(yīng)該放在網(wǎng)站根目錄下,并且該文件是可以通過(guò)互聯(lián)網(wǎng)進(jìn)行訪問(wèn)的。
例如:如果您的網(wǎng)站地址是 http://www.yourdomain.com/那么,該文件必須能夠通過(guò) http://www.yourdomain.com/robots.txt 打開(kāi)并看到里面的內(nèi)容。

格式:

User-agent:

用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)搜索引擎蜘蛛會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"這樣的記錄只能有一條。

Disallow:

用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開(kāi)頭的URL均不會(huì)被Robot訪問(wèn)到。

舉例:

例一:"Disallow:/help"是指/help.html 和/help/index.html都不允許搜索引擎蜘蛛抓取。

例二:"Disallow:/help/"是指允許搜索引擎蜘蛛抓取/help.html,而不能抓取/help/index.html。

例三:Disallow記錄為空說(shuō)明該網(wǎng)站的所有頁(yè)面都允許被搜索引擎抓取,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"是一個(gè)空文件,則對(duì)于所有的搜索引擎蜘蛛,該網(wǎng)站都是開(kāi)放的可以被抓取的。

#:Robots.txt 協(xié)議中的注釋符。

綜合例子 :

例一:通過(guò)"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目錄,以及 "/tmp/"目錄和 /foo.html 文件,設(shè)置方法如下:

User-agent: *

Disallow: /bin/cgi/

Disallow: /tmp/

Disallow: /foo.html

例二:通過(guò)"/robots.txt"只允許某個(gè)搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允許名為"slurp"的搜索引擎蜘蛛抓取,而拒絕其他的搜索引擎蜘蛛抓取 "/cgi/" 目錄下的內(nèi)容,設(shè)置方法如下:

User-agent: *

Disallow: /cgi/

User-agent: slurp

Disallow:

例三:禁止任何搜索引擎抓取我的網(wǎng)站,設(shè)置方法如下:

User-agent: *

Disallow: /

例四:只禁止某個(gè)搜索引擎抓取我的網(wǎng)站如:只禁止名為“slurp”的搜索引擎蜘蛛抓取,設(shè)置方法如下:

User-agent: slurp

Disallow: /

更多參考資料 (英文版)

robots.txt是什么
robots.txt是一個(gè)協(xié)議,而不是一個(gè)命令。robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的,也可以指定sitemap的路徑。
當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。 Google和百度官方建議,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。
robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫(xiě)。robots.txt必須遵循robots.txt協(xié)議使用標(biāo)準(zhǔn)語(yǔ)法,嚴(yán)格按照用法來(lái)編寫(xiě),不然會(huì)造成搜索引擎無(wú)法訪問(wèn)你的網(wǎng)站。
robots.txt文件的格式
"robots.txt"文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(kāi)(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:
   <field><optional space><value><optional space>
在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開(kāi)始,后面加上若干Disallow和Allow行,詳細(xì)情況如下:
User-agent:
該項(xiàng)的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受 到"robots.txt"的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。 如果該項(xiàng)的值設(shè)為*,則對(duì)任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、 Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

Disallow:
該項(xiàng)的值用于描述不希望被訪問(wèn)的一組URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項(xiàng)的值開(kāi)頭的URL不會(huì)被 robot訪問(wèn)。 例如"Disallow:/help"禁止robot訪問(wèn)/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問(wèn)/help.html、/helpabc.html, 不能訪問(wèn) /help/index.html。"Disallow:"說(shuō)明允許robot訪問(wèn)該網(wǎng)站的所有url,在"/robots.txt"文件中,至少要有一 條Disallow記錄。如果"/robots.txt"不存在或者為空文件, 則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開(kāi)放的。

Allow:
該項(xiàng)的值用于描述希望被訪問(wèn)的一組URL,與Disallow項(xiàng)相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項(xiàng)的值開(kāi)頭的URL 是允許robot訪問(wèn)的。 例如"Allow:/hibaidu"允許robot訪問(wèn)/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個(gè)網(wǎng)站的所有URL默認(rèn)是Allow的,所以Allow通常與Disallow搭配使用, 實(shí)現(xiàn)允許訪問(wèn)一部分網(wǎng)頁(yè) 同時(shí)禁止訪問(wèn)其它所有URL的功能。

使用"*"and"$":
Baiduspider支持使用通配符"*"和"$"來(lái)模糊匹配url。
"$" 匹配行結(jié)束符。
"*" 匹配0或多個(gè)任意字符。
robots.txt文件參考資料
robots.txt文件的更具體設(shè)置,請(qǐng)參看以下鏈接:
百度搜索幫助中心-禁止搜索引擎收錄的方法
Web Server Administrator's Guide to the Robots Exclusion Protocol
HTML Author's Guide to the Robots Exclusion Protocol
The original 1994 protocol description, as currently deployed
The revised Internet-Draft specification, which is not yet completed or implemented
dg112.com-日韩欧美在线免费,日韩电影免费在线,日韩av在线一区二区三区,日韩精品电影
久久精品99久久久| 亚洲小少妇裸体bbw| 成人精品一区二区三区四区 | 亚洲国产精品人人做人人爽| 色噜噜狠狠色综合中国| 午夜精品一区二区三区免费视频| 欧美一级久久久| 国产精品中文字幕日韩精品| 国产精品网站一区| 欧美色图片你懂的| 精品一区二区三区欧美| 国产精品久久久久精k8| 欧美日韩1区2区| 国产福利一区二区三区视频| 亚洲嫩草精品久久| 日韩欧美国产麻豆| 99国产精品国产精品毛片| 视频一区中文字幕国产| 国产欧美一区二区三区鸳鸯浴| 91视频在线观看免费| 日韩高清不卡一区二区| 国产精品乱人伦一区二区| 欧美日韩亚洲综合在线| 国产精品影视在线观看| 亚洲一区二区三区四区的 | 一区二区三区资源| 精品免费国产二区三区| 色呦呦一区二区三区| 美女视频网站久久| 亚洲视频一区二区在线观看| 日韩欧美一区中文| 91首页免费视频| 久久福利视频一区二区| 亚洲伦理在线免费看| 久久综合丝袜日本网| 欧美亚洲国产一卡| 床上的激情91.| 麻豆国产精品视频| 亚洲欧洲综合另类在线| 精品国产一二三| 欧洲一区二区三区免费视频| 国产高清不卡一区二区| 蜜臀精品一区二区三区在线观看 | 欧美日韩一区高清| kk眼镜猥琐国模调教系列一区二区| 奇米精品一区二区三区四区| 中文字幕在线视频一区| 精品女同一区二区| 欧美日韩mp4| 色欲综合视频天天天| 国产精品自在在线| 免费久久99精品国产| 亚洲欧美日韩久久| 中文字幕成人网| 精品伦理精品一区| 欧美剧在线免费观看网站 | 国产亚洲精品精华液| 欧美一区二区性放荡片| 在线免费观看一区| 成人动漫一区二区| 国产剧情av麻豆香蕉精品| 奇米一区二区三区| 五月天丁香久久| 亚洲综合激情小说| 亚洲欧美区自拍先锋| 中文一区二区在线观看| 精品sm捆绑视频| 欧美一区二区三区思思人| 欧美吞精做爰啪啪高潮| 色综合久久综合| 99国产一区二区三精品乱码| 大桥未久av一区二区三区中文| 黄色资源网久久资源365| 全部av―极品视觉盛宴亚洲| 午夜精品福利一区二区三区蜜桃| 亚洲美女屁股眼交| 成人欧美一区二区三区白人 | 国产精品正在播放| 国产一区视频导航| 九色综合国产一区二区三区| 天堂va蜜桃一区二区三区| 亚洲狠狠爱一区二区三区| 亚洲乱码国产乱码精品精可以看| 国产精品短视频| 中文字幕日本乱码精品影院| 国产精品网友自拍| 中文字幕精品一区二区精品绿巨人| 久久久久亚洲综合| 国产一区高清在线| 国产美女精品人人做人人爽| 国产美女精品人人做人人爽| 国产呦精品一区二区三区网站| 黑人精品欧美一区二区蜜桃 | 毛片不卡一区二区| 久久精品99国产国产精| 久久aⅴ国产欧美74aaa| 国产在线播精品第三| 国产麻豆欧美日韩一区| 丰满亚洲少妇av| www.综合网.com| 91视频在线观看免费| 在线视频一区二区三| 欧美在线观看视频一区二区| 欧美日韩激情一区二区| 欧美一级片免费看| 精品国产污污免费网站入口| 国产亚洲自拍一区| 国产精品乱码一区二区三区软件 | 中文字幕第一区二区| 18涩涩午夜精品.www| 亚洲男人的天堂在线观看| 一个色综合网站| 日韩一区欧美二区| 狠狠久久亚洲欧美| 成人福利视频在线看| 91国偷自产一区二区三区观看 | 欧美一区二区视频在线观看2022| 欧美成人女星排名| 国产欧美日韩亚州综合| 亚洲人成影院在线观看| 亚洲成a人片在线观看中文| 免费av网站大全久久| 国产精品一区免费在线观看| 97精品视频在线观看自产线路二| 色欧美日韩亚洲| 欧美一三区三区四区免费在线看| 久久女同性恋中文字幕| 国产精品家庭影院| 亚洲午夜一区二区三区| 美国一区二区三区在线播放| 国产成人啪免费观看软件| 97se狠狠狠综合亚洲狠狠| 欧美日韩免费高清一区色橹橹| 欧美mv日韩mv| 亚洲欧洲www| 日韩av网站免费在线| 国产精品66部| 在线视频国产一区| 精品久久人人做人人爽| 亚洲特级片在线| 蜜桃视频在线一区| 99视频热这里只有精品免费| 69堂亚洲精品首页| 欧美国产97人人爽人人喊| 亚洲永久精品国产| 国产一区二区在线视频| 色哟哟国产精品| 精品久久久久久综合日本欧美| 中文字幕一区在线观看| 日本不卡一区二区三区高清视频| 国产91综合网| 欧美伦理影视网| 中文字幕精品在线不卡| 日韩精品一二三| 不卡一区二区在线| 91精品国产91综合久久蜜臀| 中文文精品字幕一区二区| 亚洲gay无套男同| 丁香婷婷综合激情五月色| 91麻豆精品91久久久久久清纯| 国产精品乱码人人做人人爱| 日韩电影一区二区三区| 99久久久久免费精品国产| 欧美成人免费网站| 亚洲自拍与偷拍| 成人在线视频首页| 欧美成人三级在线| 亚洲国产精品久久人人爱蜜臀| 国产成人精品1024| 欧美一区二区三区成人| 亚洲同性同志一二三专区| 国产真实乱偷精品视频免| 欧美日韩精品欧美日韩精品| 国产精品三级电影| 精品在线观看免费| 欧美猛男gaygay网站| 国产精品国产三级国产普通话99 | 国产精品亚洲第一区在线暖暖韩国 | 精品视频在线看| 国产精品丝袜91| 精品亚洲aⅴ乱码一区二区三区| 91久久精品国产91性色tv| 国产区在线观看成人精品| 日本不卡123| 欧美日韩国产高清一区二区三区| 国产精品天干天干在观线| 韩国中文字幕2020精品| 欧美精品亚洲二区| 一区二区三区精密机械公司| 成人黄色国产精品网站大全在线免费观看| 日韩欧美一区二区免费| 亚洲国产日韩av| 色呦呦日韩精品| 1区2区3区国产精品| 懂色av中文字幕一区二区三区| 精品免费视频一区二区| 日本网站在线观看一区二区三区 | 欧美日韩一区二区三区在线看| 日韩理论在线观看| 成人午夜av电影| `