以文本方式查看主题 - 康柏仕电脑学院 (http://combss.com/bbs/index.asp) -- 硬件及网络技术资料储存区 (http://combss.com/bbs/list.asp?boardid=61) ---- robots.txt写法 (http://combss.com/bbs/dispbbs.asp?boardid=61&id=3324) |
-- 作者:superpch -- 发布时间:2011/11/18 22:26:04 -- robots.txt写法 robots.txt是网站seo优化中起着很重要的作用,robots.txt是搜索引擎访问网站时需要查看的第一个文件,搜索引擎蜘蛛来到一个站点,首先要检查站点根目录下是否存在robots.txt,如果有,就会按照该文件中的内容确定访问范围,如果该文件不存在就会随意抓取,可能会抓到到重复路径或错误页面。下面我就和大家说说 rotbots.txt写法 ,希望对大家有所帮助。 robots.txt写法举例: 2、容许全部的搜索引擎访问你的网站的任何部门,这是通常的用法。 3、要是你网站的某个目录不想被搜索引擎收录,写法如下: 4、仅仅容许某一搜索引擎访问你的网站。同样百度是baiduspider Google是googlebot User-agent: googlebot 5、仅克制某一搜索引擎访问你的网站。 Google是googlebot 百度是baiduspider User-agent: googlebot 6、阻止搜索引擎访问网站中全部的动态页面(动态页面便是URL中任何带有“?”的页面) User-agent: * 7、仅仅容许搜索引擎访问某一特定文件后缀形式的网页。 8、容许搜索引擎访问特定目录中的网页 9、限定搜索引擎访问某一特定文件后缀形式的网页。 10、阻止搜索擎访问网站特定某一文件格式的文件(注意不是网页) 以上是一些常用的格式。具体的写法还要以各个网站需求而定。 写robots.txt还要注意以下一些问题: 1、robots.txt文件因此纯文本格式存在的txt文件。 2、robots.txt必须放置在网站的根目录中。最上层的robots.txt文件必须这样被访问:如德商seo网站写的robots.txt http://seomq.com/robots.txt 3、写robots.txt时要严格根据以上大小写形式誊写 4、通常你的网站比较简单,那么以上的格式足够你利用的了。要是比较庞大,必要访问这里而又不必要访问那边,阻止这个文件又要容许那个文件,容许访问访问带有“?”标记的特定网页等等,那么你必要联合以上格式详细研究切合于你网站的robots.txt文件写法。 5、robots.txt通常在某个分目录中还可以存在,但是要是与顶级目录中的robots.txt有不同,则以顶级目录中robots.txt为准。 6、仅当您的网站包括不希望被搜索引擎收录的内容时,才要利用robots.txt文件。要是您希望搜索引擎收录网站上全部内容,请勿创建 robots.txt文件,不要创建一个内容为空的robots.txt文件。这一点通常被人们马虎,实际上创建空的robots.txt文件对搜刮引擎非常不友好。 7、要是你不想自己动手写robots.txt文件,那么请Google帮你写。登录Google平台,有生成robots.txt文件的。 8、 User-agent: * 9、元标志对一样平常的网站来说可有可无,不过你还是得认识: <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>(容许抓取该页面,容许跟着该页面上的链连续续抓取) <META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>(容许抓取该页面,不容许跟着该页面上的链连续续抓取) <META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>(不容许抓取该页面,容许跟着该页面上的链连续续抓取) 10、必要删除一些被搜索引擎收录的特定网页,参考 http://www.google.com/support/webmasters/bin/answer.py?answer=35301 貌似现在只有Google这么做。 # User-agent: * Disallow: /admin/ |