- 十一月28日
-
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件。这个文件时用来指定搜索引擎爬行的范围。申明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。robots.txt文件应该放置在网站根目录下。如:http://www.seoread.org/robots.txt
robots.txt文件的作用在于:当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
需要注意的是url中不要使用大小写混用情况,容易导致404错误,robots.txt文件时严格区分大小写的。