robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。我们总结分享了易于网站优化的robots.txt使用技巧,下面为大家列出在网站优化时robots.txt文件所起到的一些作用: 首先,在线建站提供方便之路。当我们将域名解析到服务器,可以访问站点了,可是这个时候站点还没有布局好,meta标签还一塌糊涂。如果此时的站点被搜索引擎蜘蛛抓取收录了,到时再更改就很不利于SEO优化。这时就可以利用robots.txt文件来设置所有搜索引擎蜘蛛不允许查询站点的所有内容。 其次,定制搜索引擎蜘蛛抓取指定内容,能让你根据站点情况来选择怎样和搜索引擎打交道。这里主要有两层意思。 (1)定制搜索引擎。网站优化,首先最先应该做的便是定制搜索引擎,这里不再多讲。 (2)定制站点内容。也就是说你可以指定某个目录允许spider爬行,某个目录禁止spide 爬行。如所有搜索引擎蜘蛛,允许抓取目录abc下的内容,禁止抓取目录def下的内容。 再次,引导搜索引擎抓取网站内容。这里最典型的做法有: (1)引导蜘蛛抓取你的网站地图。 (2)防止蜘蛛抓取你的网站重复内容。 最后,404错误页面问题。如果你的服务器自定应了404错误页面而在你站点根目录没有配置robots.txt文件,那么搜索引擎蜘蛛会将其视为robots.txt文件,这将影响搜索引擎对你网站页面的收录。
|