- 三月26日
-
企业站点的建立目的在于提高关键词排名,增加产品曝光度,以此来获得转化率。提高有效转化率的一个重要前提便是站点是否被收录,网站收录量如何?网络上也有不少SEO-er谈及此类问题,笔者在此滥竽充数一回,谈谈自己的一些想法。
1、站点地址主动提交
SEO-er们想必都比较了解每天不计其数的新站点崛起,这促使了蜘蛛每天成百万上千万不停的爬行和抓取,何时才能够爬行到你的网站?这是未知数,作为SEO-er来说显得很被动。其实各大搜索引擎都是开放了网站地址提交入口,一个免费登录网站只需提交首页,只要符合符合标准,搜索引擎会及时处理。当然也有不少搜索引擎提供了博客,可输入您的博客地址或RSS地址。主动出击,才能领先,从而赢在起跑线。
2、网站地图的制作与提交
网站地图制作是作为SEO-er们优化网站中重要环节之一怎么能够缺少呢?网站地图一般情况下分为两种。
一种是普通的html格式的网站地图,类似http://www.seoread.org/archiver/,它能够很直观比较简明的方式告诉用户该网站的整体结构,尽可能把站点的功能结构和服务内容有逻辑有条理的罗列出来,让用户一目了然,能够更加快速有效的找到需求的网页。
另一种则是以xml格式的站点地图,类似于http://www.seoread.org/sitemap.xml,xml站点地图的创建主要是为了提交给搜索引擎,这样有助于搜索引擎更加了解你网站上所有的网页,便于蜘蛛爬行和抓取。无论是百度搜索引擎还是google搜索引擎早已完善该功能,作为新站点的站长们无妨主动提交,便于蜘蛛及时有效的爬行和抓取,xml站点地图对于让蜘蛛更快更有效的爬行网站做了巨大贡献。
3、规范合理制作robots.txt文件
robots.txt想必很少有SEO-er们重视,robots.txt文件作用在于声明和告诉蜘蛛不要爬行和抓取制定的文件或者目录,告诉蜘蛛程序在网站上什么文件是可以被查看的。google管理员工具中早已推出robots.txt测试功能,百度虽然已经明确表示支持robots.txt,但是如果有robots.txt变动,则效果有点缓慢。同时许多SEO-er考虑到网站安全性问题不愿把网站结构暴露,考虑到这一点,笔者建议百度站长平台近期能够增加robots.txt测试和提交功能,站长们就不并把robots.txt放在根目录下了。
笔者简单的谈谈自己的想法与经验,当然在这里更希望结构更多的朋友,望大家相互激励,在互相交流的过程中一步一步迈向成功。
原创优读网-重庆seo,来源:http://www.seoread.org/post/spider-crawl.html