SEO普遍流传这样一句话:内容为王,外链为皇。搜索引擎优化无非就这两点:内容与外链。而内容是置于外链之前的,试想,假如一个网站没有什么内容,或者没有什么好让搜索引擎喜欢的、说白了就是搜索引擎认为是新鲜的原创内容,那么发再多再多的外链也是枉然,因为外链必须是建立在内容充实的基础之上。有好的内容加上强大的外链,才会使网站逐渐进入良性循环,流量则像雪球一般越滚越大,这点在新网站中显得尤为重要。
今天我想分享在内容与外链之外的一些话题:在做一个网站正式推出之前,还有一些很重要的准备工作。这些工作跟内容和外链都没有关系,也不必让搜索引擎知晓,如果不了解很容易疏忽掉或不重视。就好比演员上舞台给人们亮相前,他们在幕后的化妆、道具准备工作是不便让观众知道的。如果在舞台上临时抹妆,观众是不会给你好评的,各位说是不是这个理?
第一、 在网站准备期间,先别做域名解析放出网站。
这点在很多新手站长是个很容易被疏忽的问题。有的朋友可能看到某个网站很漂亮,很合他做个网站的心意,花钱请人用某个程序(譬如DEDE或WordPress)对照着仿模板,对方说在一周仿完交货。他这边很激动,赶紧注册域名租用空间,把那CMS程序官方默认版上传到后台,并做域名解析,随便上传些文章做着测试,先欣赏自己的网站。过不几天,人家把网站仿好了交你手中。你把空间内容全部清掉,换了新网站并设置好。过一段时间,你再查看网站收录,发现网站竟然快照是那旧的网站!
这种现象在遇到需要域名备案时较常见,自己备案的情况常常需要十天半个月甚至更久,到时候你都不知道是什么时候备案成功了,域名可以直接访问。但是好长一段时间site网站,快照都停在最早你上传的默认程序网站上。这是招搜索引擎不喜欢的事情。
因为这种情况招致搜索引擎的不友好,你看冤不冤?我的网站开初就是犯了这个毛病,虽然我努力原创,但是大约有半个月的时间百度收录没有任何反应。急得我通过百度网页投诉,讲明我网站的情况,并得到回复,之后情况慢慢才得以改善。现在我的文章一般当天发,当天就能收录,已经正常了。
第二、 robots.txt禁止搜索引擎抓取网页
robots.txt的作用是告诉搜索引擎你的网站上哪些信息可以被查看,哪些内容不允许抓取。有些朋友会问什么情况下需要用到这个文件,为什么不要被搜索引擎抓取?其实这是很容易理解的,譬如淘宝网就不允许百度抓取,不让百度抓取淘宝店铺信息,它只允许淘宝在淘宝网内展示。
个人站有人不喜欢在搜索引擎上找到他们,比如说属于圈内交流的信息,如艺术类网站等,有的站长开放给读者阅读,但是它不希望读者从搜索引擎上找到他们。因为搜索引擎可能增加不少访客,但是也可能带来对他们来说的“无关闲杂人等”进来。那么在放出网站前也应做好相应的设置。这个文件设置方法可以参考百度百科“robots.txt”有详细介绍。
对企业站来说,有的新产品推出,为了抢占市场先机,他们通过线下渠道或其他方式来进入市场。他们有产品的网页宣传,但是在公司网站上不放入口,只有固定链接。不知道确切链接,访客在公司网站上是找不到这些信息的。自然,这些信息也不允许被搜索引擎抓取到,这种页面也要设置robots.txt。当然,这些个页面是在网站完成后,上线前可以准备的。
网站前期的工作当然远远不止这些内容,譬如域名、空间的选择都有讲究,选用不同CMS程序也对今后的SEO工作有差别。而一旦选用不当,以后再换是一件非常麻烦的事情。这些内容本人也有不太明白之外,希望有机会可跟各位交流。
除非特别说明,本博客均为原创,如需转载,请以链接形式标明来源出处。
本文视评网址:http://www.sping88.com/archives/317