从6个方面分析新做的站只收录首页不收录内页
从6个方面分析新做的站只收录首页不收录内页
1、建立信任期
站长们都知道Google有个沙盒效应,一般要在6个月以上才会放出来,才有PR值,百度也有“建立信任期”的机制,这一点体现在新站的收录情况,从上图可知,现在百度对新站的考核越来越严格,时间也越长,而百度先收录主页,是因为主页权重高,而内页不收录是在百度的考核期内,如何判断是在百度考核期还是其他问题,这一点可以从网站日志上看,每天蜘蛛是否都有爬取,返回的是200代码还是400或404代码等。
2、文章质量问题
没有内容的价值是不会有内容的网站,没有内容的网站是不会对用户有帮助,对用户无益的网站搜索引擎会嗤之以鼻,搜索引擎的宗旨就是为用户提供有价值有需求有用的信息,所以对新站来说,不要去采集文章或用伪原创工具,笔者也知道开个火车头软件采集,网站内容源源不断,福建seo博客想说你自己都对自己这么不负责,你还想别人对你怎样,对于文章要特别注意几点,相关性,质量性,阅读性,不能风马牛不相及,也不能是流水账,必须要有深度,有内涵的人总是惹人喜欢的。
3、网站结构
网站设计出问题,是否采取许多对搜索引擎不友好的javascript,flash,iframe等来设计网站,要知道蜘蛛是没办法读取javascript,flash的,不要过分追求网站的美观,而忽略了网站的易用性,对包含在iframe框架里的内容也没办法读取,iframe框架现在已经被DIV+CSS所替代,还有网站模板是否频繁改动,四处一词是否变动等等,都会降低百度对网站的信任。
4、robots.txt协议
新手建站,特别是对网站结构没把握的站长,会有很多顾虑,经常是先禁止蜘蛛爬取,等到网站结构设置好后才允许蜘蛛爬取,而解禁robots.txt时间大概要一周左右,福建seo博客亲自测试过,而在这个时间段蜘蛛即使爬取了,但也不会收录,这时候可能会出现首页不收录,因为蜘蛛遵守着robots.txt协议,而今天所讲的是内页不收录也是一样的,因为站长也可能把内页禁止了而没发现,或者robots.txt写法错误但没发现。
5、反向链接
网站内页不收录,还跟反向链接有关系,蜘蛛是顺着URL进入我们的网站,当外链建设太少,蜘蛛很难发现我们的网站,即使发现了也还要过渡期,因为是新站,这就要求做好外链建设,每天都告诉蜘蛛这边有吃的,蜘蛛才会在次关顾,而且蜘蛛爬取是有规律的,你如果三天打鱼两天晒网,蜘蛛的爬取频率就会降低,两天来一次或者三天四天甚至一个礼拜来一次,另外一点就是内链建设,许多站长喜欢把网站链接全都集中在首页,集中网站的权重,那么内页权重就很低,不利于网站的收录,而且没做好内链,要知道内链也是影响网站排名的一个因素。
6、服务器问题
服务器稳定性问题,蜘蛛爬取网站时,正巧刚上服务器抽风,那么蜘蛛就会留下个不好的印象,但是蜘蛛还是会再次关顾,因为他怕误伤好人,但是当他下次关顾时,又出来同样的问题,这就不好,而且对于不同的带宽也是不一样的,或者DNS解析出现问题都会影响收录。