网站每天被蜘蛛爬N遍,为何收录很少?
网络推广 2018-10-12 16:39www.dzhlxh.cn网络推广竞价
最近半年,黄忠一直在做企业问题解答活动,主要目的很简单:为了帮助广大企业站长和从业者能够快速的解决问题从而提升自身能力,所以问题解答这块也就一直持续到现在!我相信很多人都得到了我的帮助,同时我也收集了各种各样的优质问题。当然,我会不断的把问题解决后分享给大家!
声明:由于站长提问的问题过于简单或不工整,我这边有做文字上的处理,但原意都不变!
以下内容为第11期问答实录:
问题简写一:网站每天都被蜘蛛爬N遍,收录的为何只有一两篇?
问:黄老师你好,我的企业网站上线有一段时间了,原创文章每天也都在坚持更新,但就是不怎么收录,后来我分析了一下网站日志,发现百度爬虫每天都来爬N遍。我就郁闷了,为什么蜘蛛每天都来爬行,我的内容页收录的这么少呢?是不是进沙盒了?还是内容质量不行?
答:一般来说新站都会遇到这样的问题,而且很多SEO人员都遇到过,那种焦急的状态我也是很理解的。通常我都会让他们去观察,如果观察一段时间且很长一段时间内都是这样的话,那可能是你的网站内容存在问题。无论蜘蛛抓你千百遍都不怎么收录,这就说明你网站的内容不值得被索引。其实很多权重高的网站被降权了也会出现这样的情况。所以,建议你从内容上做检查。
问题简写二:被robots了,为什么还会被百度收录?
问:黄忠老师,这个问题困惑我很久了,为什么我网站的网页被robots屏蔽了之后,我从网站日志分析后还会能看到被百度抓取和收录呢?不是说屏蔽了以后就不会被抓取和收录了吗?这些页面都是我们老板千叮万嘱不让展现在百度的,现在都不知道怎么交差了,求解释。
答:我经常遇到这样的情况,很多人都来问我:“为啥屏蔽了的页面还被抓取?”这里我简单的说下吧,一般有两种情况:
第一种是:对已经收录的网页使用robots屏蔽,老网页按照robots规则的删除时间会很长,这个时候可能会造成百度没有遵守robots规则。
第二种情况是:如果你屏蔽的页面或栏目存在大量的,那么这个网页或栏目的URL会被百度收录,但内容不会被百度索引,一般这样的多见于首页。当然,如果你连URL都不想被收录,可以针对蜘蛛返回404即可。
问题简写三:B2B网站上下架的产品返回404还是200状态码?
问:黄老师,我们B2B网站上很多产品都等待下架,还有很多用户自主删除的产品页面,我想返回404错误页面,但是数量太多,怕百度认为我网站上存在大量的死链。如果返回200,怕欺骗,所以,现在我也不知道怎么办才好,想让黄老师给个建议。
答:这个是黄忠SEO兄弟VIP圈子里的成员提问的问题,我给收录进来了。我简单的说下这个解决方法:建议为产品下降的页面返回404状态码,不要返回200状态码。一般来说,只要正确的返回404是对网站没有任何影响的,还可以减少蜘蛛抓爬给服务器造成的负担。如果死链较多,我们可以让技术设计一个自动生成死链地图的程序,任何删除行为都自动把链接写到指定链接文件里去,然后在百度站长平台提交死链即可。
另外,商城网站产品下架其实这个是最常用的。
问题简写四:还没有做好的页面已经解析了,是做404还是503?
问:我们这边的技术经常做一些新页面的建设,推广,,长沙,,长沙,湖南,每次整的页面在开发的时候就被百度收录了,弄的我很无语的。我想问下是给他们做404还是503?哪个更好一些?
答:一个建议,尽量不要使用404状态码给为创建好的页面做返回,能用503的建立用503,这样可以让蜘蛛更好的去识别它。其他的没什么建议了。
问题简写五:现在还重要吗?企业网站该怎么做有效性的外链?
上一页 1 |
上一篇:如何提升文章打开率及转发量?运营新手必看
下一篇:SEO必知的搜索引擎九大算法解析