1、robots.txt文件的设置导致拒绝收录首页。相信大家都不会犯这种错误,不过为慎重起见,还是应该检查一下。
2、因为首页出现错误导致蜘蛛不能正常爬行。比如首页源代码中,头部出现NOFOLLOW类型的字符等,虽然犯这类错误的可能性不大,不过还是需要一一检查。
3、一些人担心流量流失,把404页直接跳转首页,这种做法很危险!虽未证实是否会导致首页被k,但404直接跳转首页肯定是错误的,必须立即改过来。
4、首页被挂马或有黑链。
5、空间不稳定等因素导致首页经常不能访问。
1、robots.txt文件的设置导致拒绝收录首页。相信大家都不会犯这种错误,不过为慎重起见,还是应该检查一下。
2、因为首页出现错误导致蜘蛛不能正常爬行。比如首页源代码中,头部出现NOFOLLOW类型的字符等,虽然犯这类错误的可能性不大,不过还是需要一一检查。
3、一些人担心流量流失,把404页直接跳转首页,这种做法很危险!虽未证实是否会导致首页被k,但404直接跳转首页肯定是错误的,必须立即改过来。
4、首页被挂马或有黑链。
5、空间不稳定等因素导致首页经常不能访问。