网站建设
移动互联网
品牌设计
创新应用
新闻动态
网站百科

什么是robots文件

时间:2018-10-23 14:43:15 来源:追天 类型:网站百科
字号:   

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。


一般情况下, 当网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果希望搜索引擎收录网站上所有内容,不用建立robots.txt文件。



追天官网:www.zhuitiankeji.com
游戏官网: www.zhuitian.cc
上一条: 几个关于外链的错误认知  下一条: 首页设计需要注意的5大要点

400-700-4979

无论您在哪里,尚品都愿意为您提供高价值服务! 请选择您方便的咨询方式:

0.588310s