阿里云虚拟主机被搜索引擎爬虫访问耗费大量流量解决方法

问题场景:成都服务器托管

创新互联建站专注于网站建设|成都网站改版|优化|托管以及网络推广,积累了大量的网站设计与制作经验,为许多企业提供了网站定制设计服务,案例作品覆盖湿喷机等行业。能根据企业所处的行业与销售的产品,结合品牌形象的塑造,量身设计品质网站。

客户使用虚拟主机,网站被搜索引擎爬虫访问耗费大量流量和带宽,如何处理。

解决方法:成都服务器托管

可以通过在站点根目录下创建 Robots.txt,Robots.txt 文件是网站的一个文件,搜索引擎蜘蛛抓取网站首先就是抓取这个文件,根据里面的内容来决定对网站文件访问的范围。它能够保护我们的一些文件不暴露在搜索引擎之下,从而有效的控制蜘蛛的爬取路径。

注:Robot.txt协议不是强制协议,部分搜索引擎或者伪装成搜索引擎的爬虫不会遵守该协议,对于不遵守该协议的情况,以下方法无效。

1. 首先,先了解一下目前搜索引擎和其对应的 User-Agent,如下:成都服务器托管

搜索引擎 User-Agent

AltaVista Scooter

baidu Baiduspider

Infoseek Infoseek

Hotbot Slurp

AOL Search Slurp

Excite ArchitextSpider

Google Googlebot

Goto Slurp

Lycos Lycos

MSN Slurp

Netscape Googlebot

NorthernLight Gulliver

WebCrawler ArchitextSpider

Iwon Slurp

Fast Fast

DirectHit Grabber

Yahoo Web Pages Googlebot

LooksmartWebPages Slurp

2. Robots.tx t样例代码:成都服务器托管

例1. 禁止所有搜索引擎访问网站的任何部分

User-agent:

Disallow: /

例2. 允许所有的搜索引擎访问网站的任何部分

User-agent:

Disallow:

例3. 仅禁止Baiduspider访问您的网站

User-agent: Baiduspider

Disallow: /

例4. 仅允许Baiduspider访问您的网站

User-agent: Baiduspider

Disallow:

例5. 禁止spider访问特定目录

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /data/

注意事项:成都服务器托管

三个目录要分别写。

请注意最后要带斜杠。

带斜杠与不带斜杠的区别。

例6. 允许访问特定目录中的部分url

实现a目录下只有b.htm允许访问

User-agent: *

Allow: /a/b.htm

Disallow: /a/


网页名称:阿里云虚拟主机被搜索引擎爬虫访问耗费大量流量解决方法
标题URL:http://bzwzjz.com/article/sjcpd.html

其他资讯

Copyright © 2007-2020 广东宝晨空调科技有限公司 All Rights Reserved 粤ICP备2022107769号
友情链接: 成都网站设计 成都网站设计 响应式网站建设 成都网站制作 响应式网站设计 成都做网站建设公司 商城网站建设 高端品牌网站建设 外贸网站设计方案 成都定制网站建设 手机网站制作 定制网站制作 四川成都网站建设 成都定制网站建设 响应式网站设计方案 自适应网站设计 网站制作 网站建设推广 达州网站设计 成都定制网站建设 温江网站设计 宜宾网站设计