如何进行robots.txt中的robots优化设置-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

如何进行robots.txt中的robots优化设置

本篇文章为大家展示了如何进行robots.txt 中的robots优化设置,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

在东兴等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供成都网站建设、成都做网站 网站设计制作按需定制网站,公司网站建设,企业网站建设,成都品牌网站建设,成都营销网站建设,成都外贸网站建设公司,东兴网站建设费用合理。

1。你是否知道robots.txt中文的意思?
2。你是否知道404页面应该屏蔽?
3。你的企业站,每个页面是否都有“关于我们”,并且还得没屏蔽掉?
4。你是否知道设置好robots.txt,是有利于提升网站整体权重?
5。你想知道robots.txt基本写法?
6。robots.txt该如何写,才优化最佳。
1。robots.txt的中文意思是:搜索引擎公共协议。搜索引擎到你的网站,是先看robots.txt,按照上面写好的协议再抓取你的网页。
2。每个网站都应该要有404页面,假如没有,会导致 1)减少网站PV 2)减少流量 3)搜索引擎对你的网站不有好,因为你的网站用户体验度不好。
每个网站都有很多错误页面,每个错误页面都应该做一个404页面,那么每个404页面都是一样的。一旦你的404页面太多,你还让搜索引擎去收录,就会导致网站把权重分给这些404页面,这值得吗?因此我们必须要屏蔽掉404页面。
3。企业站的导航栏上面,往往会有“网上赚钱博客介绍”“联系九月”“关于我们”这些页面。这些页面,可以说是全站显示,网站的每个页面几乎都要分权重给这些页面,但是这些页面值得网站分权重给他们吗?因此我们也必须屏蔽掉这些“不重要内容”的页面,不让搜索引擎抓取。
4。从3.4点,我们可以得出一个结论:网站如果有太多无关的页面被收录,而你又不想用户直接从搜索引擎进入这些页面,那么网站就会把权重分给这些“毫无意义”的页面,这样就会降低整体网站的权重。
简而概之,就是网站被这些垃圾页面所拖累了。
5。robots.txt的基本写法。
在桌面上建立一个叫robots.txt文档
以下内容按顺序写:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /feed
Disallow: /comments/feed
Disallow: /trackback
Disallow: /guestbook
User-agent: #表示允许的搜索引擎。*代表允许所有,如果仅允许百度蜘蛛,就写baiduspider
Disallow: #是禁止收录的意思
Disallow: / #表示禁止所有收录。直接再Disallow:后面加一个斜杠。
Disallow: /网站后台目录/ #屏蔽目录的格式
Disallow: /404.html #屏蔽404页面
robots.txt里面,任何空格,换行都是被忽略的。robots.txt只看命令的顺序,空格、换行都是为了我们看的方便。
6。robots.txt该如何写,才优化最佳?
看完了前面5点,相信你对如何优化最佳应该有一个很好的理解了。
1)屏蔽掉对网站没用的垃圾页面,比如404
2)思考一下,你的哪些页面虽然必须出现,但是你觉得没必要让用户“从搜索引擎过来看”。比如福州SEO的“关于我们”。那么就不必被收录。

上述内容就是如何进行robots.txt 中的robots优化设置,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。


新闻标题:如何进行robots.txt中的robots优化设置
文章链接:http://kswsj.cn/article/gghgjg.html

其他资讯