来源:宁推网

robots.txt:如何让搜索引擎不要抓取没用的页面

2022-05-16 11:22:31

中介网(zhongjie.com):专注互联网虚拟资产中介交易平台

robots.txt.

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。


| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

 

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接

 

本文的视频课程地址:https://ke.seowhy.com/play/9492.html

人还可以阅读:

什么是robots文件?设置搜索robots协议的后果

robots.txt文件用法举例,百度官方资料截图版

robots.txt概念和10条注意事项

Robots.txt 文件应放在哪里?

如何使用Robots避免蜘蛛黑洞?

  1. 宁推网原创文章未经授权转载必究,如需转载请联系授权;
  2. 转载时须在文章头部明确注明出处、保留作者和原文链接,如:转自宁推网字样;
  3. 宁推网报道中所涉及的所有内容均由用户提供,仅供参考!
  4. 4、声明:该文观点仅代表作者本人,宁推网系信息发布平台,宁推网仅提供信息存储空间服务。