WordPress站点如何做好SEO优化,建站经验分享了一些文章进行了讲解,如如何向各大搜索引擎提交自己的网站地图、中文站点需要做哪些搜索引擎的SEO优化,详情可以参考此文章:中文站点需要做好哪些搜索引擎的SEO优化,中文站如何通过搜索引擎来提升网站流量!另外关于百度站长平台不支持索引型Sitemap问题的解决,博主也分享一个好用的WordPress百度网站地图插件可以解决百度不支持索引型Sitemap问题:如何解决百度不支持索引型Sitemap问题,使用WordPress百度SiteMap网站地图插件即可解决!
另外关于WordPress SEO优化设置还有一个重要的步骤需要去做,那就是设置WordPress robots.txt文件!网站基本都要配置一个名为“robots.txt”的文件,在安装WordPress来建设网站后,也会自动生成一个“robots.txt”文件,“robots.txt”文件主要是用来告诉搜索引擎哪网站内容哪些可以抓取、哪些不能抓取!因为我们网站当中有很多内容搜索引擎抓取了也是没有用的,如果WordPress使用垂直建站主题文章的页码页、标签的页码页、分类的页码页等抓取了也是没有多大用处的!因此如果有些网站内容不需要搜索引擎抓取,那么完全可以通过配置robots.txt文件来实现!
1、使用WordPress来搭建的网站当中,该如何设置robots.txt配置更有利于SEO优化?建站经验分享这里分下下自己对robots.txt配置,供有需求的参考使用!可以直接复制到自己的robots.txt文件当中!
User-agent: * Allow: /wp-content/uploads/ Allow: /wp-admin/admin-ajax.php Disallow: /wp-* Disallow: /feed Disallow: /*/feed Disallow: /*.js Disallow: /*.css Disallow: /*.inc Disallow: /*.php Disallow: /?s= Disallow: /tag/*/page/ Disallow: /page/* Disallow: /*/page Disallow: /category/*/page/ Disallow: /comments/feed Disallow: /readme.html Disallow: /licence.txt Sitemap: https://www.wn12.cn/wp-sitemap.xml Sitemap: https://www.wn12.cn/sitemap.html Sitemap: https://www.wn12.cn/baidu_sitemap.xm
2、对于上面robots.txt配置的一些说明和解释。
- “Allow: ”是允许搜索引擎抓取的内容
- “Disallow: ”则是不允许搜索引擎抓取的内容
- “User-agent: *”表示规则对所有搜索引擎有效
- “Sitemap:”是网站地图链接
- “Disallow: /tag/*/page/、Disallow: /page/*、Disallow: /*/page、Disallow: /category/*/page/”是禁止抓取分页内容,如文章分页、标签分页、分类分页!
- “Disallow: /feed、Disallow: /*/feed、Disallow: /comments/feed”禁止抓取网站feed文件
3、robots.txt配置完成后可以通过百度搜索站长平台来检测是否配置正确,如下图在百度站群平台可以对robots.txt进行检测并更新。关于如何注册和使用百度搜索站长平台可以参考此文章:网站seo怎么做_如何使用百度搜索资源平台提升百度对网站的收录速度!
一般来说是没有问题的,会显示我们的robots文件已经生效,并且没有错误!