WordPress多站点网站添加robots.txt

WordPress多站点网站添加robots.txt

Robots.txt文件是一个告诉搜索引擎哪些页面可以被爬取和哪些页面被禁止的文件。在WordPress多站点网站上添加robots.txt可以帮助你更好地控制搜索引擎对你网站的爬取。

步骤:

  1. 打开你的WordPress多站点网站的文件管理器或FTP客户端。
  2. 找到wp-content文件夹下的mu-plugins文件夹,如果没有则新建一个mu-plugins文件夹。
  3. 在mu-plugins文件夹中新建一个robots-txt.php文件。
  4. 在robots-txt.php文件中加入以下代码:
// Load the main site's robots.txt file
$robots_path = ABSPATH . 'robots.txt';
if( file_exists( $robots_path ) ) {
    $robots_file = file_get_contents( $robots_path );
} else {
    $robots_file = "User-agent: *" . PHP_EOL . "Disallow: /";
}

// Add custom rules for individual sites
if( ! is_main_site() ) {
    $blog_path = str_replace( '/', '', get_blogaddress_by_id( get_current_blog_id() ) );
    $robots_file .= PHP_EOL . PHP_EOL . "User-agent: *" . PHP_EOL . "Disallow: /" . $blog_path . '/';
}

// Serve the robots.txt file
header( 'Content-Type: text/plain; charset=utf-8' );
echo $robots_file;
exit;
  1. 保存并上传文件到mu-plugins文件夹中。
  2. 现在,在每个子站点中,您都可以创建一个自己的robots.txt文件,如果没有,则会使用主站的robots.txt文件。
  3. 转到你的WordPress多站点网站的每个子站点,输入以下网址,查看自己站点的robots.txt文件:
    http://你的网址/robots.txt

现在你已经成功的添加了子站点的robots.txt文件到你的WordPress多站点网站中了。

晓白博客网版权所有,原文地址https://www.xbnb.cn/5041
© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
评论 如有资源失效请在下面及时反馈,谢谢!! 抢沙发

请登录后发表评论

    请登录后查看评论内容