django – Nginx:交替域的不同robots.txt
摘要 我有一个内部和外部域指向它的单个Web应用程序,我希望robots.txt阻止对内部域的所有访问,但允许所有访问外部域. 问题细节 我有一个简单的Nginx服务器块,我曾用它代理Django应用程序(见下文).如您所见,此服务器块响应任何域(由于缺少server_name参数).但是,我想知道如何标记特定域名,例如Nginx将为他们提供自定义robots.txt文件. 更具体地说,域example.com和www.example.com将提供htdocs目录中的默认robots.txt文件. (因为设置了“root / sites / mysite / htdocs”并且robots.txt文件位于/sites/mysite/htdocs/robots.txt) 但是,我还希望域“example.internal.com”(它指的是与example.com相同的服务器)提供自定义的robots.txt文件;我想创建一个自定义robots.txt,以便google不会将该内部域编入索引. 我想到了重复服务器块并在其中一个服务器块中指定以下内容.然后以某种方式覆盖该服务器块中的robots.txt查找.
但是为了这个目的而重复整个服务器块似乎并不是很干. 我还想过可能会使用if语句来检查主机头是否包含内部域.然后以这种方式提供自定义robots.txt文件.但是Nginx说If Is Evil. 为内部域提供自定义robots.txt文件的好方法是什么? 谢谢您的帮助. 这是我正在使用的服务器块的代码示例.
最佳答案
您可以使用map 来定义条件变量.在服务器指令外添加:
然后变量可以像
现在,您可以在根目录中拥有两个robots.txt文件: (编辑:岳阳站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
- php – 在Apache/Nginx设置中刷新输出缓冲区
- Nginx:将所有不存在的请求重定向到index.php
- ssl – 如果存在标头,则Nginx设置proxy_set_header
- OpenResty:使用已经给定的/etc/nginx/nginx.conf文件配置l
- linux – 如何将nginx更新为最新的稳定版本?
- nginx – 为真实用户IP自定义AWS ELB的日志条目
- 配置 – Nginx:指定访问日志位置时我可以使用$server_name
- ruby – Gitlab配置问题:: NGINX Unicorn端口冲突
- 如何使用Nginx进行身份验证的用户目录
- ruby – 部署Rack应用程序的强大方式(Sinatra)