腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(7207)
视频
沙龙
1
回答
选择Azure前门的特定文件
我需要向域的根添加一个
robots.txt
,并且不能在应用程序中托管它。我希望将
robots.txt
添加到一个存储blob /机器人/
robots.txt
中,并为/
robots.txt
设置一个新的路由,以及//
robots.txt
/
robots.txt
的起源,但在后端显示为/
Robots.txt
/
robots.txt
。
浏览 1
提问于2022-06-29
得票数 1
1
回答
Robots.txt
阻止对所有https://页面的访问
阻止所有机器人访问https:// pages的语法是什么?我有一个旧网站,现在没有SSL,我想阻止访问所有https://页面
浏览 2
提问于2009-04-25
得票数 3
回答已采纳
2
回答
如何从shell日志文件中提取用户列表?
、
"GET /"GET /1300-2-css/219.html"GET /
robots.txt
"GET /
robots.txt
"GET /"G
浏览 4
提问于2020-08-07
得票数 0
1
回答
Curl下载到HDFS
、
、
我有这样的代码:当我执行这段代码时,curl将request中的值放入fileName.csv中,文件被移动到HDFS中。我想知道我是否可以,在内存中维护curl输出,发送到管道,然后在HDFS中写入值?curl url | xargs hdfs dfs -put $1 /somePath
浏览 12
提问于2017-07-06
得票数 4
回答已采纳
1
回答
为Apache服务器上的所有域创建
robots.txt
文件,但接收权限错误
我在我的Ubuntu上创建了一个“全局”
robots.txt
文件,并将它定位在然后,在/etc/apache2/apache.conf中,在底部添加了以下内容:重新启动阿帕奇。然而,当我试图访问myvirtualhost.com/
robots.txt
时,我得到了403禁止。 /home/<em
浏览 0
提问于2014-06-16
得票数 1
回答已采纳
5
回答
如何将nginx配置为重定向到
robots.txt
& sitemap.xml的url
、
我的
robots.txt
在数据库中,可以作为访问。我也有我的sitemap.xml,它是动态生成的,在一个类似的url上。example.com; if ($request_method = DELETE) { } rewrite ^/
robots.txt
http://www.example.com/pr
浏览 4
提问于2009-07-07
得票数 22
回答已采纳
1
回答
将
robots.txt
从http重定向到https
、
、
我需要将我的
robots.txt
从http重定向到https in .htaccesshttp://spb.example.com/
robots.txt
to https://ekb.example.com/
robots.txt
Re
浏览 3
提问于2021-10-12
得票数 0
1
回答
在Azure IIS 8中被某种东西覆盖的自定义
robots.txt
、
、
我们在IIS服务Azure网站的根目录中有一个自定义
robots.txt
,在导航到www.oursite.com/
robots.txt
时不能正确显示。显示一个“不同”的
robots.txt
文件,其中包含:Allow: / Disallow: / 我们试过:删除根中的
robots.txt
文件--不正确的
robots.txt
文件仍然显示。向web.config添加url-重写规则以显示自
浏览 0
提问于2015-10-13
得票数 1
2
回答
在多语言站点中使用`
robots.txt
`
、
、
如何将
robots.txt
文件与sitemap结合起来?ORmyBurger.com
浏览 1
提问于2015-04-28
得票数 1
回答已采纳
1
回答
Google已经为
robots.txt
自己建立了索引
、
、
Google已经对
robots.txt
进行了索引,现在如果有人搜索'txt‘,它会返回
robots.txt
文件,这确实不理想(因为这是一个沼泽标准的
robots.txt
站点,字符串D2实际上出现在文本中谷歌中是否有设置,或者我应该将/
robots.txt
添加到呃、
robots.txt
或.中?
浏览 0
提问于2018-09-06
得票数 5
回答已采纳
1
回答
停止机器人爬行我的网站
、
我知道,在一个普通的自我托管站点上,我会把一个
robots.txt
放在我的基本文件夹中,但是我怎么告诉机器人不要在Google上爬行我的站点呢?
浏览 2
提问于2014-12-08
得票数 2
回答已采纳
2
回答
生成一个动态的
robots.txt
,但系统是附加正斜杠的
、
、
我正在动态地创建
robots.txt
,而不是创建物理
robots.txt
文件。我是从CMS和系统是附加一个正斜杠的每一页。在
robots.txt
的例子中,我编写了.htaccess代码,以便从mysite.com/
robots.txt
重定向到mysite.com/
robots.txt
/。以这种方式进入
robots.txt
会有什么问题吗?
浏览 0
提问于2014-04-25
得票数 1
1
回答
如何使用.htaccess将所有请求映射到子目录
、
我有这样的结构:-web-- index.html-.htaccess</IfModule> 现在,请求/
robots.txt
和/web/
robots.txt
都指向一个文件,即/web/下面有整个网站的副本。如何在.htaccess文件中制定这样的规则以便/web/
robots.txt
将指向
浏览 2
提问于2015-03-05
得票数 1
回答已采纳
1
回答
阻塞搜索引擎机器人directadmin
、
我想阻止一些糟糕的搜索引擎机器人,如MJ12bot,YandexBot和Ezooms。我们在directadmin环境中有大约200个用户,我们希望安装一个“插件”或"mod“来阻止这些请求,因为我们不想去每个站点将它添加到.htaccess中。谢谢!
浏览 0
提问于2012-12-18
得票数 -1
回答已采纳
1
回答
PHP cURL -如何检查Google Crawler是否获得了正确的
robots.txt
、
为了停止这一点,我阅读了一个教程,它说我需要两个不同的
robots.txt
文件和.htaccess中的一些附加代码RewriteCond %{HTTPS} on谢谢你的建议!
浏览 1
提问于2013-01-30
得票数 0
1
回答
是否从主域上的子域访问文件
robots.txt
?
、
、
我使用codeigniter和位于根目录下的
robots.txt
文件,但它只能从主域访问。搜索试图从子域访问它的机器人(我将其用于区域设置):示例:en.my.com/
robots.txt
- FAIL 如何从xx.my.com/
robots.txt
重定向到my.com/
robots.txt
?
浏览 1
提问于2013-08-18
得票数 0
1
回答
如何停止WordPress显示虚拟
Robots.txt
?
我可以在这里看到
robots.txt
文件:但谷歌不行!我知道我可以在网站的根部找到
robots.txt
文件,但是在我的网站中没有
robots.txt
文件,这个
robots.txt
是由WordPress创建的虚拟文件。或者,如果我无法阻止wordpress显示虚拟
robots.txt
文件,我如何才能停止谷歌在我的网站上寻找它?也许是.htaccess代码什么的?
浏览 0
提问于2013-01-02
得票数 2
1
回答
如何在子文件夹中覆盖机器人?
我已将
robots.txt
设置为不允许此文件夹。 由于某些原因,一些结果仍然显示出来。我认为这可能是因为我最初没有设置
robots.txt
,而且谷歌还没有删除其中的一些。现在,我担心这个文件夹中个别joomla站点中的
robots.txt
文件会导致Google继续对它们进行索引。理想情况下,我想阻止这种情况的发生,因为我不想记住,当
robots.txt
运行时,我必须把它转回来跟随它(以防万一)。是否有一种方法可以使用该文件夹上方的文件夹中的
robots.txt
显式覆盖这些内容?
浏览 1
提问于2013-10-21
得票数 0
1
回答
谷歌无法抓取您的站点,因为我们无法访问您站点的
robots.txt
文件
、
、
我已经在姜戈建立了我的网站,我还添加了
robots.txt
。现在谷歌显示了绿色的标记,我认为它在域名系统和服务器连接上是好的,但在
robots.txt
fetch上显示红色的警告标记。我的
robots.txt
看起来像Disallow:另
浏览 0
提问于2015-02-10
得票数 1
1
回答
谷歌是否尊重将
robots.txt
的头重定向到不同的文件名?
、
、
、
对于
robots.txt
请求,Google 州“通常会遵循重定向,直到找到有效的结果”。这是否意味着,如果我为http://www.example.com/
robots.txt
创建一个301重定向到http://www.example.com/myrobots.txt,谷歌将解析http://www.example.com/myrobots.txt提供的内容为有效的
robots.txt
内容?或者结果URL未命名为
robots.txt
这
浏览 0
提问于2013-08-01
得票数 4
点击加载更多
相关
资讯
SEO正式操作之robots.txt
Google 开源 robots.txt 解析器
robots.txt文件原理、规则和写法
SEO优化:如何正确设置robots.txt协议文件?
谷歌推网页爬虫新标准,开源robots.txt解析器
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券