大佬教程收集整理的这篇文章主要介绍了Seekport 爬虫没有阻塞,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
您好,我收到了来自 seekport 爬虫的访问(只有几个,但我想完全避免它们)。
现在的规则是:
RewriteEngine On
RewriteCond %{http_USER_AGENT} OnalyticaBot [NC,OR]
RewriteCond %{http_USER_AGENT} "=Re-re Studio (+http://vip0.ru/)" [NC,OR]
RewriteCond %{http_USER_AGENT} "=Mozilla/5.0 (compatible; Seekport Crawler; http://seekport.com/" [NC]
RewriteRule ^ - [F]
所有这些都有效,但还有另一个带有此字符串的 seekport 爬虫用户代理:“'Mozilla/5.0(兼容;Seekport Crawler;http://seekport.com/'"(相同但使用 ' 和乞求和最后) .
使用 RewriteCond %{http_USER_AGENT} "='Mozilla/5.0 (compatible; Seekport Crawler; http://seekport.com/'"
不起作用,使用此“新”用户代理的用户代理不会被阻止。
我可以在任何地方使用任何像“”这样的字符吗?。也许问题是最后的字符 ' 和开头的??
非常感谢
最简单的方法是使用:
RewriteCond %{HTTP_USER_AGENT} Seekport [NC]
要阻止所有 Seekport 爬虫……
以上是大佬教程为你收集整理的Seekport 爬虫没有阻塞全部内容,希望文章能够帮你解决Seekport 爬虫没有阻塞所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。