不考虑 nginx,Django 如何从程序中识别爬虫或搜索引擎,现在是
user_agent = request.META.get('HTTP_USER_AGENT') spider = ['bot','Bot','spider','Spider'] for s in spider: if s in user_agent: return 'spider'
不知道有没有更高效的方法?
![]() | 1 virusdefender 2016-12-04 18:37:16 +08:00 via iPhone 如果只是说 ua 的话,用正则会好一点点 |
![]() | 2 ranleng 2016-12-04 18:54:43 +08:00 via Android ![]() 放个隐藏的 URL 爬到了就是 爬不到就是人 |
![]() | 4 pc10201 2016-12-05 09:25:19 +08:00 看过一个方法,网页上创建一个空的 css 文件,然后加载了这个 css 的就是正常的浏览器,没有加载的就是爬虫,然后封 IP~ |
![]() | 5 supersu 2016-12-05 11:32:19 +08:00 楼上几位的思路可以的,厉害 |
6 yanzixuan 2016-12-05 11:58:39 +08:00 @yangxg 算是比较叫常用的招数。 如果主页给个 token ,访问其他页面要带着 token 。 给访问次数和频率加以限制。 内容藏加载的 JS 里面,当然这主要是为了解决跨域,但是对爬虫也有点效果。 ajax 需要带制定的随机参数,这个参数的生成可以由 cookie 里的字段和其他东西+js 来生成。 防止别人爬是防不了的,你要防的是别人大规模的爬你的数据。 |
![]() | 7 hugo775128583 2016-12-05 12:06:23 +08:00 用 platformJS 或者 selenium 的爬虫怎么破 |
8 yanzixuan 2016-12-05 15:25:23 +08:00 @hugo775128583 你要相信,用 phatomjs 和 selenium 的爬虫,规模跟并发是无法于纯 python 比的。 |
![]() | 9 Yc1992 2016-12-05 15:34:32 +08:00 用 js 操作 cookie 和 token ,欺负欺负纯 python 的静态页面爬虫。 |
![]() | 11 honmaple OP @virusdefender 嗯,现在已改成正则 |
![]() | 12 honmaple OP 我只想简单的判断一下爬虫与非爬虫,但 get 到很多技能,Thank you |