
1 QQ2171775959 Jul 1, 2017 找个好点的服务器就可以了。多核心多线程就可以。。例如 16 核 32 线程的。 |
2 ldbC5uTBj11yaeh5 Jul 1, 2017 这种场景 awk 完爆 python |
3 xiaomacai OP 补充:从提高效率的角度讲,使用 python 什么库或者什么语法糖更好一些 |
4 decken Jul 2, 2017 via iPhone 这种量如果逻辑不复杂,不用太多考虑语言性能问题 |
5 F281M6Dh8DXpD1g2 Jul 2, 2017 via iPad 用 pyspark 很轻松的 |
6 laxenade Jul 2, 2017 spark+1 |
7 herozhang Jul 2, 2017 via iPhone 用 pypy 跑 python 脚本 |
8 sdshiyan2005 Jul 2, 2017 dask? |
9 beginor Jul 2, 2017 via Android Spark+1 |
10 fiht Jul 2, 2017 建议二楼的方法:使用 AWK+grep+管道,从运维工程师的角度来思考这个问题方便很多。 楼上刷 spark 有点不大好,楼主要是会 spark 就不会来这里问了....现学 spark 显然是来不及的。 关于效率其实一次性处理的东西和效率也没什么关系,cat today.log | awk '{print $3}' >> column3.log,一般也没有多少效率上的问题,使用 Python 还得处理内存上的东西。 如果硬要考虑 py 的话,你解决了大文件读取时候内存问题就好了,multiprogress 倒也不大好用,处理大文件时候很大以部门场景是内存不如文件大,一次 load 进来内存就得 gg。 用 AWK 吧,本来就是为了解决这个问题设计的。 另外,说到日志想安利一发 ELK 框架,做起统计报表什么的很能忽悠人 |
11 wangchen Jul 3, 2017 |