1
linap 2018-04-15 16:03:44 +08:00 via Android 1
mysql
|
2
msg7086 2018-04-15 16:55:27 +08:00 3
难道不是 grep ? 900M 简单过滤,10 秒钟足够了吧。
|
3
dobelee 2018-04-15 17:28:48 +08:00 via Android 1
文本最简单最快的 grep 了。结构化的另说。excel 就不好了。
|
4
kiwi95 2018-04-15 17:30:38 +08:00 via iPhone 4
行数据,grep, awk, sed 一套下来基本能搞定
|
5
liucudliucud 2018-04-15 17:47:30 +08:00 via Android 1
传到集群上用任务搞,9 亿行都没问题
|
6
ynyounuo 2018-04-15 18:25:22 +08:00 1
用 ripgrep 4.4 亿行用简单正则筛选只用 21 秒
wc -l < OpenSubtitles2018.raw.en 441450449 rg -n -i '.*way.*to.*explore.*' OpenSubtitles2018.raw.en 12.95s user 7.14s system 97% cpu 21.308 total |
7
clino 2018-04-15 18:36:05 +08:00 via Android
unqlite 可以试试
|
8
qinrui 2018-04-15 21:21:03 +08:00 via iPhone
awk
|
9
locktionc 2018-04-15 22:25:32 +08:00
你如果能把样本数据,你需要筛选的内容都提供一下,大家会给你更多办法。
|
10
qwertyegg 2018-04-15 23:30:23 +08:00
这不是大数据 101 的题目嘛?拆成 10 份分开弄,然后合并结果
|
11
wqzjk393 2018-04-16 00:25:05 +08:00 via iPhone
1,数据库,用 where 筛选。2,用 pandas 的 read_csv 函数,dataframe 什么不能干?………实际上我们工作接触几千万行数据,是用 hive 数据库的。其实吧,我个人觉得,只要不死机,卡就卡吧…
|
12
Howlaind 2018-04-16 00:48:55 +08:00 via Android
the_silver_searcher
|