1
glancesx 2013-05-03 20:34:40 +08:00
flume/flume_ng+hdfs,数据量大就hadoop跑MR
|
2
terry 2013-05-04 08:49:06 +08:00
最近正在看 logstash + HDFS / Hadoop 可以往这个方向看一下。
|
3
fire9 2013-05-04 08:51:41 +08:00
error_log会很多么?应该是access_log吧。
|
4
fay 2013-05-04 09:11:06 +08:00
看看这个文档,或许有启发:http://loggly.com/support/sending-data/logging-from/platform-logs/unix/
Loggly这个服务本身有点贵(对我而言)。关键词是rsyslog日志服务,可以搜下rsyslog + nginx。 |
5
linlinqi 2013-05-04 09:55:25 +08:00
|
6
daxingplay 2013-05-05 10:47:28 +08:00
对这个问题我也挺困扰的。
logstash吧,感觉他的界面有些乱,不太容易分析 loggly这个online的服务,我试用了一下,感觉挺耗服务器资源的,而且分析的结果不是很准。 我还用过log.io,nodejs写的,不太适合分析很大的数据,而且不能保存已经看过的,只能看当前的。 |