1
3a3Mp112 2018-04-27 17:06:10 +08:00 1
logstash 采集 kafka 的数据到 spark 里,scala 清洗一下然后再 jdbc 写到数据啊。
https://aiyanbo.gitbooks.io/spark-programming-guide-zh-cn/content/spark-streaming/index.html |
2
funky OP 不借助 spark
借助 spark 的方案我之前实现了但是觉得只是为了数据分析而搞一大推东西 |
3
timonwong 2018-04-27 17:36:34 +08:00
kafka streams 没有 windowed aggregation?
|
4
funky OP 有的但是效果不是我想要的 它内部是个 changelog,每次窗口之后内部的 key 不会清除
|
5
timonwong 2018-04-27 18:09:37 +08:00
如果 tumbling window 不行的话,就有点反自觉了
|