{
"_id" : ObjectId("5a1fde257756dca1c86f2d23"),
"_class" : "com.aaa.LoginHistory",
"uid" : "94989242",
"ip" : "192.168.1.219",
"imei" : "865736037366641",
"epid" : "33189023-9472-4f30-81cf-8c7d13132aae5",
"platform" : "Android",
"timestamp" : "1512037117100",
"address" : "中国,江苏省,南京市,建邺区"
}
db.loginHistory.aggregate([
{$match:{"timestamp":{"$lte":"1513412162000","$gte":"1512548162000"}}},
{$group:{_id:"$uid"}}
])
db.loginHistory.aggregate(
[
{
$match:{
timestamp:{
$lte:"1513399696240",
$gte:"1513389696240"
}
}
},
{
$project:{
uid:1,
timestamp:1,
_id:0
}
},
{
$group:{
_id:{
uid:"$uid",
date:{
$dateToString:{
format:"%Y-%m-%d",
date:{
$add:[new Date(0),parseInt("$timestamp")]
}
}
}
}
}
},
{
$group:{
_id:{
date:"$_id.date"
},
count:{"$sum":1}
}
}
]
)
但是问题又来了,执行报错:
assert: command failed: {
"ok" : 0,
"errmsg" : "$dateToString is only defined on year 0-9999, tried to use year 292278994",
"code" : 18537
} : aggregate failed
_getErrorWithCode@src/mongo/shell/utils.js:25:13
doassert@src/mongo/shell/assert.js:13:14
assert.commandWorked@src/mongo/shell/assert.js:287:5
DBCollection.prototype.aggregate@src/mongo/shell/collection.js:1312:5
百思不得其解,尝试性的把 parseInt("$timestamp")改成 parseInt("1513399696240"),执行得到结果:
{ "_id" : { "date" : "2017-12-16" }, "count" : 19 }
经过 v2 上的大哥提建议说用 mapReduce,尝试着改成了 mapReduce,结果成功了,可是:
db.loginHistory.mapReduce(
function(){
var date = new Date(parseInt(this.timestamp));
var dateKey = date.getFullYear()+"-"+(date.getMonth()+1)+"-"+date.getDate();
emit(dateKey,{uid:this.uid,count:1});
},
function(key, values){
var result = 0;
var json = {};
for (var i = 0; i < values.length; i++) {
if(json[values[i].uid] != 1) {
result += values[i].count;
json[values[i].uid] = 1;
}
}
return {count:result};
},
{
query:{
"timestamp":{
"$gte":"1512662400000","$lte":"1512921599999"
},
"epid":"a6c89023-9472-4f30-81cf-8c7dea62aae5",
"platform":"ios"
},
out:"aaa"
}
).find()
109W 条数据,花了 11 秒,没错,就是 11 秒,就一台单机 mongoDB,我觉得用 mapReduce 有意义?
线上大概数据已经超过 5 千万条,如果不用 aggregate 的话,30 秒超时时间都不够。。。
1
threedream OP 求助求助,求助各位大佬。
|
2
Had 2017-12-13 10:22:17 +08:00
不要重复查不就行了?
单独拉个表,存储已经查询出来的记录,也就是你每天过 12 点跑一个任务,把前一天内的登陆用户查出来,然后做 unique 就行了呗,这样每天就查一天的数据量,负担也很小,也方便查 完全没有必要天天重复跑已经确定了的数据啊 |
3
a342191555 2017-12-13 10:29:26 +08:00 via iPhone
瞎说一种思路…用聚合管道。第一步,把每个 document project 成:{uid:.....,dayOfYear:x}的形式,第二步,group 操作,以 dayOfYear 为_id,把 uid 放到数组中,第三步,去重。
|
4
a342191555 2017-12-13 10:45:40 +08:00
@a342191555 想了想,这样要遍历多次,改写成 Map-Reduce 试试:
var map = function () { var key=Math.floor((parseInt(this.timestamp)-1483200000)/3600/24); // 计算当前时间是 2017 年第几天 var value=this.uid; emit(key, value); }; var reduce = function (key, values) { var uids={}; for(var uid in values){ uids[uid]=1; } var returnedValues=0; //去重 for(var i in uids){ returnedValues++; } return returnedValues; }; |
5
jy02201949 2017-12-13 10:51:17 +08:00
收藏了,坐看各位的解决思路,这个时候我开始怀念起了 ORACLE
|
6
fds 2017-12-13 11:04:55 +08:00
同意楼上说的,把统计结果存起来,下次查就快了。
另外反正就是遍历,直接写个程序 find 区间然后调用 cursor.next()遍历所有条目,自己排重即可。 你说的代码里 date:{$add:[new Date(0),parseInt("$timestamp")]} 这段肯定有问题,parseInt 是个函数,你这么调用就是个字符串,不可能用数据库里的值代替的。改成 date:{$add:[new Date(0),"$timestamp"]} 应该可以。 |
7
baiihcy 2017-12-13 11:09:11 +08:00
是要把相同 uid 的不同 timestamp 查询出来吗?
db.loginHistory.aggregate( [ { $match:{ timestamp:{ $lte:"1513399696240", $gte:"1513389696240" } } }, { $project:{ uid:1, timestamp:1, _id:0 } }, { $group:{ _id:{ uid:"$uid" }, timestamp:{ $push:"$timestamp" } } } ] ) |
8
rushpu 2017-12-13 12:08:40 +08:00
把你数据库的 timestamp 搞成 NumberLong 型的,
然后 aggregate([ { "$group": { "_id": { "$dateToString": { "format": "%Y-%m-%d", "date": { "$add": [ new Date(0), "$timestamp" ] } } }, "count": { "$sum": 1 } } } ]) |
9
threedream OP @a342191555 大哥,用你这个去重方法,我输出 uids,发现数据的 key 是有问题的,并没有实现去重。
uids 数据如下: { "_id" : "2017-12-13", "value" : { "0" : 1, "1" : 1, "2" : 1, "3" : 1, "4" : 1, "5" : 1, "6" : 1, "7" : 1, "8" : 1, "9" : 1, "10" : 1, "11" : 1, "12" : 1, "13" : 1, "14" : 1, "15" : 1, "16" : 1, "17" : 1, "18" : 1, "19" : 1, "20" : 1, "21" : 1, "22" : 1, "23" : 1, "24" : 1, "25" : 1, "26" : 1, "27" : 1, "28" : 1, "29" : 1, "30" : 1, "31" : 1, "32" : 1, "33" : 1, "34" : 1, "35" : 1, "36" : 1, "37" : 1, "38" : 1, "39" : 1, "40" : 1, "41" : 1, "42" : 1, "43" : 1, "44" : 1, "45" : 1, "46" : 1, "47" : 1, "48" : 1, "49" : 1, "50" : 1, "51" : 1, "52" : 1, "53" : 1, "54" : 1, "55" : 1, "56" : 1, "57" : 1, "58" : 1, "59" : 1, "60" : 1, "61" : 1, "62" : 1, "63" : 1, "64" : 1, "65" : 1, "66" : 1, "67" : 1, "68" : 1, "69" : 1, "70" : 1, "71" : 1, "72" : 1, "73" : 1, "74" : 1, "75" : 1, "76" : 1, "77" : 1, "78" : 1, "79" : 1, "80" : 1, "81" : 1, "82" : 1, "83" : 1, "84" : 1, "85" : 1, "86" : 1, "87" : 1, "88" : 1, "89" : 1, "90" : 1, "91" : 1, "92" : 1, "93" : 1, "94" : 1, "95" : 1, "96" : 1, "97" : 1, "98" : 1 } } |
10
a342191555 2017-12-15 12:19:18 +08:00 via iPhone
@threedream 我写的那个 reduce 函数最后那段已经去重了呀。贴你的代码。
|