我有一个比较大的字典,这个字典的大小可能超过了机器可用的内存,我想把整个字典用 pickle 序列化,再 zlib 压缩一下,然后通过网络发送到另一台机子上,这个功能有简单一点的办法完成吗?
1
keakon 2019-07-29 16:04:27 +08:00
直接把原始的字典文件压缩后传过去啊,不然另一台机器加载这个字典就内存溢出了。
|
2
krixaar 2019-07-29 16:06:11 +08:00
既然是字典,存成个 sqlite 然后查询也可以吧?
|
3
linxy19957 OP @keakon 感谢回答,可能问题有点不清楚,字典是程序运行过程中不断填充的,所以没有原始的字典文件。另一台机器加载字典内存溢出的问题暂时可以不考虑,可以想象另一台机器内存很大。
|
4
Ehco1996 2019-07-29 16:13:41 +08:00
pickle
|
5
linxy19957 OP @krixaar 感谢回答,sqlite 可能是目前能想到的最好的解决办法了,但是字典是程序运行过程中不断填充、修改、合并的,用 sqlite 效率有所下降,而且也比较麻烦,如果没有其他办法的话就用它
|
6
silencefent 2019-07-29 16:22:37 +08:00
放磁盘里操作比 sqlite 效率低更多,磁盘的 io 不到内存的 1/20
|
7
linxy19957 OP @silencefent sqlite 也是基于磁盘的吧,按理说效率应该是差不多的?是有内存的 sqlite,但是数据在内存里放不下
|
8
silencefent 2019-07-29 16:31:24 +08:00
@linxy19957 但是 sqlite 可以让你决定一次取多少到内存里呀
|
9
linxy19957 OP @silencefent 我懂你的意思了,是我描述的不够,我的 value 占用空间较大,但是生成后存起来就行,是不参与运算的,运算的基本都是 key 部分
|
10
Rheinmetal 2019-07-29 16:42:12 +08:00
数据多的话就上数据库吧 缓存问题数据库引擎会给你解决的
你这个 k-v 型的上 redis ? |
11
lihongjie0209 2019-07-29 16:49:17 +08:00
在另外的大内存机器上启动 redis, 计算还是放在这台机器
|
12
linxy19957 OP |
13
lance86 2019-07-29 17:00:50 +08:00
把数据用 MongoDB ?处理直接在数据库里
|
14
liprais 2019-07-29 17:02:09 +08:00
为啥你不把这个对象写到数据库里.......
|
15
joson1205 2019-07-30 17:06:13 +08:00
比较好奇数据对象是临时性保存还是永久性的?
|