1
GopFei 1 天前
21 年的老项目用的还是 redis-cluster
|
2
cloudzhou 1 天前
db ,redis 目前一般还用的是实体部署
尤其是 redis ,内存数据,部署在 k8s 意义是什么?除了扩容方便外 |
3
craftsmanship 1 天前 via Android
@GopFei 21 年就老项目了 真羡慕啊
|
4
qW7bo2FbzbC0 1 天前
有啥要迁移 valkey 或者 dragonflydb 的必要吗
|
5
JYii 1 天前
@craftsmanship #3 想起之前公司项目看到一份存储过程的注释来自 2008 年,08 年我小学才毕业。
|
6
craftsmanship 1 天前 via Android
@JYii 我在工作中翻到过最老的代码是 91 年的 C++头文件 那时我还没出生,,,老前辈写的代码非常规范 赏心悦目
|
8
NoobPhper 1 天前
我的经验告诉我,sts 的 东西放到 k8s 上 就是灾难, 别看各种 operator 能做到什么 failsover 巴拉巴拉 u 一大堆, 你现在没遇到是因为,你们体量小,所以不要给自己找麻烦, 放到宿主机上部署。
|
9
coefu 1 天前
bitnami 的 redis-cluster ,我在 2021 年的时候,确实遇到过一些问题。bitnami 现在的态度也让人觉得不靠谱了。
还得是选当前还有 commit 的项目,起码还有人能一起讨论一下。 |
10
qczrzl 23 小时 18 分钟前
kubeblocks
|
11
realpg PRO 这种东西往 K8s 上扔只能说明公司架构是个垃圾
|
12
xzysaber 21 小时 31 分钟前
持久化的项目都是单独部署,没有放到 K8S 管理。
|
13
guanzhangzhang 21 小时 11 分钟前
docker host 网络容器部署,只用容器的 rootfs 和 cgroup 方便特性
|
14
zed1018 21 小时 3 分钟前
蹲一个,我们现在 redis 和 rabbitmq 都有单点问题需要解决了
|
15
Maco 20 小时 59 分钟前
我们生产环境还是用 systemd 管理的宿主机 redis-cluster 。
|
16
kakacoco 20 小时 34 分钟前
实际上这种强状态服务不适合放 k8s 上,我们公司因为历史上有大领导推动上云,导致 redis 也用了 k8s ,现在因为它导致一系列极其恶心的特殊策略,稳定性也没有提高,运维成本高了不少,如果不是老板指定必须这样做不可,最好不要用 k8s ,坑太多了
|
17
R77 20 小时 32 分钟前
redis not on k8s
|
18
Kumo31 19 小时 44 分钟前
kubeblocks + 1
|
19
hancai2 19 小时 10 分钟前
跑了几十套 redis 到 k8s 里面没什么问题。 公有云就直接买吧
|
20
stefanaka 18 小时 48 分钟前
不用 k8s 的理由是什么?
|
21
THESDZ 18 小时 39 分钟前
如果没有话语权,可以先上 k8s ,维护好基于 srv 的访问方式
后期如果脱离,使用 https://kubernetes.io/docs/concepts/services-networking/service/#externalname ,降低迁移难度 |
22
my3157 18 小时 17 分钟前
一个 sts 加一个 create cluster 的 job 解决, 不介意手动操作的话 sts 起来了以后, 手动 exec 进去 create cluster 也行, 会写 helm 的话 create cluster 也可以用 helm 的 hook 处理
|
23
sampeng 17 小时 10 分钟前 via iPhone
尽管放,集群炸的时候是以小时为单位恢复
|