V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zhoudaiyu
V2EX  ›  Kubernetes

大家在生产环境使用 Redis on K8s 的方案是什么?

  •  
  •   zhoudaiyu ·
    PRO
    · 1 天前 · 2422 次点击
    我们的需求是要用 redis-cluster ,而且不能切换 valkey 或者 dragonflydb ,私有云部署。目前调研了 OT-CONTAINER-KIT 的 redis-operator 和 bitnami 的 redis-cluster ,但是两者都有坑,前者 issue 上看扩容有些问题,后者主要是不在 github 上公开维护项目了。大家有什么建议,还有现在使用的方案是啥?
    23 条回复    2026-01-15 20:16:24 +08:00
    GopFei
        1
    GopFei  
       1 天前
    21 年的老项目用的还是 redis-cluster
    cloudzhou
        2
    cloudzhou  
       1 天前
    db ,redis 目前一般还用的是实体部署
    尤其是 redis ,内存数据,部署在 k8s 意义是什么?除了扩容方便外
    craftsmanship
        3
    craftsmanship  
       1 天前 via Android
    @GopFei 21 年就老项目了 真羡慕啊
    qW7bo2FbzbC0
        4
    qW7bo2FbzbC0  
       1 天前
    有啥要迁移 valkey 或者 dragonflydb 的必要吗
    JYii
        5
    JYii  
       1 天前
    @craftsmanship #3 想起之前公司项目看到一份存储过程的注释来自 2008 年,08 年我小学才毕业。
    craftsmanship
        6
    craftsmanship  
       1 天前 via Android
    @JYii 我在工作中翻到过最老的代码是 91 年的 C++头文件 那时我还没出生,,,老前辈写的代码非常规范 赏心悦目
    nodesolar
        7
    nodesolar  
       1 天前
    @JYii 看起来我写 asp 时 你还在读小学
    NoobPhper
        8
    NoobPhper  
       1 天前
    我的经验告诉我,sts 的 东西放到 k8s 上 就是灾难, 别看各种 operator 能做到什么 failsover 巴拉巴拉 u 一大堆, 你现在没遇到是因为,你们体量小,所以不要给自己找麻烦, 放到宿主机上部署。
    coefu
        9
    coefu  
       1 天前
    bitnami 的 redis-cluster ,我在 2021 年的时候,确实遇到过一些问题。bitnami 现在的态度也让人觉得不靠谱了。
    还得是选当前还有 commit 的项目,起码还有人能一起讨论一下。
    qczrzl
        10
    qczrzl  
       23 小时 18 分钟前
    kubeblocks
    realpg
        11
    realpg  
    PRO
       21 小时 47 分钟前
    这种东西往 K8s 上扔只能说明公司架构是个垃圾
    xzysaber
        12
    xzysaber  
       21 小时 31 分钟前
    持久化的项目都是单独部署,没有放到 K8S 管理。
    guanzhangzhang
        13
    guanzhangzhang  
       21 小时 11 分钟前
    docker host 网络容器部署,只用容器的 rootfs 和 cgroup 方便特性
    zed1018
        14
    zed1018  
       21 小时 3 分钟前
    蹲一个,我们现在 redis 和 rabbitmq 都有单点问题需要解决了
    Maco
        15
    Maco  
       20 小时 59 分钟前
    我们生产环境还是用 systemd 管理的宿主机 redis-cluster 。
    kakacoco
        16
    kakacoco  
       20 小时 34 分钟前
    实际上这种强状态服务不适合放 k8s 上,我们公司因为历史上有大领导推动上云,导致 redis 也用了 k8s ,现在因为它导致一系列极其恶心的特殊策略,稳定性也没有提高,运维成本高了不少,如果不是老板指定必须这样做不可,最好不要用 k8s ,坑太多了
    R77
        17
    R77  
       20 小时 32 分钟前
    redis not on k8s
    Kumo31
        18
    Kumo31  
       19 小时 44 分钟前
    kubeblocks + 1
    hancai2
        19
    hancai2  
       19 小时 10 分钟前
    跑了几十套 redis 到 k8s 里面没什么问题。 公有云就直接买吧
    stefanaka
        20
    stefanaka  
       18 小时 48 分钟前
    不用 k8s 的理由是什么?
    THESDZ
        21
    THESDZ  
       18 小时 39 分钟前
    如果没有话语权,可以先上 k8s ,维护好基于 srv 的访问方式
    后期如果脱离,使用 https://kubernetes.io/docs/concepts/services-networking/service/#externalname ,降低迁移难度
    my3157
        22
    my3157  
       18 小时 17 分钟前
    一个 sts 加一个 create cluster 的 job 解决, 不介意手动操作的话 sts 起来了以后, 手动 exec 进去 create cluster 也行, 会写 helm 的话 create cluster 也可以用 helm 的 hook 处理
    sampeng
        23
    sampeng  
       17 小时 10 分钟前 via iPhone
    尽管放,集群炸的时候是以小时为单位恢复
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4006 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 05:26 · PVG 13:26 · LAX 21:26 · JFK 00:26
    ♥ Do have faith in what you're doing.