V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
libii
V2EX  ›  OpenClaw

[开源] 一个极致简单内置本地模型的类龙虾 AI 桌面助手,欢迎大家试用!

  •  
  •   libii · 21 小时 10 分钟前 · 210 次点击

    大家好,今天分享一个我最近的开源项目 —— Kocort,一个主打极致简单的类似龙虾的 AI 桌面助手。

    核心亮点

    1️⃣ 下载解压双击运行,就这么简单

    没有命令行,没有环境配置,没有依赖安装。

    1. 下载压缩包
    2. 解压
    3. 双击运行:扫码绑定微信机器人
    4. 开始用
    

    就这么简单。配置界面都是图形化的,改个配置不用修改 json 文件。

    2️⃣ 内置本地模型,可以不接云端

    这是 Kocort 最大的不同:

    其他框架: 必须配置 OpenAI/Anthropic/国内大厂的 API Key Kocort: 内置本地模型支持,完全可以不接任何云端

    内置了本地模型推理引擎,下载模型放进去就能用:

    • 不需要自己部署 Ollama
    • 不需要配置 LM Studio
    • 不需要跑 Docker

    模型文件放进去,自动识别,自动加载。

    3️⃣ 双脑架构,安全且高效

    ┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐
    │  云端 LLM 输出   │ →  │  小脑语义审查    │ →  │  工具执行/拦截   │
    │  tool_call      │    │  approve/flag   │    │                 │
    │                 │    │  /reject        │    │                 │
    └─────────────────┘    └─────────────────┘    └─────────────────┘
    
    • Brain - 大模型,处理复杂任务(写代码、分析文档、逻辑推理)
    • Cerebellum - 小模型,负责工具调用的安全审核

    好处:

    • 小脑安全审核,数据不出电脑.
    • 大脑大模型处理复杂任务
    • 支持完全本地运行,数据不出电脑
    • 也可以接云端模型,看你需要

    实际使用场景

    场景 1:完全本地运行(隐私敏感)

    "帮我整理这个文件夹里的文档,提取关键信息"
    → 全部本地处理,文件不上传,API 不调用
    

    场景 2:浏览器自动化

    "打开知乎,登录后查看我发布的文章"
    → 自动打开可见浏览器,完成操作
    

    和同类产品的区别

    特性 Kocort 其他框架
    启动方式 下载解压双击 命令行 + 配置
    本地模型 内置引擎,开箱即用 需自建 Ollama 等
    云端依赖 可选,可完全不用 必须配置 API Key
    配置复杂度 图形界面 YAML/JSON 手写
    双脑架构 内置 无/需自配

    适合谁用?

    • 不想折腾配置的 - 下载双击就能用
    • 对隐私有要求的 - 可以完全本地运行
    • 想省 API 费用的 - 模型本地处理
    • 断网环境使用的 - 本地模型不依赖网络
    • 想试试 AI 代理的 - 门槛最低

    项目状态

    • ✅ 双脑架构实现
    • ✅ 内置本地模型引擎(集成 llama.cpp GGUF 支持)
    • ✅ 云端模型可选接入
    • ✅ 图形化配置界面
    • ✅ 工具系统(浏览器/文件/搜索/命令)
    • ✅ 记忆系统
    • ✅ 子代理系统
    • ✅ 技能扩展

    技术细节(给感兴趣的朋友)

    • Go 语言开发,支持 Win/Mac/Linux 几乎所有主流平台
    • 内置 llama.cpp 集成
    • 支持 GGUF 格式模型
    • 插件化工具架构
    • 支持多渠道接入(微信等)

    反馈与交流

    项目地址: https://github.com/kocort/kocort

    特别想请教大家:

    1. 本地模型大家常用哪些? 7B ? 13B ? 32B ?
    2. 双脑架构的设计是否符合大家的使用习惯?
    3. 还有什么功能是最需要的?

    欢迎提 Issue 、PR ,也欢迎在评论区聊聊~


    P.S. 项目还在早期阶段,核心功能已可用。有任何问题欢迎交流!

    P.P.S. 完全本地运行时,记得准备个够大的模型(当然需要一个好显卡..),效果会更好~

    2 条回复    2026-03-31 10:19:08 +08:00
    LIPOLIS
        1
    LIPOLIS  
       21 小时 5 分钟前
    等我回家试试
    libii
        2
    libii  
    OP
       21 小时 2 分钟前
    @LIPOLIS ❤️感谢支持~
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1155 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 23:22 · PVG 07:22 · LAX 16:22 · JFK 19:22
    ♥ Do have faith in what you're doing.