V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
davidyin
40.35D
12.44D
V2EX  ›  Local LLM

如何在 vs code 上应用自建的 ollama 模型

  •  
  •   davidyin · 3 月 2 日 via Android · 916 次点击
    刚接触 vs code ,安装完,看到里面的已经有一些 ai 模型可用了,升级到 pro 账号,可以看到更多可用的模型。

    我看是分三类,agent ,ask ,plan 。

    当我在管理模型这里添加了自建的一个 ollama 地址。例如 http://192.168.100.139:11434
    然后可以看到一些我安装的模型,比如 qwen2.5-coder:3b ,之类的。这个地址是局域网内另一台机器。

    然后只能当做 ask 类用。
    是否可以把它配置成 agent 类?这样它就可以直接读取文件,改文件了。
    现在只当 ask ,就只能对话而已。

    不知道我的问题说明白了没有。
    9 条回复    2026-03-15 05:59:52 +08:00
    coefu
        1
    coefu  
       3 月 5 日
    你应该问 chatgpt 或者 gemini 。
    davidyin
        2
    davidyin  
    OP
       3 月 5 日 via Android
    @coefu
    问过,答案是不可行。
    但是我总是不死心,觉得一定有人能做到,故有此一问。
    coefu
        3
    coefu  
       3 月 5 日
    @davidyin 搞是能搞成的,工程角度来看,是有办法的,只是麻烦。你自己要学一堆东西先。你这种需求,不是共性需求,没人造轮子的。
    davidyin
        4
    davidyin  
    OP
       3 月 6 日 via Android
    @coefu

    谢谢。能搞就行,花点时间而已。就怕是一条错误的道路,浪费时间精力。
    coefu
        5
    coefu  
       3 月 12 日
    @davidyin #4 搞定了没?我最近跑通了。你装个 continue 的插件就行了。
    coefu
        6
    coefu  
       3 月 12 日
    @davidyin #4 https://github.com/continuedev/continue ,比较爽,vscode 能直接读文件,改文件,还能读项目架构。不过,你要分成 3 个模型来搞。
    chat,edit,apply 一个模型,通用模型最好,用来搞需求实现。顺便帮你直接 code 。
    auto-complete 一个模型,用 qwen2.5 coder 0.5b 就 ok ,你自己想改动的时候,自动补全。
    embed 一个模型,这个可能要大一点,上下文 128k 的那种,可以直接读 整个项目,梳理项目架构。
    kafm
        7
    kafm  
       3 月 14 日
    vscode 的 chat 模式已经可以 Agent 模式用本地模型了
    kafm
        8
    kafm  
       3 月 14 日
    chat: openchat 命令打开的对话框
    oldlamp
        9
    oldlamp  
       3 月 15 日
    以前有一个 void ,可以这样用本地模型,是个 vscode 开源版的修改版,后来好像不更新了,但依然能安装使用。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   963 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:49 · PVG 03:49 · LAX 12:49 · JFK 15:49
    ♥ Do have faith in what you're doing.