V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
davidyin
40.35D
12.01D
V2EX  ›  Local LLM

如何在 vs code 上应用自建的 ollama 模型

  •  
  •   davidyin · 4 天前 via Android · 279 次点击
    刚接触 vs code ,安装完,看到里面的已经有一些 ai 模型可用了,升级到 pro 账号,可以看到更多可用的模型。

    我看是分三类,agent ,ask ,plan 。

    当我在管理模型这里添加了自建的一个 ollama 地址。例如 http://192.168.100.139:11434
    然后可以看到一些我安装的模型,比如 qwen2.5-coder:3b ,之类的。这个地址是局域网内另一台机器。

    然后只能当做 ask 类用。
    是否可以把它配置成 agent 类?这样它就可以直接读取文件,改文件了。
    现在只当 ask ,就只能对话而已。

    不知道我的问题说明白了没有。
    4 条回复    2026-03-06 01:23:50 +08:00
    coefu
        1
    coefu  
       1 天前
    你应该问 chatgpt 或者 gemini 。
    davidyin
        2
    davidyin  
    OP
       1 天前 via Android
    @coefu
    问过,答案是不可行。
    但是我总是不死心,觉得一定有人能做到,故有此一问。
    coefu
        3
    coefu  
       1 天前
    @davidyin 搞是能搞成的,工程角度来看,是有办法的,只是麻烦。你自己要学一堆东西先。你这种需求,不是共性需求,没人造轮子的。
    davidyin
        4
    davidyin  
    OP
       1 天前 via Android
    @coefu

    谢谢。能搞就行,花点时间而已。就怕是一条错误的道路,浪费时间精力。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2678 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 37ms · UTC 01:46 · PVG 09:46 · LAX 17:46 · JFK 20:46
    ♥ Do have faith in what you're doing.