首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
40.35
12.01
V2EX
›
Local LLM
如何在 vs code 上应用自建的 ollama 模型
davidyin
·
4 天前
via Android · 279 次点击
刚接触 vs code ,安装完,看到里面的已经有一些 ai 模型可用了,升级到 pro 账号,可以看到更多可用的模型。
我看是分三类,agent ,ask ,plan 。
当我在管理模型这里添加了自建的一个 ollama 地址。例如 http://192.168.100.139:11434
然后可以看到一些我安装的模型,比如 qwen2.5-coder:3b ,之类的。这个地址是局域网内另一台机器。
然后只能当做 ask 类用。
是否可以把它配置成 agent 类?这样它就可以直接读取文件,改文件了。
现在只当 ask ,就只能对话而已。
不知道我的问题说明白了没有。
模型
配置
文件
4 条回复
•
2026-03-06 01:23:50 +08:00
1
coefu
1 天前
你应该问 chatgpt 或者 gemini 。
2
davidyin
OP
1 天前 via Android
@
coefu
问过,答案是不可行。
但是我总是不死心,觉得一定有人能做到,故有此一问。
3
coefu
1 天前
@
davidyin
搞是能搞成的,工程角度来看,是有办法的,只是麻烦。你自己要学一堆东西先。你这种需求,不是共性需求,没人造轮子的。
4
davidyin
OP
1 天前 via Android
@
coefu
谢谢。能搞就行,花点时间而已。就怕是一条错误的道路,浪费时间精力。
关于
·
帮助文档
·
自助推广系统
·
博客
·
API
·
FAQ
·
Solana
·
2678 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms ·
UTC 01:46
·
PVG 09:46
·
LAX 17:46
·
JFK 20:46
♥ Do have faith in what you're doing.
❯