V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  GrayXu  ›  全部回复第 3 页 / 共 40 页
回复总数  786
1  2  3  4  5  6  7  8  9  10 ... 40  
93 天前
回复了 wanmyj 创建的主题 程序员 会写代码但是缺乏工程能力,该怎么补
不懂 MFC 这种古董不是很正常嘛。。
虚拟卡付的,一直在用没被封。。
99 天前
回复了 xingcy 创建的主题 程序员 Mac 有哪些无线鼠标可以平替 MX Master 3s ?
@52acca #34 新的有,金属的电磁滚轮都可以。
99 天前
回复了 xingcy 创建的主题 程序员 Mac 有哪些无线鼠标可以平替 MX Master 3s ?
感觉 master 的最大卖点还是电磁无极滚轮。其他竞品的无极滚轮都差点意思

不然其他选个喜欢的就行了,自定义功能也可以 autohotkey 完备地替代。
100 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@zqqian #15 分割?感觉大家分割方案现在都差不多吧。还是等等 GraphRAG 吧
完美,看完舒服了
都博客了,直接自己维护个 rss list 吧,减少噪声
105 天前
回复了 a7851578 创建的主题 信息安全 github 可以访问已删除 fork 信息
@cexll #1 你没改动哪来的新 commit hash 。再说没改动的话,也不存在需要保护的信息
试了一圈,国内地区大部分都是不可用的
这个还行 1 毛一条,但跑不跑路就不知道了
aff 链接如下
http://h5.yezi66.net:90/invite/1304063
107 天前
回复了 289396212 创建的主题 程序员 想买个 vr 头显,哪款性价比高呀?
如果需求只是 steam 串流,有啥推荐吗
107 天前
回复了 CNYoki 创建的主题 程序员 ollama 本地模型 GPU 跑不满
@CNYoki #2 就是后端问题,ollama 是依赖 llama.cpp 的吧,llama.cpp 只能模型并行,不能提升 token 速度。用 vllm 。
112 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@zqqian #13
FastGPT ,感觉是满足功能需求的最轻的选择了。问题的话,还是存在一些小 bug ,然后看上去他们社区版维护的比较随意。
@wanwaneryide #22 +1 ,那么多大水管镜像站
猫扇猫扇猫扇 还是猫扇
@kangfenmao #41 感觉做 chatbot 前端产品已经很红海了,这种桌面端应该是和 chatall 一个生态位。chatall 现在还不能自定义 endpoint ,不能图片 langchain 等交互。加油
印象类似的产品不少吧,感觉速度都感人
116 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@wm5d8b #11 12G 算上量化只能部署个 9B 的模型吧。只能说离“能用”还有很大距离
117 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@echoless #6 你可以关注下 siliconflow ,最近上了 embedding ,后面会上 rerank 。
117 天前
回复了 GrayXu 创建的主题 问与答 求推荐一个轻量 RAG LLM chat 的部署方案
@echoless #6 有的是开源的,有的不是
1  2  3  4  5  6  7  8  9  10 ... 40  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1286 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 32ms · UTC 17:55 · PVG 01:55 · LAX 09:55 · JFK 12:55
Developed with CodeLauncher
♥ Do have faith in what you're doing.