V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  bwnjnOEI  ›  全部回复第 4 页 / 共 4 页
回复总数  66
1  2  3  4  
2025 年 11 月 1 日
回复了 qdwang 创建的主题 问与答 目前医疗类 AI 哪个最好?
我觉得 aq 很拉,蚂蚁买完好大夫,好好的数据就这么浪费了,其他的国内没用过,考虑个人隐私这方面不打算用国内的(比如上传化验报告懒得/忘记去名字还是把个人信息给大洋对面)。感觉还是 chatgpt 好用,开源的话就 medgemma27b 消费级也能部署。
2025 年 11 月 1 日
回复了 scim 创建的主题 问与答 wxauto 也归档了,大家怎么看
这种东西出来一个腾讯就会清除一个,我比较好奇他们都是怎么找到作者的,这比翻墙协议作者还严重吗
@Saunak 现在官方店都是 5090d v2 吧,官方店好像只有超级雕有 d
@Saunak 电源黑匣子吗? 1600w 够了吧,尽可能买贵的,用显卡带的线安装时最好拍个视频(虽然也没啥用 要是不放心再上个稳压器或者 ups 之类的(其实没啥大用 显卡待机也就 2 3 十瓦 你跑模型多说飙到 100w (我说的是推理,我微调或者 rl 都用实验室的卡或者买 gpu 云
买新不买旧啊,那个 48g 的我也心动过,但是毕竟改装卡。只要是 moe 架构的模型都可以把专家权重卸载到 cpu 只把前 n 曾放在 gpu flash-atten kv 都不用设 q8 也就是说 60g 以内的模型在权衡质量和 tps 和预算的情况下你都能跑 gpt-oss-120b qwen3-30b ,4090 也能到 20-25tps ,当然还能优化
2025 年 10 月 29 日
回复了 coefu 创建的主题 Local LLM llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
ollama 就是给小白用的,每次有新模型 ollama 都是等 llama.cpp 有了才更新。llama.cpp 就是单卡最强,多卡就 vllm or sglang
1  2  3  4  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4712 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms · UTC 05:35 · PVG 13:35 · LAX 21:35 · JFK 00:35
♥ Do have faith in what you're doing.