h4ckm310n's recent timeline updates
h4ckm310n

h4ckm310n

V2EX member #591122, joined on 2022-08-13 23:55:31 +08:00
h4ckm310n's recent replies
试试 nemotron 3 nano
都玩一遍,如果你的硬盘够大的话。我也是 5060Ti 16G ,系统是 Ubuntu Server 。我是直接从 github 上面把 comfyui 给 pull 下来,切到某个 tag (不喜欢用最新的),然后 pip 安装依赖包。再下个 comfyui manager 方便安装插件。一开始就是用 comfyui 自带的模板来简单搭工作流,熟悉之后尝试更多不同玩法,同时也试试各种不同的模型,比较知名的模型基本都会玩玩(除非是我电脑带不动的),目前玩了大半年了。
Nov 20, 2025
Replied to a topic by crocoBaby Local LLM 折腾了一晚上大模型,索然无味
@crocoBaby 只要参数量够大(起码上百 B ),Q2 用着还是可以的。AI 生成的图片可以上国内的 liblib 或国外的 civitai 看
Nov 20, 2025
Replied to a topic by crocoBaby Local LLM 折腾了一晚上大模型,索然无味
我玩了快一年了,就是拿来涩涩的。
一开始用我游戏本的 3060 跑,但只有 6G 显存,跑个 12B Q4 都慢死。
后来用平时上班用的 macbook pro 来跑,32G 内存能跑 14B Q8 了。但是 mac 也只是生成阶段速度可以,处理输入还是慢,拿来玩画图也慢。
618 的时候自己组了一个台式机,4060ti 16G+5060ti 16G ,再加上 96G 内存,纯显卡的话可以跑 32B Q6 左右,加上内存可以跑更大的 MoE 模型。目前我主要用的模型就是 Qwen3 235B 2507 Q2 ,算是我本地能跑的最大的模型了。除了 LLM ,还可以玩画图,5060ti 跑 SDXL 速度比 macbook 快多了,但是跑 Wan 或者 Qwen Image 这样更大的模型还是慢。
Jun 3, 2025
Replied to a topic by h4ckm310n NAS 在考虑给自组的 NAS 加一个 4060ti 玩 AI
@charles0 尝试了 autodl ,感觉还不错,就是使用的时候总有一种争分夺秒的感觉,不能像本地那样从容地玩,虽然主要还是我心态原因。11G 的 flux fp8 量化模型上传上去大概要半小时,无卡模式下上传慢点也还好,后来网上查了下发现这个速度已经算是快的了,如果遇到高峰期不知道要等多久。先这么用着吧,显卡我继续慢慢蹲好价的
May 29, 2025
Replied to a topic by h4ckm310n NAS 在考虑给自组的 NAS 加一个 4060ti 玩 AI
@chenbin36255 就 AI 画图来说,线上平台没法画涩图
Feb 20, 2025
Replied to a topic by mrleft Local LLM ollama 如何手动下载模型?
@mrleft ollama 就是会越下越慢的,ctrl+c 然后再接着下,速度就又上去了,下次再慢下来就也是 ctrl+c 再继续
我去年体重 150 斤左右,当时体检中度脂肪肝,现在减到了 120+不知道还有没有
Sep 6, 2024
Replied to a topic by basncy Android Android 有哪些 root 后才有的神奇功能?
1. https 抓包
2. QQ 防撤回
3. 备份应用数据(访问 data 目录)
4. 绕过某些 app 的截图限制

这些是我比较常用的
Aug 1, 2024
Replied to a topic by NoCash 职场话题 如何看待自带设备上班?
我倒是没有这种情况,现在的公司给的设备我还是比较满意的,但假如我不满意的话我也会自己买,毕竟东西是自己的,离职了也会带走,所以也不亏
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2425 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms · UTC 11:48 · PVG 19:48 · LAX 04:48 · JFK 07:48
♥ Do have faith in what you're doing.