V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  kaichen  ›  全部回复第 3 页 / 共 21 页
回复总数  409
1  2  3  4  5  6  7  8  9  10 ... 21  
199 天前
回复了 should 创建的主题 OpenAI 计算机相关论文阅读看不懂
@should #9 不要背单词,使劲看,到一定量之后就会觉得看得下去,再到下个阶段基本上就流畅阅读。基本上过程是阶梯状的,渡过就好了,但一旦回避那么永远过不去这个坎。
200 天前
回复了 should 创建的主题 OpenAI 计算机相关论文阅读看不懂
最后还是需要有英文能力的,你不确定 LLM 会不会出幻觉给你胡扯,他只能提效,并不能代替你对内容本身理解。
200 天前
回复了 ttgo 创建的主题 机械键盘 再一次买 hhkb 失败
推荐 keychron q60 max ,hhkb 键位布局,可以自己换轴

https://www.keychron.com/products/keychron-q60-max-qmk-via-wireless-custom-mechanical-keyboard
你说的是 API 还是可以直接用的 Chatbot UI ?
216 天前
回复了 boboliu 创建的主题 分享发现 震惊!知名 AI 大公司竟做出这种事……
他这里有 5-shot 的标注耶,应该是没公开 prompt 的情况吧
230 天前
回复了 liujigang 创建的主题 Apple 有什么途径购买 macbook 比较实惠
@hui9000

官网拉到底部,点击“翻新产品”

https://www.apple.com.cn/shop/refurbished/mac
230 天前
回复了 liujigang 创建的主题 Apple 有什么途径购买 macbook 比较实惠
咸鱼员工 85 折再分期去买官翻,折上折+分期

M3 对比 M2 进化不多,现在买 M2 炒鸡实惠
234 天前
回复了 dzdh 创建的主题 Docker OrbStack 是不是也 G 了
跟 orbstack 本身没有关系,你可以打开选项,设置 proxy ,或者在 docker 选项里把 hub mirror 或者 proxy 给配置上
254 天前
回复了 coderpwh 创建的主题 Twitter 推特上面的撸空投是假的吗
不需要你花钱的,大概率是假的

这和当初 o2o 一样,他找 vc 要钱,然后给终端用户发钱发优惠,把数据做起来,再去拉更多投资

在 galxe 或者 layer3 上去做交互任务的,大概率是有空投预期
uncle block 数量上肯定比正常的要少一个量级,另外以太坊早就已经不是 pow ,而是 pos ,没有 uncle 这一说

最后的一个叔块已经是一年多前 https://etherscan.io/uncles
@Rrrrrr #6

https://lmstudio.ai/ 下载个客户端,搜索对应大小的模型( apple silicon 是内存的 3/4 可以作为显存),可以先搜索 qwen gguf 找个合适大小的玩玩看

然后可以直接对话,或者启动一个与 openai api 兼容的 api server
341 天前
回复了 coinbase 创建的主题 硬件 M2 128GB 的 Mac Studio 与 NVDIA A100 相比如何?
在 reddit 的 local llama 上,比较推崇的是买两块 3090 组 nvlink ,这样有 48G ,可以刚刚好跑个 70b 的 q5 量化版
341 天前
回复了 coinbase 创建的主题 硬件 M2 128GB 的 Mac Studio 与 NVDIA A100 相比如何?
那你可以对比 96G 的价格,从推理来说,能效方面 apple silicon 比较高,并且买回来就能用,买个 A100 还要组个主机

但是推理速度会被吊打,基本上差一个量级

- https://towardsdatascience.com/how-fast-is-mlx-a-comprehensive-benchmark-on-8-apple-silicon-chips-and-4-cuda-gpus-378a0ae356a0
- https://owehrens.com/whisper-nvidia-rtx-4090-vs-m1pro-with-mlx/
357 天前
回复了 cmonkey 创建的主题 Local LLM 运行 LM Studio 的电脑硬件配置
@kaichen #2

上面 70b 写错了,4bit 在 ~ 40G 占用左右
357 天前
回复了 cmonkey 创建的主题 Local LLM 运行 LM Studio 的电脑硬件配置
推理最重要的是有足够的显存可以把模型权重加载进来。

要么是搞个内存高一些的 mac ,要么是选个实惠一些的大显存显卡(去咸鱼淘二手)

7b 的 4bit 量化在 ~4G ,13b 的 4bit 在 ~8G ,34b 的 4bit 在 ~25GB ,70b 的 4bit 在 ~23GB
2024-01-28 00:41:02 +08:00
回复了 jintaoxx 创建的主题 MacBook Pro MBA15 寸和 MBP14 寸如何选择?
air 和 pro 实际续航差距蛮大,air 基本上一天不充电不是问题,但 pro 消耗蛮大用一段时间后可能会只有半天(比如视频会议,和协同办公工具)

如果只是屏幕大小影响,真的建议,在工作的地方自己买个红米 4k 显示器,比起笔记本屏幕多一两寸提升更大更明显,花费也更少
2024-01-19 19:12:25 +08:00
回复了 yuyue001 创建的主题 Local LLM 有人(个人)自己使用开源的 LLM 大模型吗?
本地跑个 mixtral 替代 chatgpt-3.5 问题不大,可以拿来替代 Immersive Translate 的翻译引擎,用 LM Studio 启动假扮 openai 接口

还有对一些无规则文本的处理,可以用 7b mistral 给 prompt 处理得到结果,比如分类,提取关键信息
2024-01-17 00:35:19 +08:00
回复了 jackey115 创建的主题 Bitcoin 比特币、闪电网络智能合约 rust 开发
这是招聘去直接做 RGB 协议本身的开发?还是 RGB 其上的应用开发?
2023-06-25 09:58:29 +08:00
回复了 SillyGod 创建的主题 问与答 gpt-4-32k 模型 api 的上文 tokens 应该设多少
你如果用的 langchain 来做,可以直接用他的 memory 类,想简单限制数量就用 ConversationTokenBufferMemory ,想做总结再来回交互用 ConversationSummaryBufferMemory

记录的持久化也能处理

https://api.python.langchain.com/en/latest/modules/memory.html
1  2  3  4  5  6  7  8  9  10 ... 21  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   680 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 21:58 · PVG 05:58 · LAX 13:58 · JFK 16:58
Developed with CodeLauncher
♥ Do have faith in what you're doing.