V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  046569  ›  全部回复第 2 页 / 共 32 页
回复总数  627
1  2  3  4  5  6  7  8  9  10 ... 32  
315 天前
回复了 tobemaster 创建的主题 macOS 在我的心里, Mac 从小甜甜变成了牛夫人
@YsHaNg
刚安装系统的时候就用组策略禁止了自动更新.某次升级后失效了.一点也不省心.ORZ.
315 天前
回复了 tobemaster 创建的主题 macOS 在我的心里, Mac 从小甜甜变成了牛夫人
Windows 11 让用户体验什么叫"你的硬件跑的是我的系统,我说的算".让你更新你就更新,让你重启你就得重启.管你什么全屏正在使用,我的系统我说的算.微软维护这么多版本,要是能强制更新解决碎片化,岂不是美哉.
macOS Sonoma 就不一样了,功能回退的清新脱俗.系统自带的预览 GIF 功能,反馈跟踪了几个系统小版本,都只能缓解,无法彻底解决.录屏、收集日志、更新系统,各种折腾一番还是故障依旧,还被天才 diss 国内的开发者不行,得靠新加坡.毕竟苹果要去开发立体计算,电脑、手机、手表都不再是开发(利润)重心.
所以比烂只不过是减猿增笑的显现罢了.
为啥不吐槽 Linux ?人家为爱发电没收我钱啊.和商业公司收钱还要给用户喂屎的行为一比,不知道高到哪里去了.
上个月刚好升级, LZ 可以参考下:
2.5G 网络升级指南

https://www.046569.com/2023/12/18/2.5G-network-upgrade-guide.html
有可能是宽带重新拨号触发 Edge 刷新自动播放了.
看下日志里的时间就可以对应上.
2023-11-12 11:42:43 +08:00
回复了 witcat 创建的主题 微信 小程序 300 块现在看样子是强制咯
以前每年认证一次微信公众号、企业微信啥的可以互认.
现在优化流程(创收有道),腾讯自家每个地方都要认证,手续基本一样.每年认证一次.认证一次 300 .开几个地方权限就 + 几个 300 .
个人、小微企业的羊毛都要薅,属实吃相难看.
2023-09-29 23:41:29 +08:00
回复了 williamjing 创建的主题 Apple 来说说 macOS 14 Sonoma 吧。
@coolpace
可怕的是,如果选了全部随机,会下载 40G 左右的视频,小硬盘 Mac 的噩梦.
2023-08-28 23:11:36 +08:00
回复了 ghmum 创建的主题 问与答 如何一台电脑多用户同时使用
@ghmum
确实不便宜,我购买的正版.另外在代理商那会有些许折扣.
2023-08-28 15:07:32 +08:00
回复了 ghmum 创建的主题 问与答 如何一台电脑多用户同时使用
@ghmum
关闭显示器不会引起花屏.另外是几率性出现,大概 10% ?
2023-08-28 10:22:59 +08:00
回复了 ghmum 创建的主题 问与答 如何一台电脑多用户同时使用
实测在 Windows 11 家庭中文版 22H2 + aster v 2.31 多用户 + steam 同时登陆没问题.

美中不足: 启用 aster 后会遇到其它屏幕睡眠后唤醒花屏的 bug ,只能重启.
2023-08-26 15:27:06 +08:00
回复了 gzypt 创建的主题 问与答 想知道中国亚马逊的海外购靠谱不
2018 年之前靠谱,之后随缘,2019 年开始摆烂.

典型的经历:
2021 年在亚马逊海外购亚马逊英国自营购买硬盘,刚发货不足一天,来电归属地香港的骗子先通过电话后通过 QQ 电话诈骗,准确说出货物以及清关信息(身份证号等).当时正在处理工作同时接通两路电话脑抽险些上当(让发送订单截图,好在多年养成的习惯发送前打码敏感信息),后来又诱导下载远程软件及时醒悟(工作电话处理完了智商又重新占领高地了.实践证明工作有损智商).投诉至亚马逊承诺调查,不了了之.

和朋友聊天得知均有类似经历,至此十余年的忠诚客户已放弃.
2023-08-09 23:21:40 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@locoz
简单估算模型规模 * 2 就是无量化的显存占用.
速度不容易估算出来.所以这个数据更有价值一些.好在过了这么多天,网上已经有很多测试视频了.
多人使用肯定要量化的.慢点总比用不了要好.
2023-07-27 17:05:00 +08:00
回复了 sdjl 创建的主题 问与答 能不能用 AI 开发一款和骚扰电话互相聊天的 APP?
楼主是不是在找华小秘?

市面已经有同类产品了.
2023-07-26 14:41:57 +08:00
回复了 lrigi 创建的主题 MacBook Pro 搞 AI 的兄弟们都选的多大的内存? 32 还是 64?
原则上越大越好,目前 MPS 确实存在限制,粗略估算三分之二当显存.
一旦内存爆了,速度会立刻降到没法使用.
实测 32G 内存跑 70B 量化只有 0.03 tokens/s.
2023-07-26 14:33:31 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@jjxtrotter
@lianxin255
我之前关注了林亦 LYi,所以第一时间就看到了.然而他在视频中的说法是有误导性的.我求证了 Apple 工程部,截至目前尚未回复具体数据,说是要等待测试结果.
2023-07-25 11:12:45 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@locoz
1. 我坏了两块显卡.一块换新,另一块还杳无音信.所以我关注保修.电商的返修率也能说明问题.
2. 在不超过预算的前提下,如何为客户组装能同时跑两个甚至三个 70B 模型的全新英伟达硬件?有配置推荐么?
3. 客户是十几人的小律所,接案律师疲于奔命,想利用 AI 快速筛选难以胜诉的官司.出于合规性要求,必须离线部署.没办法选择商业闭源模型.即便是开源模型在很多领域无法与闭源相媲美,但只要能胜任工作,我觉得就是好模型.类似的,还有医院使用的心电图 AI ,可筛出极早期异常 Q 波,也需要本地部署.
4. 现阶段,依托 openAI 的国内公司,都不合法.很多公司应该也都收到了通知:禁止设立 openAI 与 chatGPT 的镜像站.
5. 个人考虑隐私选择本地不是很正常的需求么.换句话说,我自己开心 YY 一下存本地不是正好.出个新模型测试一下,本地跑跑也很方便呀.
6. 你实际的体验是如何体验的?测试环境和测试方法是什么?又是如何评分的?与目前的测试集相比,有哪些优势?不能因为个人喜好,就推翻行业内的通行做法吧?
7. 你做的很多自用的、包含复杂逻辑的省事工具,解决了什么问题,又是如何解决的?能举个例子便于理解吗?
8. 店铺是朋友推荐,我并未亲自查看,如果误导他人,并非出自本意,深感抱歉.
2023-07-24 14:33:15 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@locoz
问题是五万以内预算,兼顾大显存与保修,除了 Mac 就是 4090 * 2( 捡垃圾 3090 * 3 ).
不想采用 NVIDIA 的方案一是显存较小( 44G VS 192G ),需要拆分模型;二是作为一个臭打游戏的来说,老黄的吃相,影响食欲.
所以我更期待看到有关 Mac 的测试,似乎没看到各家的算力市场中有提供.如有请告知.根据我目前的测试,这里是有些坑的.多看看可以避坑.

大模型本地部署是有着很强的优势的,比如:

1. 不会因为大公司的模型一更新,你学会的方法就不能用了.
2. 可以进行训练微调,获取某个领域的专业技能.这点可能随着技术发展会被湮没.
3. 可以离线部署,不会泄密.
4. 对齐导致的精度下降等等.

简单的说,本地部署 VS 大公司产品可以理解成 NAS 和公有云网盘之争.私人网盘无论稳定性还是功能性都远远不如公有云,但很多人依然选择自建.我相信每个掏出真金白银的人都有充足的理由选择本地部署.从这个意义上说, Mac Studio 更适合小型工作室或者个人开发者. 不是所有的开发者都能拿出 A100 * 32,但他们仍然应该有资格入场,这是一种平等.

科技的进步如果让生产力垄断在少数公司手里,而不是让每个人变的更强大,这是何等悲哀的景象.

依我看:
用个人用户体验去判断某个行业的应用前景,未免武断了.至少也应该使用数据集进行测试, zero shot 能否满足需求? few shot 呢?Lora 表现如何?
现阶段,重视模型的使用胜于挑刺.采用更 open 的眼光看待新事物,保持对世界的好奇心,可以证明我还没老.

@wanghui22718
店铺叫开源宇宙 GPU 服务器工厂.

PS: 本人与该店铺无任何利益相关.
2023-07-24 10:03:33 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@locoz
算力云这些我也用过.之前炼丹就是在上面跑的.主打性价比.
但这些方案不太适合个人 **本地** 推理.

我调查过相关方案:

1. 3090 * 8 + NVLink ,保修堪忧,价格适中;
2. 4090 * 8 + 魔改 NVLink,淘宝有商家在做.可得到最高的推理性能.最贵.
3. Mac Studio 192G,大显存.最便宜但慢.

如果预算不足就只能选 Mac 了...
2023-07-23 16:55:18 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@locoz
云计算参考意义不大,那些服务器个人购买还是太贵了.我想放在本地运行.感谢回复.

再蹲一会看看有没有类似的数据.
2023-07-23 10:37:03 +08:00
回复了 3dward 创建的主题 分享发现 Llama 2 可以在本地 Mac 运行了
@locoz
方便分享测试数据么?
什么设备上测的?显存占用和速度( token/s )如何?
想升级设备.
1  2  3  4  5  6  7  8  9  10 ... 32  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2790 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 07:15 · PVG 15:15 · LAX 23:15 · JFK 02:15
Developed with CodeLauncher
♥ Do have faith in what you're doing.