V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  iorilu  ›  全部回复第 13 页 / 共 111 页
回复总数  2211
1 ... 9  10  11  12  13  14  15  16  17  18 ... 111  
109 天前
回复了 wenkgin 创建的主题 Local LLM AI 本地化部署的方式
说实话, 本地部署唯一有点用的就是翻译

翻译说实话确实不需要太大模型, 8b 就行了

其他的还是算了, 真想干点活, 还得上 api, 除非你有能力部署那种满血 deepseek, 那是另一回事
@NicoNya 已发
关键是如何收钱

微软 store 有人搞过吗, 个人如何收款
最低要搞个个体户

但现在个体户好像也必须交社保了吧

反正成本还是有点的
同等规模的只有 deepseek 是开源的

你看看如何本地部署满血 deepseek 就行了
@bihui 就是用来播放没有字幕的视频的

原理就是上面说的

因为软件原理就是先整体分段, 然后每段语音识别出原视字幕, 然后发送到翻译引擎翻译

whisper 的话看个人机器, 只要又不是太差的显卡(3060 以上) , 肯定是可以实时看的

mac 的 M 系列芯片也没任何问题, 完全可以实时看

即时没显卡, 我提供了缓冲参数, 把缓冲时间放大点也能看
早点换指纹锁就得了
cursor 都变多少次了

这行业现在不稳定的

用一天是一天, 不要充太久
@followad

@VDarker

两位已发
@justlikemaki 这个我知道

其实我本来已经开发好了 potplayer 插件, 打算集成这个播放器

不过后来还是取消了这种做法, 毕竟这个播放器并没开源, 没法控制一些细节, 再加上这种方式操作很麻烦

所以后来还是决定自己开发专用播放器
分享个使用技巧

有个参数是分段长度

因为软件原理就是先整体分段, 然后每段语音识别出原视字幕, 然后发送到翻译引擎翻译

所以每次翻译的是一段识别的所有字幕

考虑到大模型 API 翻译往往调用比较慢

所以适当增大这个分段时间, 让每次调用大模型 API 多翻译一些

可以减少大模型 API 调用次数, 提高流畅性, 还可以减少 token 使用数

所以我建议用大模型翻译器的可将分段时间调整为 20 秒

如果使用机器翻译器, 谷歌微软(默认)这种可以不用调使用默认 10 秒, 这种翻译器反正速度很快, 正常
1 秒就完成
@skating422 已发送, 欢迎提意见 bug
@spaceman 这是常事了

很多站都是到最后比如要下载, 要导出才弹出要钱注册等
@xf1121 已发


@VDarker 发下邮箱, 可用 base64 编码
@Romic 已发
@Romic 需要邮箱生成注册码的

发下邮箱, 可用 base64 编码下
都是同一个人开发的包吗
112 天前
回复了 Orangeee 创建的主题 Node.js Node.js 官网更新了
都是 nvm 安装, 从没在官网下载过
@xayoung 已发, 欢迎提意见, bug
112 天前
回复了 3xSiGMA 创建的主题 Google Google Ai Studio 和 Gmini 两者有什么区别呢?
gemini 对标 chatgpt.com 阿, 打开就聊天, 界面简单

aistudio 就是 openai 后面那个实验各种模型的地方
1 ... 9  10  11  12  13  14  15  16  17  18 ... 111  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   797 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 95ms · UTC 20:57 · PVG 04:57 · LAX 12:57 · JFK 15:57
♥ Do have faith in what you're doing.