近期大致了解了下机器学习,想到 live text 这个功能其实就是个 ocr ,直接调用训练好的模型就行,为什么会对芯片有要求。 想听听各位大佬看法。
1
kmvvv 2022-05-22 07:27:06 +08:00 via iPhone
我不懂是不是算力不足,厨子不是白当的,4G 内存几年了,杀后台很严重
|
2
jjxtrotter 2022-05-22 07:37:23 +08:00 3
因为这个是本地识别不联网,依赖处理器本身的 NPU ,A12 在这方面比 A11 提升了不少。如果可以联网调用服务器的模型,那还要什么 A12 。
|
3
horizonl OP @jjxtrotter 不能把模型下载本地使用吗?像熊猫吃短信一样定期更新模型
|
5
noahhhh 2022-05-22 08:14:28 +08:00 via Android
能跑但是体验差呗,像显卡 10 系没光追单元也能跑,无非效率低
|
6
Lin0936 2022-05-22 09:07:12 +08:00
“苹果宁愿阉割掉不完美的功能,也不愿意给用户不好的体验”
|
7
Leonard 2022-05-22 09:30:24 +08:00 via iPhone
我用的 A12 ,现在有时识别慢的时候会卡住,A12 的 NE 性能差距有 8 倍之多,A11 怕是会卡很久,体验太差所以不支持吧。
|
8
Leonard 2022-05-22 09:31:03 +08:00 via iPhone
* A12 和 A11 的 NE 性能差距有 8 倍之多
|
9
longbye0 2022-05-22 11:16:25 +08:00
就是很简单的算力不足,同样还有很多拍照摄像的功能依赖 npu 。
这个算力不足可能是纯粹的单精度浮点算力不足,或者老架构的 npu 没有原生的半浮点或者其他指令支持。比如放在 n 卡就是 turing 之前没有半浮点加速。 另外就是没必要或者没价值花成本再训练 /压缩一个模型。 |
10
autoxbc 2022-05-22 14:39:14 +08:00
-龙虾 4 斤的有吗?
--没有,3 斤的行吗? -不用了,来碗卤面 |