最近在学 cuda, 学到分支分化这部分, 在写归约计算的实战. 期间用到的 claude, gpt, gemini 全部被我骂了个狗血淋头.
Cuda 编程理解起来有点抽象, 根据教程理解的内容写的代码有点没底, 就会问问 AI 写得怎么样.
问它们我的代码有没有问题, 无论如何都能说哪里哪里有问题, 甚至强行幻觉出我没写的代码, 说那里有问题. 被我臭骂一顿后又不敢质疑了, 啥都说写得好没问题.
被 AI 误导到了奇怪的方向, 浪费了超多时间. 一直说代码有严重安全问题, 让我修改边界检查. 实际上出于教学目的, 代码是有假设的, 比如数据大小是 2 的幂. 我发给 AI 代码时, AI 会说数据大小为 600 时你这个边界计算就会出错, 边界检查改成这样就对了. 实际上如果大小为 600 的话不是边界检查, 而是整个代码都无法进行计算, 根本不是改改边界计算就能解决的问题.
冷静下来, 想下每次稍微涉及到有点研究性质的问题时 (比如需要除写代码以外的知识) AI 都会各种出错. 之前写优化矩阵乘法代码时, 写模型输出张量解析代码时, 以及涉及到一些硬件时, 最后都是放弃 AI, 自己纸上演算. 我甚至觉得 AI 这一方面到目前为止没有多少改善, 且未来很长一段时间都不会改善到能用的水平.
1
usn PRO 没人觉得 AI 越来越难用了么
|
3
wojiugaiming 8 天前 via Android
@usn 是越来越难用了
|
4
wnpllrzodiac 8 天前 via Android
训练的量不够,可能好的模型需要冲会员或者根本不公开
|
5
Folder OP @wnpllrzodiac 我感觉问题不在于训练量, 而是 AI 很难在考虑很多条件的情况下良好地运作, 也很难活用自己会的知识. 或者说背了很多知识, 但是用不好. 更像是"机制"的问题而不是"学不好"的问题.
|
6
wnpllrzodiac 7 天前 via Android
@Folder llm 的底层逻辑是基于概率的推断下一个,没有理解真实世界运作内核的归纳逻辑。所以现在实现方式非常笨的训练各种可能遇到的情况。而不是总结一套方法论。以应对新的未曾遇到的情况。这一点被有些 ai 探索者诟病
|
7
Folder OP @wnpllrzodiac 所以最后说发展几年没有改善,未来也不会改善。底层理论不变就很难看到改善的希望。
|
8
AlexHsu 7 天前
ai 还是写 python js 吧 其他语言训练语料未必够 写 java 都没那么理想 更别说 c++了
这玩意模型参数不管弄到多大多完美 没有足够数据也白费吧 |