具体可百度“文心一言”
101
cocong 2023-03-16 15:36:55 +08:00
乱七八糟的,都不知道哪里可以用,果然是百度。
|
102
Tina17 2023-03-16 15:47:47 +08:00 7
有些 geek 夸百度技术牛的,你到底明不明白为什么这些厂商挨骂?!
我就问,是不是不绑定手机号,不实名填上身份证号,就不能注册使用?! 是不是把功能分 8 档 16 类 24 项,每一个单收费,VIP VVIP SVIP SSVIP………… 是不是后台数据直接对接上面,实现“全领域控制”,实现所谓的“精准”“同步”…… 什么中文库的大小,这都是小事儿明白么?! |
103
tianlianjie 2023-03-16 15:52:58 +08:00 6
百度所有的产品都是垃圾
|
105
lookStupiToForce 2023-03-16 15:54:18 +08:00 2
说个花边,提供点额外信息
""" ...... 这座每秒可以完成 400 亿亿次浮点运算,亚洲目前最大的单体智算中心在本月完成升级,将与百度在江苏盐城等地的其他几座智算中心一起,为“文心一言”背后的算力基础设施提供支持。 ...... from: www[.]pingwest[.]com/a/278638 """ 这个 400 亿亿次浮点,我就当它是 FP32 了(单精度浮点) 而去年新出的 4090 ,其官方 FP32 算力是 83 TeraFLOPs ,民间实机测试可能还更高(来源:www[.]4gamers[.]com[.]tw/news/detail/55461/nvidia-geforce-rtx-4090-founders-edition-review ) 1 TeraFLOPs = 1000 GFLOPs = 10^6 MFLOPs = 10^9 KFLOPs = 10^12 FLOPs 所以光这一个超算中心,就用了大概 400 * 10^16 / (83 * 10^12) ≈ 4.8 万张 4090 级别算力的显卡 (如果是禁运的 A100 ,每个 312 teraFLOPS ,则只大概需要 1.1 万张) 而根据公开报道,第一版 chatgpt 也用了 1 万张英伟达 GPU 训练( www[.]fierceelectronics[.]com/sensors/chatgpt-runs-10k-nvidia-training-gpus-potential-thousands-more ) 也就是说,至少在算力比较上,是不分优劣的。 |
107
chenPiMeiHaoChi 2023-03-16 15:59:53 +08:00
先让彦宏出来讲明白魏则西怎么回事再说其他的。
|
108
mmxq 2023-03-16 16:02:16 +08:00 2
《文心一言》
文不对题, 心口不一, 一眼难尽, 言不由衷。 百度我日你亲哥,好牌打稀烂的玩意。 |
109
oamzn 2023-03-16 16:03:56 +08:00
有邀请码吗
|
111
tairan2006 2023-03-16 16:12:58 +08:00
艹 还要邀请码 再见
|
112
privater 2023-03-16 16:26:01 +08:00
A800 跑出来的模型肯定比 A100 跑出来的 GPT-4 强 8 倍吧 /s
|
113
vazo 2023-03-16 16:27:16 +08:00
开源么?
|
115
greatbody 2023-03-16 16:45:43 +08:00
输出视屏的那个就太扯了,一看就是人做的。。。
|
116
xiaoleis 2023-03-16 16:45:44 +08:00
已经很久没用百度了。
|
117
Bigglesworth 2023-03-16 16:53:15 +08:00
@greatbody #115 那倒不是,文字转视频百家号有
|
118
Mohanson 2023-03-16 16:56:05 +08:00 2
看了下发布会, 鉴定为 chatPPT
|
119
wupher 2023-03-16 17:21:50 +08:00
我觉得股价说明一切,毕竟出货平仓是要真金白银的。
至少说明市场当前不看好吧。 |
120
ikenneth 2023-03-16 17:29:07 +08:00
连实机演示都没有,就放了个视频,逗谁呢。我罗老师还敢理解万岁,yh 这么怂?
|
121
acthtml 2023-03-16 17:30:32 +08:00
我倒觉得还行,模型还行,训练的还不够,肯投入还是有机会的。
|
122
alne 2023-03-16 17:43:32 +08:00 via Android
@lookStupiToForce 分优劣的是数据,百度的数据肯定不够,质量也欠缺。
中文互联网都是 App 各自为战,靠百度找不到那么多有用的信息 |
123
xylxAdai 2023-03-16 20:54:45 +08:00 1
录屏就算了,功能还很垃圾。tnt 至少老罗还现场演示呢。这点自信都没有,建议自己偷偷玩去。
|
124
yangyaofei 2023-03-16 22:49:29 +08:00
@cs1024 #33
虽然你说的大致同意, 但是很多东西有点露怯啊, ernie 是 mask language model 和 gpt 这种根本不是一个东西, 前者是 bert 的改进版, 大小什么的也差了 100 倍以上. paddlepaddle 确实做了很多工作, 但是我们一般是用他的模型但是转成 onnx 用其他运行时跑. 其实百度那个能力, 直接拿别人开源的大模型做微调做成一个还行的东西还是有可能的. 被阴阳的本质是牌子风评太差, 除非能直接超越 gpt4 ,否则做到什么程度都是被喷. 去年年底和今年本来对这个东西很绝望的, 感觉 NLP 不存在了, 妈的被玩死了, 还没能力玩. 现在感觉还好, 方案有了很多, 感觉两三年内, 人手一个 3.5 程度的模型很有可能实现. |
125
o00o 2023-03-16 22:50:57 +08:00
|
126
WildCat 2023-03-16 23:20:03 +08:00
|
128
jackmod 2023-03-17 01:06:33 +08:00
可以不质疑百度的「技术」水平。但是给相关技术喂食的「人文」材料呢?
|
129
n18255447846 2023-03-17 01:07:17 +08:00
无论怎么说,国内 ai 还得看百度,不然指望 AT 吗
|
132
acctv2 2023-03-17 10:23:37 +08:00
@lookStupiToForce #105 其实最大的差距应该还是在数据质量上
百度能拿到的数据质量和 openai 没法比。我记得知乎上也有人提过,GPT3.5 和 4 没有大幅增加参数的原因就是觉得模型参数够了,只是训练数据严重不足。 openai 都觉得缺数据,百度这边只能说接近没数据了 |