1
raycool 2 小时 40 分钟前 理论上是
只是微调的效果不可控,并且算力的需求比 RAG 大太多了。 |
2
HHHans 58 分钟前
gpt3.5 刚出来的时候微调还很火热,现在已经没人提了。。
|
3
owt5008137 13 分钟前
正常模型本就是分初始预训练和继续预训练的,你说的二次训练怕不就是继续预训练。然后后面才是微调和对齐训练。
|