- nn.LayerNorm()慎用,原tensor中值很大/很小的情况下,会改变数量级
- .top竟然是辣鸡域名嘛,心疼我的钱
- 想要“以力破法”得到一个满意的指标还是太过困难了,不过“力法双修”的的确确是一条好走的路(相对而言)
- 大模型的进步似乎不像想象中那么飞快,GPT-5.3-codex似乎还没有5.2做的更好,有种说法是最优秀的语料已经被拿来训练了,那么后面的模型用来训练的语料的质量反而不一定比前一代的模型更好。听起来很有道理,所以还是要保持乐观,保持进步
- 还有一点是昨天就发现了的:这个博客的双语功能实际上是要写完中文之后,自己再独立地完成一篇英文,并不是之前我想象中的,写完中文它会自动翻译成英文,不过这可能也不算是缺点吧
把它当成一种特性,也许会有奇奇怪怪的玩法也说不定
20260225的杂记
编辑页面
分享到: