# 热门搜索 #
搜索
搜索: Softmax
小模型性能饱和、表现不佳,根源是因为Softmax?

语言建模领域的最新进展在于在极大规模的网络文本语料库上预训练高参数化的神经网络。在实践中,使用这样的模型进行训练和推断可能会成本高昂,这促使人们使用较小的替代模型。然而,已经观察到较小的模型可能会出现饱和现象,表现为在训练的某个高级阶段性能下降并趋于稳定。

来自主题: AI技术研报
9484 点击    2024-05-03 20:58