当前位置:首页 > 科技  > 知识百科

谷歌:性能不佳的微调模型不要扔,求一下平均权重就能提升性能

来源: 责编: 时间:2023-08-07 16:30:02 156观看
导读 本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。如何最大限度地提升模型精度?最近,谷歌等机构发现:性能不好的微调模型先不要扔,求一下平均权重!就能在不增加推理

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。qgS28资讯网——每日最新资讯28at.com

如何最大限度地提升模型精度?qgS28资讯网——每日最新资讯28at.com

最近,谷歌等机构发现:qgS28资讯网——每日最新资讯28at.com

性能不好的微调模型先不要扔,求一下平均权重!qgS28资讯网——每日最新资讯28at.com

就能在不增加推理时间以及内存开销的情况下,提高模型的准确性和鲁棒性。qgS28资讯网——每日最新资讯28at.com

比如,研究人员就使用该方法创造了ImageNet1K的新纪录:90.94%。qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

将它扩展到多个图像分类以及自然语言处理任务中,也能提高模型的分布外性能,并改善新下游任务的零样本性能。qgS28资讯网——每日最新资讯28at.com

而这个方法还有一个有趣的名字,叫Module soup——qgS28资讯网——每日最新资讯28at.com

是不是让人一下子就让人联想到了斐波那契汤的笑话?(昨天的汤+前天的汤=今天的新汤)qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

△ 知乎网友@hzwer,已授权qgS28资讯网——每日最新资讯28at.com

一共三种配方qgS28资讯网——每日最新资讯28at.com

回想一下在此之前,大家是如何给模型涨点的呢?qgS28资讯网——每日最新资讯28at.com

是不是先用各种超参数训练出多个微调模型,然后再挑出验证集上表现最好的那一个留下,其余丢掉?qgS28资讯网——每日最新资讯28at.com

由于神经网络是非线性的,在不同的loss basin中可能有许多解,因此Module soup这一采用保留所有微调模型的权重,对其进行平均的方法就可以提高性能,还是让人有点惊讶的。qgS28资讯网——每日最新资讯28at.com

不过,最近就已有研究发现,从相同的初始化配置中中独立优化的微调模型,位于相同的误差范围内 (lie in the same basin of the error landscape)。qgS28资讯网——每日最新资讯28at.com

之前也有研究证明,沿单个训练轨迹进行权重平均,可以提高随机初始化训练模型的性能。qgS28资讯网——每日最新资讯28at.com

作者正是从这些结论中受到启发。qgS28资讯网——每日最新资讯28at.com

Module soup一共有三种“配方”(实现):统一汤(uniform soup)、贪婪汤(greedy soup)和学习汤(learned soup)。qgS28资讯网——每日最新资讯28at.com

其中greedy soup是最主要采用的实现,因为它的性能比直接均匀地平均所有权重更高。qgS28资讯网——每日最新资讯28at.com

具体来说,Greedy soup通过顺序添加每个模型作为“汤”中的潜在成分构建而成,并且只有在保持验证集上的性能有所提高时才将相应模型保留在“汤”中。qgS28资讯网——每日最新资讯28at.com

排序按验证集精度的降序排列。qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

性能超越单个最佳微调模型qgS28资讯网——每日最新资讯28at.com

作者进行了全面的微调实验来确定Module soup的有效性。qgS28资讯网——每日最新资讯28at.com

首先是微调CLIP和ALIGN,这两个模型在图像-文本对上进行了对比损失预训练。qgS28资讯网——每日最新资讯28at.com

结果经过module soup操作后,两者在分布内和自然分布转移(distribution shifts)测试集上的表现都比最佳的单个微调模型性能更佳。qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

△ 左为CLIP,右为ALIGNqgS28资讯网——每日最新资讯28at.com

然后是在JFT数据集上预训练的ViT-G模型。qgS28资讯网——每日最新资讯28at.com

也就是它在ImageNet1K数据集实现了90.94%的精度,打破了此前CoAtNet保持的90.88%,同时在推理阶段还减少了25%的FLOPs。qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

在图像分类任务以外,作者在NLP领域也对module soup进行了验证。qgS28资讯网——每日最新资讯28at.com

下表是BERT和T5模型在GLUE benchmark的四个文本分类任务上的结果:qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

可以发现,虽然改进不如图像分类中的效果明显,但在多数任务下,greedy soup都可以相较最好的单个模型提高性能。qgS28资讯网——每日最新资讯28at.com

当然,作者也指出,module soup在适用性等方面存在局限,比如现在测试的都是在大型异构数据集上预先训练的模型,在这些模型之外,效果并不是非常明显。qgS28资讯网——每日最新资讯28at.com

最后,知乎网友@宫酱手艺人表示,其实这样的模型参数平均是一个经典trick,transformer原始论文就用了。qgS28资讯网——每日最新资讯28at.com

qgS28资讯网——每日最新资讯28at.com

你发现了吗?qgS28资讯网——每日最新资讯28at.com

论文地址:qgS28资讯网——每日最新资讯28at.com
https://arxiv.org/abs/2203.0548qgS28资讯网——每日最新资讯28at.com

 qgS28资讯网——每日最新资讯28at.com

本文链接://www.dmpip.com//www.dmpip.com/showinfo-119-2219-0.html谷歌:性能不佳的微调模型不要扔,求一下平均权重就能提升性能

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 云安全日报220317:红帽OpenShift云应用平台发现执行任意代码漏洞,需要尽快升级

下一篇: 终于不瞎编了!AI学会“谷歌一下”,Q&A正确率达90%

标签:
  • 热门焦点
Top
Baidu
map