当前位置:首页 > 科技  > 数码

AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍

来源: 责编: 时间:2024-10-01 17:06:37 14观看
导读 快科技10月1日消息,AMD发布了自己的首个小语言模型(SLM),名为“AMD-135M”。相比于越来越庞大的大语言模型(LLM),它体积小巧,更加灵活,更有针对性,非常适合私密性、专业性很强的企业部署。AMD-135小模

快科技10月1日消息,AMD发布了自己的首个小语言模型(SLM),名为“AMD-135M”。Upg28资讯网——每日最新资讯28at.com

相比于越来越庞大的大语言模型(LLM),它体积小巧,更加灵活,更有针对性,非常适合私密性、专业性很强的企业部署。Upg28资讯网——每日最新资讯28at.com

AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍Upg28资讯网——每日最新资讯28at.com

AMD-135小模型隶属于Llama家族,有两个版本:Upg28资讯网——每日最新资讯28at.com

一是基础型“AMD-Llama-135M”,拥有多达6700亿个token,在八块Instinct MIM250 64GB加速器上训练了六天。Upg28资讯网——每日最新资讯28at.com

二是延伸型“AMD-Llama-135M-code”,额外增加了专门针对编程的200亿个token,同样硬件训练了四天。Upg28资讯网——每日最新资讯28at.com

AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍创建与部署流程Upg28资讯网——每日最新资讯28at.com

它使用了一种名为“推测解码”(speculative decoding)的方法,通过较小的草稿模型,在单次前向传播中生成多个候选token,然后发送给更大的、更精确的目标模型,进行验证或纠正。Upg28资讯网——每日最新资讯28at.com

这种方法可以同时生成多个token,不会影响性能,还可以降低内存占用,但因为数据交易更多,功耗也会增加。Upg28资讯网——每日最新资讯28at.com

AMD还使用AMD-Llama-135M-code作为CodeLlama-7b的草案模型,测试了推测解码使用与否的性能。Upg28资讯网——每日最新资讯28at.com

比如在MI250加速器上,性能可提升多约2.8倍,锐龙AI CPU上可提升多约3.88倍,锐龙AI NPU上可提升多约2.98倍。Upg28资讯网——每日最新资讯28at.com

AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍推测解码Upg28资讯网——每日最新资讯28at.com

AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍Upg28资讯网——每日最新资讯28at.com

AMD-135M小模型的训练代码、数据集等资源都已经开源,遵循Apache 2.0。Upg28资讯网——每日最新资讯28at.com

按照AMD的说法,它的性能与其他开源小模型基本相当或略有领先,比如Hellaswag、SciQ、ARC-Easy等任务超过Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任务则基本类似GTP2-124MN、OPT-125M。Upg28资讯网——每日最新资讯28at.com

AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍Upg28资讯网——每日最新资讯28at.com

本文链接://www.dmpip.com//www.dmpip.com/showinfo-24-117135-0.htmlAMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 锐龙7 9800X3D缓存不变还是104MB:频率大涨!

下一篇: AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍

标签:
  • 热门焦点
Top
Baidu
map