当前位置:首页 > 元宇宙 > AI

StreamingLLM框架亮相:突破文本长度限制

来源: 责编: 时间:2023-10-06 19:19:54 294观看
导读10月06日消息,麻省理工学院与metaAI的研究人员最近宣布他们成功开发了一项名为StreamingLLM的创新框架,该框架被认为能够解决大型语言模型面临的内存和泛化问题,使其能够轻松处理无限长度的文本内容。这一研究的关键焦点

10月06日消息,麻省理工学院与metaAI的研究人员最近宣布他们成功开发了一项名为StreamingLLM的创新框架,该框架被认为能够解决大型语言模型面临的内存和泛化问题,使其能够轻松处理无限长度的文本内容。Acb28资讯网——每日最新资讯28at.com

Acb28资讯网——每日最新资讯28at.com

这一研究的关键焦点在于克服实现高效流式语言模型(Efficient Streaming LanguageModels,ESLM)时所面临的障碍,尤其是在长时间多轮对话等场景下可能出现的问题。Acb28资讯网——每日最新资讯28at.com

据ITBEAR科技资讯了解,研究人员指出,构建流式语言模型主要面临两大挑战。解码阶段获取标记(token)的键(Key)和值(Value)状态会耗费大量内存。其次,现有的大型语言模型很难泛化到处理超出其训练序列长度的长文本。Acb28资讯网——每日最新资讯28at.com

过去的研究尝试解决这些挑战,例如扩展注意力窗口以处理长文本或建立一个固定大小的活动窗口,只关注最近的标记状态以维护内存使用和解码速度。然而,这些策略在处理超出缓存大小的序列时表现不佳。Acb28资讯网——每日最新资讯28at.com

Acb28资讯网——每日最新资讯28at.com

StreamingLLM采用了一种名为"注意力下沉"的策略,通过观察到自回归语言模型中,某些标记会获得大量的注意力,即使它们在语义上并不重要,这些标记也会吸引模型的关注。这种策略确保了无论输入序列的长度如何,模型的注意力计算都能保持稳定。Acb28资讯网——每日最新资讯28at.com

StreamingLLM的重要贡献在于提供了一种简单而高效的解决方案,使语言模型能够处理无限长度的文本,而无需进行微调。这将有助于解决当前流式应用中语言模型面临的问题。虽然流式语言模型在未来将变得更加重要,但由于内存效率和长序列处理性能等方面的限制,相关模型的发展仍面临挑战。Acb28资讯网——每日最新资讯28at.com

据研究团队验证,StreamingLLM能够使Llama2、MPT、Falcon和Pythia等模型可靠地处理长达400万个标记的文本,从而为流式语言模型的部署提供了更多可能性。这一创新有望推动自然语言处理领域的发展,并为各种应用场景带来更强大的语言模型支持。Acb28资讯网——每日最新资讯28at.com

本文链接://www.dmpip.com//www.dmpip.com/showinfo-45-2093-0.htmlStreamingLLM框架亮相:突破文本长度限制

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 华为鸿蒙原生应用全面启动,全面布局移动生态链

下一篇: OpenAI或将收购目标公司,推进AI芯片自主研发计划

标签:
  • 热门焦点
    SQL Error: select * from ***_ecms_news13 where id in(141,153,35,,173,108,232,22,143) limit 9
Top
Baidu
map