1 月 22 日消息,Stability AI日前发布新闻稿,公布了一款名为 Stable LM 2 1.6B 的 AI“小模型”,这是该公司今年推出的第二款模型,号称是“自家迄今以来最为强大的小语言AI模型”。
从新闻稿中得知,这款AI模型支持英语、西班牙语、德语、意大利语、法语等7种语言,拥有“体积小、性能高效”特点,并号称在“安全透明的环境下训练而成”。
Stability AI声称,这款 Stable LM 2 1.6B 模型在大多数基准测试中均优于其他参数低于20亿个的小语言模型,在此前测试中已经胜过微软的Phi-1.5 (1.3B)和Phi-2 (2.7B)、TinyLlama1.1B及Falcon 1B。
此外,Stability AI 声称这款模型硬件门槛较低,可以在低功耗设备上稳定运行,旨在让开发人员和爱好者能够快速进行实验和迭代。
不过新闻稿中同时提到,由于 Stable LM 2 1.6B是一款小模型,因此可能会出现“高幻觉率”等潜在问题,因此使用这款模型的用户必须为这款模型负责。
目前相关模型已经发布于 Hugging Face,需要 Stability AI会员资格,感兴趣的小伙伴可以点此访问模型页面。
本文链接://www.dmpip.com//www.dmpip.com/showinfo-45-3276-0.htmlStability AI 推出 Stable LM 2 1.6B 小语言模型:体积更小、性能更高效
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com