首页 > 热闻 >

微软的小语言模型在标准化数学测试中优于较大的模型

发布时间:2024-03-11 10:33:48来源:

微软的一个人工智能研究人员小组报告称,该公司的 Orca-Math 小语言模型在标准化数学测试中优于其他较大的模型。该小组在arXiv预印本服务器上发表了一篇论文,描述了他们在小学数学 8K (GSM8K) 基准上对 Orca-Math 的测试,以及与知名法学硕士相比的表现。

许多受欢迎的法学硕士(例如 ChatGPT)以其令人印象深刻的会话能力而闻名,但鲜为人知的是,他们中的大多数还可以解决数学应用题。AI 研究人员通过将他们与 GSM8K 进行比较来测试他们执行此类任务的能力,GSM8K 是一个包含 8,500 个小学数学应用题的数据集,需要多步推理才能解决,并附有正确答案。

在这项新研究中,微软的研究团队测试了 Orca-Math,这是微软另一个团队开发的人工智能应用程序,专门用于解决数学应用题,并将结果与​​更大的人工智能模型进行了比较。

微软在其研究博客文章中指出,ChatGPT 和 Orca-Math 等流行的法学硕士之间存在重大差异。前者是大语言模型,后者是小语言模型——区别在于使用的参数数量;SLM 通常使用数千或几百万,而不是法学硕士使用的数十亿或数万亿。另一个区别是,正如其名称所示,Orca-Math 是专门为解决数学问题而设计的;因此,它不能用于进行对话或回答随机问题。

(责编: BAZHONG)

版权声明:网站作为信息内容发布平台,为非经营性网站,内容为用户上传,不代表本网站立场,不承担任何经济和法律责任。文章内容如涉及侵权请联系及时删除。