当大模型加速应用落地,运行成本就成为各厂商的现实考量。将模型做小,成为现实市场需求下的趋势。但模型的Scaling Law(规模定律)已指出,参数规模是决定模型性能的最关键因素。如何用更小的参数规模,达到比肩大模型的性能,是需要解决的难题。“以小博大”的励志故事,2023年9月发生在法国AI独角兽Mistral上。其发布的开源模型用7B的参数规模,在MMLU(多任务语言理解)、Knowledge(知识)、Reasoning(推理)、Comprehension(理解)等关键指标上均超越了Meta Llama 2的13B模型。
来源:36氪
未经允许不得转载:爱AI工具库 » 面壁智能发布2B模型:适配主流手机,推理成本仅为GPT-4的1/360 | 最前线