爱AI工具库,国内AIGC产品探索者分享平台
注册
99%工具无需特殊网络!
当前位置:首页

iPhone 可跑 2B 小钢炮:谷歌 Gemma 2 小模型来袭,跑分超 GPT-3.5

爱AI工具库 2024-08-01

谷歌 DeepMind 的小模型,又上新了!就在刚刚,谷歌 DeepMind 发布 Gemma 2 2B。它是从 Gemma 2 27B 中蒸馏而来。虽然它的参数只有 2.6B,但在 LMSYS 竞技场上的得分,已经超越了 GPT-3.5 和 Mixtral 8x7B!在 MMLU 和 MBPP 基准测试中,它分别取得了 56.1 和 36.6 的优异成绩;比起前代模型 Gemma 1 2B,它的性能超过了 10%。小模型击败了大几个数量级的大模型,再一次印证了最近业界非常看好的小模型方向。谷歌在今天,一共公布了 Gemma 2 家族的三个新成员:Gemma 2 2B:轻量级 2B 模型,在性能和效率之间实现了最大的平衡ShieldGemma:基于 Gemma 2 构建的安全内容分类器模型,用于过滤 AI 模型的输入和输出,确保用户安全Gemma Scope:一种可解释性工具,提供对模型内部运行机制的无与伦比的洞察6 月,27B 和 9B Gemma 2 模型诞生。自发布以来,27B 模型迅速成为大模型排行榜上,排名前列的开源模型之一,甚至在实际对话中表现超过了参数数量大两倍的流行模型。Gemma 2 2B:即刻在设备上使用轻量级小模型 Gemma 2 2B,是从大模型中蒸馏而来,性能毫不逊色。在大模型竞技场 LMSYS 上,新模型取得令人印象深刻的 1130 分,与 10 倍参数的模型不相上下。GPT-3.5-Turbo-0613 得分为 1117,Mixtral-8x7b 得分为 1114。足见,Gemma 2 2B 是最好的端侧模型。有网友在 iPhone 15 Pro 上,让量化后的 Gemma 2 2B 在 MLX Swift 上运行,速度快到惊人。具体来说,它能够在各种终端设备,包括手机、笔记本,甚至是使用 Vertex AI 和 Google Kubernetes Engine(GKE)强大的云,皆能完成部署。为了让模型加速,它通过 NVIDIA TensorRT-LLM 完成了优化,在 NVIDIA NIM 平台也可使用。优化后的模型适用于各种平台部署,包括数据中心、云、本地工作站、PC 和边缘设备。它还可以支持 RTX、RTX GPU、Jetson 模块,完成边缘化 AI 部署。此外,Gemma 2 2B 无缝集成了 Keras、JAX、Hugging Face、NVIDIA NeMo、Ollama、Gemma.cpp 等,并很快将与 MediaPipe 集成,实现简化开发。当然,与 Gemma 2 一样,2B 模型也同样可以用来研究和商用。甚至,由于其参数量足够下,它可以在 Google Colab 的免费 T4 GPU 层上运行,降低了开发门槛。目前,每位开发者都可以从 Kaggle、Hugging Face、Vertex AI Model Garden 下载 Gemma 2 的模型权重,也可在 Google AI Studio 中试用其功能。仓库地址:https://huggingface.co/collections/google/gemma-2-2b-release-66a20f3796a2ff2a7c76f98fShieldGemma:最先进的安全分类器正如其名,ShieldGemma 是最先进的安全分类器,确保 AI 输出内容具有吸引力、安全、包容,检测和减少有害内容输出。ShieldGemma 的设计专门针对四个关键的有害领域:仇恨言论骚扰内容露骨内容危险内容这些开源分类器,是对谷歌现有的负责任 AI 工具包中安全分类器套件补充。该工具包括一种基于有限数据点构建针对特定策略分类器的方法,以及通过 API 提供的现成 Google Cloud 分类器。ShieldGemma 基于 Gemma 2 构建,是行业领先的安全分类器。它提供了各种模型参数规模,包括 2B、9B、27B,都经过英伟达速度优化,在各种硬件中可以高效运行。其中,2B 非常适合在线分类任务,而 9B 和 27B 版本则为对延迟要求较低的离线应用提供更高性能。Gemma Scope:通过开源稀疏自编码器揭示 AI 决策过程此次同时发布的另一大亮点,就是开源稀疏自编码器 —— Gemma Scope 了。语言模型的内部,究竟发生了什么?长久以来,这个问题一直困扰着研究人员和开发者。语言模型的内部运作方式往往是一个谜,即使对于训练它们的研究人员,也是如此。而 Gemma Scope 就仿佛一个强大的显微镜,通过稀疏自编码器(SAEs)放大模型中的特定点,从而使模型的内部工作更易于解释。有了 Gemma Scope 以后,研究人员和开发者就获得了前所未有的透明度,能够深入了解 Gemma 2 模型的决策过程。Gemma Scope 是数百个适用于 Gemma 2 9B 和 Gemma 2 2B 的免费开放稀疏自动编码器(SAE)的集合。这些 SAEs 是专门设计的神经网络,可以帮助我们解读由 Gemma 2 处理的密集、复杂信息,将其扩展成更易于分析和理解的形式。通过研究这些扩展视图,研究人员就可以获得宝贵的信息,了解 Gemma 2 如何识别模式、处理信息、做出预测。有了 Gemma Scope,AI 社区就可以更容易地构建更易理解、负责任和可靠的 AI 系统了。同时,谷歌 DeepMind 还放出了一份 20 页的技术报告。技术报告:https://storage.googleapis.com/gemma-scope/gemma-scope-report.pdf总结来说,Gemma Scope 有以下 3 个创新点 ——开源 SAEs:超过 400 个免费提供的 SAEs,覆盖 Gemma 2 2B 和 9B 的所有层互动演示:在 Neuronpedia 上无需编写代码,即可探索 SAE 功能,并分析模型行为易于使用的资源库:提供与 SAEs 和 Gemma 2 交互的代码和示例解读语言模型内部的运作机制语言模型的可解释性问题,为什么这么难?这要从 LLM 的运行原理说起。当你向 LLM 提出问题时,它会将你的文本输入转换为一系列「激活」。这些激活映射了你输入的词语之间的关系,帮助模型在不同词语之间建立联系,据此生成答案。在模型处理文本输入的过程中,模型神经网络中不同层的激活代表了多个逐步高级的概念,这些概念被称为「特征」。例如,模型的早期层可能会学习到像乔丹打篮球这样的事实,而后期层可能会识别出更复杂的概念,例如文本的真实性。▲ 用稀疏自编码器解读模型激活的示例 —— 模型是如何回忆「光之城是巴黎」这一事实的。可以看到与法语相关的概念存在,而无关的概念则不存在然而,可解释性研究人员却一直面临着一个关键问题:模型的激活,是许多不同特征的混合物。在研究的早期,研究人员希望神经网络激活中的特征能与单个神经元(即信息节点)对齐。但不幸的是,在实践中,神经元对许多无关特征都很活跃。这也就意味着,没有什么明显的方法,能判断出哪些特征是激活的一部分。而这,恰恰就是稀疏自编码器的用武之地。要知道,一个特定的激活只会是少数特征的混合,尽管语言模型可能能够检测到数百万甚至数十亿个特征(也就是说,模型是稀疏地使用特征)。例如,语言模型在回答关于爱因斯坦的问题时会想到相对论,而在写关于煎蛋卷时会想到鸡蛋,但在写煎蛋卷时,可能就不会想到相对论了。稀疏自编码器就是利用了这一事实,来发现一组潜在的特征,并将每个激活分解为少数几个特征。研究人员希望,稀疏自编码器完成这项任务的最佳方式,就是找到语言模型实际使用的基本特征。重要的是,在这个过程中,研究人员并不会告诉稀疏自编码器要寻找哪些特征。因此,他们就能发现此前未曾预料过的丰富结构。然而,因为他们无法立即知道这些被发现特征的确切含义,他们就会在稀疏自编码器认为特征「触发」的文本示例中,寻找有意义的模式。以下是一个示例,其中根据特征触发的强度,用蓝色渐变高亮显示了特征触发的 Token:用稀疏自编码器发现特征激活的示例。每个气泡代表一个 Token(单词或词片段),可变的蓝色说明了这个特征的存在强度。在这个例子中,该特征显然与成语有关Gemma Scope 有何独特之处?比起此前的稀疏自编码器,Gemma Scope 有许多独特之处。前者主要集中在研究小型模型的内部工作原理或大型模型的单层。但如果要把可解释性研究做得更深,就涉及到了解码大型模型中的分层复杂算法。这一次,谷歌 DeepMind 的研究者在 Gemma 2 2B 和 9B 的每一层和子层的输出上,都训练了稀疏自编码器。这样构建出来的 Gemma Scope,总共生成了超过 400 个稀疏自编码器,获得了超过 3000 万个特征(尽管许多特征可能重叠)。这样,研究人员就能够研究特征在整个模型中的演变方式,以及它们如何相互作用,如何组合形成更复杂的特征。此外,Gemma Scope 使用了最新的、最先进的 JumpReLU SAE 架构进行了训练。原始的稀疏自编码器架构,在检测特征存在与估计强度这两个目标之间,往往难以平衡。而 JumpReLU 架构,就能更容易地实现二者的平衡,并且显著减少误差。当然,训练如此多的稀疏自编码器,也是一项重大的工程挑战,需要大量的计算资源。在这个过程中,研究者使用了 Gemma 2 9B 训练计算量的约 15%(不包括生成蒸馏标签所需的计算),将约 20 PiB 的激活保存到了磁盘(大约相当于一百万份英文维基百科的内容),总共生成了数千亿个稀疏自编码器参数。参考资料:https://developers.googleblog.com/en/smaller-safer-more-transparent-advancing-responsible-ai-with-gemma/本文来自微信公众号:微信公众号(ID:null),作者:新智元,原标题《iPhone 可跑 2B 小钢炮!谷歌 Gemma 2 来袭,最强显微镜剖解 LLM 大脑》

来源:IT之家

相关推荐

暂无数据

评论 ( 0 )

aiaitool@163.com

打开微信扫一扫

qrcode

回顶部

×

我的收藏

请先登录登录

请先登录登录