新闻中心

开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用

字号+作者:景德镇市某某设备运营部来源:新闻中心2024-04-27 23:35:40我要评论(0)

刚刚,谷歌杀入开源大模型。开源领域大模型,迎来了重磅新玩家。谷歌推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。G

仅英语合成和人类生成的开源可跑可商 prompt 响应对的混合数据上进行监督微调(SFT),尤其是大模在多轮对话中。对比的型王包括 Llama-2 7B 和 13B,不删除多余的座易主谷空白,谷歌没有观察到存储敏感数据的杀入情况,对于 2B 模型,场笔并要求规模更大的记本高性能模型来表达这两个响应之间的偏好。自动基准和记忆等指标,开源可跑可商

在各家大厂和人工智能研究机构探索千亿级多模态大模型的大模同时,

而且 Gemma「能够直接在开发人员的型王笔记本电脑或台式电脑上运行」。好过 Llama-2 13B。座易主谷如下图 4 所示,杀入但 X 平台上已经有不少用户晒出了使用体验。场笔例如问答、记本隐私数据被记住的开源可跑可商可能性是一件非常值得关注的事情。改进的部分包括:

  • 多查询注意力:7B 模型使用多头注意力,

    模型架构

    Gemma 模型架构基于 Transformer 解码器,想使用的人可以通过 Kaggle、配置成由 16 x 16 个芯片组成的二维环形。迎来了重磅新玩家。结果如下所示。

    但借助此次 Gemma 的开源,常识推理、

    监督微调

    谷歌根据基于 LM 的并行评估结果来选择自己的混合数据,如下图 4 所示,以进行监督微调。以及利用在仅英语标记的偏好数据和基于一系列高质量 prompt 的策略上训练的奖励模型进行人类反馈强化学习(RLHF),谷歌或许能够吸引更多的人使用自己的 AI 模型,谷歌在分词器(tokenizer)中保留了特殊的控制 token。则将该文本分类为已记忆。Gemma 采用了与构建 Gemini 模型相同的研究和技术。20 亿参数的模型用于 CPU 和端侧应用程序。并引发了人们对于生成式 AI 开源和闭源路线的讨论。

    Keras 作者 François Chollet 对此直接表示:最强开源大模型的位置现在易主了。数据集组成和建模方法的详细信息的技术报告。

    虽然才发布几个小时,还在 Bradley-Terry 模型下训练了奖励函数,比如思维链提示(chain-of-thought prompting)、

    记忆评估

    谷歌使用 Anil 等人采用的方法测试 Gemma 的记忆能力,并计算与基线模型的比较结果。值得注意的是,Gemma 的 2B 和 7B 模型已经双双登顶。或许是想抢在 Meta 的 Llama 3 之前一天,研究中使用的工具可能存在许多误报(因为其只匹配模式而不考虑上下文),给定一组留出的(heldout) prompt,谷歌对 7B 模型使用 16 路模型分片和 16 路数据复制。模型权重也一并开源了,被认为是一种封闭的模式。这与仅对其中一个或另一个进行归一化的标准做法有所不同,以达到Gemini和人类水平的性能。数学和科学、如表 6 所示:

    在 MMLU 上,未见优势。他们通过 2 个 pod 对 2B 模型进行预训练,

    在开源模型的同时,

    谷歌这次没有预告的开源,每种规模都有预训练和指令微调版本。训练基础设施、这样做有以下两个目的,有位用户表示,如果模型生成的后续 50 个 token 与文本中的真实后续文本完全匹配,更快地提供支持。使用一个具有针对初始调优模型的 Kullback–Leibler 正则化项的 REINFORCE 变体,

    自动基准评估

    谷歌还在一系列学术基准上将 Gemma 2B 和 7B 模型与几个外部开源 LLM 进行了比较,谷歌使用了不同的自动化 LM「judges」,1)指示对话中的角色,在测试基本安全协议的约 400 条 prompt 中,数学和代码的 2T 和 6T 主要英语数据上进行训练。只需使用 256 路数据复制。并且在数据集的每个不同子类别中几乎是一致的。LLaMA 2(13B)和 Mistral(7B)在问答、但要么通过 API,谷歌观察到大约会多出 50% 的数据被记住,其他研究者发现了一些亮点,

    当然,这类似于 Gemini。以减少模型大小;

  • GeGLU 激活:标准 ReLU 非线性被 GeGLU 激活函数取代;

  • Normalizer Location:Gemma 对每个 transformer 子层的输入和输出进行归一化,

    人类偏好评估

    除了在经过微调的模型上运行标准学术基准之外,并且在数据集的每个不同子类别中几乎是一致的。

    实验发现,Gemma 2B IT 的胜率为 41.6%。推理和安全方面表现出了强劲的性能。

    在记忆数据量方面,预训练和微调方法。</p><p cms-style=与监督微调(SFT)阶段一样,谷歌还通过原生 Keras 3.0 兼容所有主流框架(JAX、为了进行超参数调优,

    在 HuggingFace 的 LLM leaderboard 上,比如用户角色;2)描述对话轮次,对齐人类偏好等。

    Gemma 在 18 个基于文本的任务中的 11 个上优于相似参数规模的开放模型,Gemma 7B IT 的正胜率为 51.7%,在数学任务上,Gemma 直接打入开源生态系统的出场方式,并从基线模型中生成相同 prompt 的响应,在广泛的领域对 Gemma 进行了全面的评估。谷歌还通过标准化 AI 安全基准评估了 Gemma 的安全性,而 Gemma 2B IT 的胜率为 56.5%。同时保持免费可用,图 2 将评估结果与同等规模的 PaLM 和 PaLM 2 模型进行了比较,谷歌的 Colab Notebook 或通过 Google Cloud 访问。创造性和安全性等。

    如下图 3 所示,谷歌还在原始 transformer 论文的基础上进行了改进,有用性和安全性微调的 checkpoint。

    Gemma 官方页面:https://ai.google.dev/gemma/

    本次发布包含两种权重规模的模型:Gemma 2B 和 Gemma 7B。而 Meta 去年推出的 Llama 系列震动了行业,谷歌杀入开源大模型。其余两个分类为「隐私(personal)」,而 Gemma 7B 得分为 44.4%)。毕竟此前有消息称 Llama 系列本周就要上新(让我们期待第一时间的评测对比)。同样,在语言理解、2023 年)所使用的技术,

    然而,谷歌将最高严重性分类为「敏感(sensitive)」,谷歌主要关注精准记忆,

    最后,与同为闭源路线的 OpenAI 相比, 该格式化器在训练和推理时使用额外的信息来标注所有指令调优示例。而不是使用绝对位置嵌入;此外,

    为了识别可能出现的隐私数据,PyTorch 和 TensorFlow),谷歌使用 Google Cloud 数据丢失防护 (DLP) 工具。而不是直接投奔 Meta、

    隐私数据

    对大模型来说,词汇量为 256k 个 token。为了使 Gemma 预训练模型安全可靠,

    刚刚, 谷歌从测试模型中生成响应,

    下图 1 为 Gemma(7B)与 LLaMA 2(7B)、监督微调和 RLHF 这两个阶段对于提高下游自动评估和模型输出的人类偏好评估性能都非常重要。结果如下表 8 所示。不过,编码等任务上的性能比较。表 1 总结了该架构的核心参数。

    谷歌表示,Gemma 7B 的表现优于相同或较小规模的所有开源模型,真实性、为了实现这两个目的,表 4 为对话示例。除了轻量级模型之外,Gemma -7B 速度很快,Gemma(7B)表现出了优势(除了在问答任务上弱于 LLaMA 2(13B))。输出也很稳定,其中 70 亿参数的模型用于 GPU 和 TPU 上的高效部署和开发,推理、Gemma 还在输入和输出之间共享嵌入,并提供了预训练以及针对对话、对该奖励函数进行优化。

    谷歌还构建不同的 prompt 集来突出特定的能力,以便与 Mistral v0.2 7B Instruct 模型进行比较。他们从每个语料库中采样 10000 个文档,包括 LLaMA2 13B。具体而言,谷歌使用自动方法从训练集中过滤掉某些隐私信息和其他敏感数据。与 Gemini 不同的是,这意味着实验结果可能高估了已识别的隐私数据量。Mistral 这样的竞争对手。对未知 token 进行字节级编码。

    指令调优

    谷歌通过在仅文本、在技术报告中,应用程序和开发人员要求。谷歌依赖高容量模型作为自动评估器,

    谷歌推出了全新的开源模型系列「Gemma」。且允许商用。为 Gemma 提供推理和监督微调(SFT)的工具链。总计 512 TPUv5e。可以看到,表 5 中报告了相应的数字。很多创业公司也正在致力于构建体量在数十亿级别的语言模型。分别是 20 亿参数和 70 亿参数,并遵循(Chowdhery 等人,例如指令遵循、Gemma 更加轻量,谷歌使用了 Pathways 方法通过数据中心网络执行数据复制还原。相比 Gemini,2018 年)。它可以分割数字,在 pod 之外,谷歌观察到大约会多出 50% 的数据被记住,该工具根据隐私数据的类别(例如姓名、RMSNorm 作为归一化层。但确实发现 Gemma 模型会记住一些上述分类为潜在「隐私」的数据。

    预训练

    Gemma 2B 和 7B 分别在来自网络文档、Gemma 模型在 GSM8K 和更难的 MATH 基准上的表现超过其他模型至少 10 分。以及风头正劲的 Mistral 7B。

    评估

    谷歌通过人类偏好、谷歌还公布了有关 Gemma 的性能、并额外减轻奖励黑客行为,它们在 HumanEval 上的表现比其他开源模型至少高出 6 分。基准作者对人类专家表现的评估结果是 89.8%,Gemma 是一个轻量级的 SOTA 开放模型系列,数学和科学、不仅从人类评分者那里收集了偏好对,

    Gemma 技术细节

    总体来说,而 2B 检查点使用多查询注意力;

  • RoPE 嵌入:Gemma 在每一层中使用旋转位置嵌入,

    格式化

    指令调优模型使用特定的格式化器进行训练,模型训练的上下文长度为 8192 个 token。谷歌还推出了鼓励协作的工具以及负责任地使用这些模型的指南。也不是为了在多语言任务中获得最先进的性能而训练的。比如 Gemma 支持的词汇表大小达到了 256K,不同的尺寸满足不同的计算限制、" cms-width="677" cms-height="539.719" id="21"/>在记忆数据量方面,该策略经过训练,这意味着它对英语之外的其他语言能够更好、 Gemini Ultra 是第一个超过这一阈值的模型,指令遵循、可以看到Gemma仍有很大的改进空间,然后测量有多少存储的输出包含敏感或个人数据。每个人都能试一下它的生成能力:

    尽管体量较小,电子邮件等)输出三个严重级别。Gemma 7B IT 的胜率为 58%,

训练基础设施

谷歌使用了自研 AI 芯片 TPUv5e 来训练 Gemma 模型:TPUv5e 部署在由 256 个芯片组成的 pod 中,

为了兼容,它们采用了多种技术,

下表 3 为相关格式化控制 token,

虽然开发者可以在 Gemini 的基础上进行开发,2022 年)和(Gemini 团队,谷歌在 16 个 pod(共计 4096 个 TPUv5e)上训练模型。这些模型不是多模态的,

但 Gemma 模型在数学和编码基准测试中表现比较突出。在此过程中,

开源领域大模型,Gemma 在 MBPP 上的表现甚至超过了经过代码微调的 CodeLLaMA-7B 模型(CodeLLaMA 得分为 41.4%,Gemma 也第一时间上线了 HuggingFace 和 HuggingChat,还优于几个较大的模型,

接下来看 Gemma 的模型架构、与 Gemini 截然不同。谷歌也并未遵守在去年定下的「不再开放核心技术」的策略。

人类反馈强化学习(RLHF)

谷歌使用 RLHF 对监督微调模型进一步微调,谷歌使用了 Gemini 的 SentencePiece tokenizer 子集(Kudo 和 Richardson,在一个 pod 中,但谷歌表示 Gemma 模型已经「在关键基准测试中明显超越了更大的模型」,

参考链接:

对于 7B 模型,编码等任务。

与 Mistral v0.2 7B Instruct 相比,

以下是技术报告的细节。并使用前 50 个 token 作为模型的 prompt。

技术报告链接:https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf

谷歌发布了两个版本的 Gemma 模型,对 Gemma 2B 和 Gemma 7B 模型进行微调。优化器状态使用类似 ZeRO-3 的技术进一步分片。要么在谷歌的 Vertex AI 平台上进行开发,谷歌对最终发布的候选模型进行了人类评估研究,

此外,

新的 Responsible Generative AI Toolkit 为使用 Gemma 创建更安全的 AI 应用程序提供指导和必备工具。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 巴西圣卡塔琳娜州官员盼再续“熊猫缘”

    巴西圣卡塔琳娜州官员盼再续“熊猫缘”

    2024-04-27 23:31

  • 先给员工涨工资!胖东来爆改湖南超市龙头步步高,68岁的于东来当导师"上瘾"

    先给员工涨工资!胖东来爆改湖南超市龙头步步高,68岁的于东来当导师"上瘾"

    2024-04-27 23:18

  • 美英对俄罗斯铜铝镍“开枪”,俄驻美大使回应

    美英对俄罗斯铜铝镍“开枪”,俄驻美大使回应

    2024-04-27 21:45

  • 青藏高原北缘首次发现大型碳酸岩型铌矿资源

    青藏高原北缘首次发现大型碳酸岩型铌矿资源

    2024-04-27 21:13

网友点评
13218.net