开源盘古 Embedded-7B-V1.1

中文 | English

1. 简介

openPangu-Embedded-7B-V1.1 是基于昇腾 NPU 从零训练的高效大语言模型,参数量为 7B(不含词表Embedding)。openPangu-Embedded-7B-V1.1 训练了约 25T tokens,具备快慢思考融合与自适应切换能力。

2. 模型架构

openPangu-Embedded-7B-V1.1
Architecture Dense
Parameters (Non-Embedding) 7B
Number of Layers 34
Hidden Dimension 12800
Attention Mechanism GQA
Number of Attention Heads 32 for Q,8 for KV
Vocabulary Size 153k
Context Length (Natively) 32k
Pretraining Tokens 25T

3. 测评结果

测评集 测评指标 慢思考v1.0 慢思考v1.1 自适应v1.1
通用能力
MMLU-Pro Exact Match 76.32 75.54 72.81
CMMLU Acc 75.59 72.94 72.18
ArenaHard_v0.1 w/o style control 85.80 88.00 84.60
C-Eval Acc 83.05 84.92 83.33
GPQA-Diamond Avg@4 70.54 73.23 73.74
数学能力
MATH-500 Avg@1 95.00 97.00 96.00
AIME24 Avg@16 71.57 79.38 79.02
AIME25 Avg@16 58.24 70.00 70.21
代码能力
LiveCodeBench Avg@2 (08/24~01/25) 54.04 58.27 58.27
MBPP+ Avg@2 76.06 76.46 75.66

注: 评测过程中system prompt 为空,且不添加任何额外的思维链(CoT)提示。评测采用 128k 的序列长度进行。

除精度外,我们还在部分数据集上统计了模型的输出长度,通过数据质量驱动的学习策略,自适应快慢思考可以在基本不影响精度地前提下,有效地在简单任务上自动切换部分输出为快思考,大幅缩短平均输出思维链长度(Length);在难任务通过保持慢思考能力,精度持平纯慢思考模型。

测评集 测评指标 慢思考v1.1 自适应v1.1
通用能力
CMMLU Acc 72.94 72.18
Length 2574 1338
C-Eval Acc 84.92 83.33
Length 2484 1723
数学能力
AIME24 Avg@16 79.38 79.02
Length 48229 49656
代码能力
LiveCodeBench Avg@2 (08/24~01/25) 58.27 58.27
Length 58140 59307

4. 部署和使用

4.1 环境准备

硬件规格

Atlas 800T A2 (64GB),驱动与固件安装包获取请参照 [Atlas 800T A2]。

软件环境
  • 操作系统:Linux(推荐 openEuler>=24.03)
  • CANN==8.1.RC1,安装准备及流程请参照 [CANN Install]
  • python==3.10
  • torch==2.1.0
  • torch-npu==2.1.0.post12
  • transformers==4.53.2

以上软件配套经过验证,理论可以支持更高版本,如有疑问,可以提交 issue。

4.2 权重完整性校验

请参考以下方法对下载内容进行完整性校验,hash 值存储在 checklist.chk 文件中。

#!/usr/bin/env bash
ARCH=$(uname -m)
MODEL_PATH="${TARGET_FOLDER}/${MODEL_FOLDER_PATH}"
cd "$MODEL_PATH" || exit 1
if [ "$ARCH" = "arm64" ]; then
    sha256sum checklist.chk
else
    sha256sum -c checklist.chk
fi

4.3 推理样例

下述内容提供 openPangu-Embedded-7B-V1.1 在 transformers 框架上进行推理的一个简单示例:

运行前请修改 generate.py,添加模型路径。

cd inference
python generate.py

openPangu-Embedded-7B-V1.1 模型默认为慢思考模式,可以通过以下手段切换至快慢自适应切换/快思考模式:

  • 在代码实例generate.py中,auto_thinking_promptno_thinking_prompt变量的定义展示了切换至快慢自适应或快思考模式的具体实现:通过在用户输入末尾添加/auto_think/no_think标记,可将当前轮次切换至快慢自适应切换/快思考模式。

4.4 使用推理框架

vllm_ascend:参考[vllm_ascend_for_openpangu_embedded_7b.zh]

5. 模型许可证

除文件中对开源许可证另有约定外,openPangu-Embedded-7B-V1.1 模型根据 OPENPANGU MODEL LICENSE AGREEMENT VERSION 1.0 授权,旨在允许使用并促进人工智能技术的进一步发展。有关详细信息,请参阅模型存储库根目录中的 LICENSE 文件。

6. 免责声明

由于 openPangu-Embedded-7B-V1.1(“模型”)所依赖的技术固有的技术限制,以及人工智能生成的内容是由盘古自动生成的,华为无法对以下事项做出任何保证:

  • 尽管该模型的输出由 AI 算法生成,但不能排除某些信息可能存在缺陷、不合理或引起不适的可能性,生成的内容不代表华为的态度或立场;
  • 无法保证该模型 100% 准确、可靠、功能齐全、及时、安全、无错误、不间断、持续稳定或无任何故障;
  • 该模型的输出内容不构成任何建议或决策,也不保证生成的内容的真实性、完整性、准确性、及时性、合法性、功能性或实用性。生成的内容不能替代医疗、法律等领域的专业人士回答您的问题。生成的内容仅供参考,不代表华为的任何态度、立场或观点。您需要根据实际情况做出独立判断,华为不承担任何责任。

7. 反馈

如果有任何意见和建议,请提交issue或联系 [email protected]

Downloads last month
2,764
Safetensors
Model size
8B params
Tensor type
BF16
·
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for FreedomIntelligence/openPangu-Embedded-7B-V1.1

Quantizations
4 models

Collection including FreedomIntelligence/openPangu-Embedded-7B-V1.1