2025 年 12 月 31 日,rwkv7 g1c 系列推理模型正式开源发布,目前已上线 g1c 13.3b / 7.2b / 2.9b 三款规格模型。

RWKV 模型命名中的 G1 / G1a / G2 等标识,对应不同版本的预训练数据集。在相同参数量下,请始终优先选用发布日期最新的模型版本,以获得最优性能表现。

得益于 G1c 系列出色的预训练质量,用户仅需少量标注数据,即可通过 State-tuning 快速适配高难度任务。

例如,社区开发者顾真牛仅使用 7000 条样本对 G1c 2.9B 进行 state-tuning,便成功构建出具备强交互能力的智能体系统:

  • 支持自动多轮 function call 链式调用 + 思维链(CoT)推理
  • 兼容多角色切换、多语种响应,并可驱动 3D 虚拟形象完成语言与动作协同输出

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第1张

图中展示的是顾真牛设计的专属对话协议与指令结构。

您可根据实际需求自由定义输入格式,借助极少量高质量数据即可完成高效微调。

模型性能评估

Uncheatable Eval 综合评测

Uncheatable Eval 基于前沿论文、实时新闻、开源代码仓库及原创小说等未见于训练数据的全新语料,以“压缩率”为核心指标(即“压缩即智能”范式),全面衡量基础语言模型的语言建模精度与跨域泛化能力。

本次 Uncheatable Eval 升级显著提升评测强度:新增大量 GitHub 项目代码片段与 arXiv 论文摘要,并延长单条测试文本长度,更贴近真实复杂场景。

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第2张

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第3张

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第4张

数据显示,RWKV 系列模型在 Uncheatable Eval 上的成绩持续稳步攀升,未出现任何性能平台期或衰减趋势。

因此,我们有能力实现每月稳定迭代并发布新一代更强基座模型

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第5张

MMLU & MMLU PRO

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第6张

GSM8K & MATH500

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第7张

HumanEval (pass@1) & MBPP (pass@1)

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第8张

分类平均得分汇总:

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第9张

完整评测细节(支持复现)详见:https://www.php.cn/link/b1152424d9fb3019d63552c1156b04be

所有评测均基于 RWKV 原始基座模型,尚未进行榜单专项优化或后训练刷分。预计 2026 年内,RWKV 将在全部主流评测榜单上实现大幅跃升,全面对标顶尖 Transformer 架构模型。

模型实战演示

以下为 FP16 精度下运行 G1c 2.9B 的典型推理效果:

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第10张

以下为在 RWKV Chat App 中采用 QNN W4A16 量化方案部署的 G1c 2.9B 实测效果。当前量化方式仍存在明显能力损失,我们计划于 2026 年上半年引入 QAT(量化感知训练)技术彻底解决该问题。

方案设计示例:

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第11张

代码理解与生成:

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第12张

数学推理能力展示:

RWKV7-G1c 系列模型 13B/7B/3B 发布,指标持续进步  第13张

模型下载渠道

获取 RWKV7 G1c 系列.pth 格式)模型文件:

  • Hugging Face:https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc
  • 魔搭(ModelScope):https://www.php.cn/link/1f1eb1eaff40d5b16011f0d5c49fbf13
  • Wisemodel:https://www.php.cn/link/03af956b4521a1ae096d3f10fb662d23

其他常用格式支持:

  • Ollama 格式下载:https://www.php.cn/link/fdfa9a38cf3d8d850a6fd47b438bfe43
  • gguf 格式下载:https://www.php.cn/link/c920b75709d49179c0ba5a02c9839a46
  • .st 格式(Ai00 兼容)下载:https://www.php.cn/link/1450d375c24bd7003ce26e65757580b9

如何使用 RWKV 模型

在线体验入口

魔搭平台在线 Demo:

  • G1c 13.3B(续写模式):https://www.php.cn/link/497aa134143557a83712fcfa7c503eb0
  • G1c 7.2B(续写模式):https://www.php.cn/link/da9cc4cc759d7b03bba5968449c61340
  • G1c 2.9B(对话模式):https://www.php.cn/link/25dcf1554f13c36b512dfe907acc77d3

Hugging Face 平台在线 Demo:

  • G1c 7.2B(续写模式):https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc0
  • G1c 2.9B(续写模式):https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc1
  • G1c 2.9B(对话模式):https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc2

本地部署指南

推荐使用目前推理效率最高的 Albatross 引擎:https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc3
及其配套并发服务框架 rwkv_lightning(完全兼容 OpenAI API 格式):https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc4

同时,RWKV 模型已原生适配 llama.cpp、Ollama 等主流推理生态工具。

鉴于 RWKV7 G1c 系列 为最新发布模型,现阶段建议优先选用 RWKV Runner 工具进行本地部署,确保结果准确性与稳定性。

详细部署教程请查阅 RWKV 官网提供的《模型推理实践手册》。

加入 RWKV 社区

诚邀各位开发者、研究者与创业者加入 RWKV 开源社区,共同推动纯 RNN 架构大模型的发展。

  • ? RWKV 中文技术文档:https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc5
  • ? RWKV 开发者论坛:https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc6
  • ? QQ 频道(实时交流):https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc7
  • ? Bilibili 教程视频:https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc8

我们全力支持基于 RWKV-7 的商业应用与学术研究。
若您的团队正围绕 RWKV 开展创业项目或科研课题,欢迎联系我们!
(方式一:关注微信公众号“RWKV元始智能”,留言您的联系方式;方式二:发送邮件至 contact@rwkvos.com)

源码地址:https://www.php.cn/link/f35841e00244e469c8bfa8a45272a6bc9