Jinze BaiShuai BaiYunfei ChuZeyu CuiKai DangXiaodong DengYang FanWenbin GeYu HanFei HuangBinyuan HuiLuo JiMei LiJunyang LinRunji LinDayiheng LiuGao LiuChengqiang LuKeming LuJianxin MaRui MenXingzhang RenXuancheng RenChuanqi TanSinan TanJianhong TuPeng WangShijie WangWei WangShengguang WuBenfeng XuJin XuAn YangHao YangJian YangShusheng YangYang YaoBowen YuHongyi YuanZheng YuanJianwei ZhangXingxuan ZhangYichang ZhangZhenru ZhangChang ZhouJingren ZhouXiaohuan ZhouTianhang Zhu

摘要
大规模语言模型(LLMs)已彻底革新了人工智能领域,使此前被认为仅限人类完成的自然语言处理任务成为可能。在本工作中,我们推出了“通义千问”(Qwen),这是我们的大规模语言模型系列的首个版本。Qwen是一个涵盖多种参数规模的综合性语言模型系列,包括基础预训练语言模型Qwen,以及通过人类对齐技术进行微调的对话模型Qwen-Chat。基础语言模型在众多下游任务中持续展现出卓越的性能,而对话模型,尤其是采用人类反馈强化学习(Reinforcement Learning from Human Feedback, RLHF)训练的模型,表现尤为出色,具备极强的竞争力。这些对话模型在工具调用与任务规划方面展现出先进的能力,适用于构建智能代理(agent)应用,在复杂任务(如使用代码解释器)中表现优异,甚至可与参数量更大的模型相媲美。此外,我们还开发了面向特定领域的专用模型:Code-Qwen与Code-Qwen-Chat(代码专项模型),以及Math-Qwen-Chat(数学专项模型),这些模型均基于基础语言模型构建。实验结果表明,这些专用模型在性能上显著优于现有开源模型,仅在部分指标上略逊于闭源商业模型。
代码仓库
QwenLM/Qwen-7B
官方
pytorch
GitHub 中提及
qwenlm/qwen
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-label-text-classification-on-cc3m | Qwen-72B | Accuracy: 80.9 F1: 62.1 Precision: 69.3 Recall: 56.2 |