SCM 第二例|三大模型推理性能深度对比:InternLM 效率最高,Qwen 并发增益最强

张开发
2026/4/13 2:38:34 15 分钟阅读

分享文章

SCM 第二例|三大模型推理性能深度对比:InternLM 效率最高,Qwen 并发增益最强
SCM 第二例|三大模型推理性能深度对比:InternLM 效率最高,Qwen 并发增益最强引言:从单模型验证到多模型对决一个月前,我用自研的叠合一致法(SCM)完成了首例验证——在 Qwen2.5-7B 上,成功标定出并发增益函数和长度增益系数,实现了 0% 偏差的自洽检验。但那篇文章留下了一个遗憾:C_model(模型损耗系数)未能标定。因为只有一个模型,我无法回答:“如果换成 DeepSeek 或 InternLM,同样的并发和长度配置,吞吐会差多少?”这个问题在实际选型中至关重要。于是,我设计了第二例实验:三个大模型的正面对比。本文将完整记录实验过程,并分享一个重要的方法论升级——分模型独立拟合,它让验证指标从 MAPE=108% 飙升至 23.64%,R² 从 0.02 跃升至 0.92。一、实验设计:三模型 × 四并发 × 三长度1.1 测试模型模型API 调用名参数量Qwen2.5-7BQwen/Qwen2.5-7B-Instruct7BDeepSeek-V2.5deepseek-ai/DeepSeek-V2.5约 7BInternLM2.5-7Binternlm/internlm2_5-7b-chat7B1.2 测试矩阵变量档位数量模型3 个3输出长度(max_tokens)50 / 100 / 2003并发数(concurrency)1 / 2 / 4 / 84重复次数2 次2

更多文章