阿里通义千问推出 Qwen2.5-Turbo 开源 AI 模型 支持 100 万 tokens 长上下文
11 月 18 日,阿里通义千问发布博文,正式推出全新开源 AI 模型 Qwen2.5-Turbo。这款模型专为满足社区对长上下文处理需求的呼声而设计,具备支持 100 万 tokens 长上下文的能力,并显著提升了处理效率和成本效益。
Qwen2.5-Turbo 将上下文长度从之前的 12.8 万 tokens 扩展至 100 万 tokens,相当于约 100 万英语单词或 150 万汉字。这一突破使得模型能够轻松容纳10 部完整小说,150 小时的演讲稿,30000 行代码。Qwen2.5-Turbo 在多项基准测试中表现出色。Passkey 检索任务:1M-token 的检索实现了 100% 准确率;RULER 长文本评估:得分 93.1,超越了 GPT-4 和 GLM4-9B-1M。
为了支持更长的上下文,阿里团队引入了 稀疏注意力机制(sparse attention mechanisms),将处理 100 万 tokens 至输出第一个 tokens 的时间从 4.9 分钟缩短至 68 秒,速度提升了 4.3 倍。这一改进显著提升了模型在长文本处理中的响应效率。同时,Qwen2.5-Turbo 在经济性上表现出色,每百万 tokens 的处理成本仅为 0.3 元,能够处理 3.6 倍于 GPT-4o-mini 的 token 数量,为开发者和企业提供了更加高效且经济的解决方案。