阿里通义千问推出 Qwen2.5-Turbo 开源 AI 模型 支持 100 万 tokens 长上下文

2024-11-19 16:18:19   |   嫣然   |   1094

11 月 18 日,阿里通义千问发布博文,正式推出全新开源 AI 模型 Qwen2.5-Turbo。这款模型专为满足社区对长上下文处理需求的呼声而设计,具备支持 100 万 tokens 长上下文的能力,并显著提升了处理效率和成本效益。

Qwen2.5-Turbo 将上下文长度从之前的 12.8 万 tokens 扩展至 100 万 tokens,相当于约 100 万英语单词或 150 万汉字。这一突破使得模型能够轻松容纳10 部完整小说,150 小时的演讲稿,30000 行代码。Qwen2.5-Turbo 在多项基准测试中表现出色。Passkey 检索任务:1M-token 的检索实现了 100% 准确率;RULER 长文本评估:得分 93.1,超越了 GPT-4 和 GLM4-9B-1M。

为了支持更长的上下文,阿里团队引入了 稀疏注意力机制(sparse attention mechanisms),将处理 100 万 tokens 至输出第一个 tokens 的时间从 4.9 分钟缩短至 68 秒,速度提升了 4.3 倍。这一改进显著提升了模型在长文本处理中的响应效率。同时,Qwen2.5-Turbo 在经济性上表现出色,每百万 tokens 的处理成本仅为 0.3 元,能够处理 3.6 倍于 GPT-4o-mini 的 token 数量,为开发者和企业提供了更加高效且经济的解决方案。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

阿里通义千问推出 Qwen2.5-Turbo 开源 AI 模型 支持 100 万 tokens 长上下文

2024-11-19 16:18:19 浏览量: 1094 作者: 嫣然

11 月 18 日,阿里通义千问发布博文,正式推出全新开源 AI 模型 Qwen2.5-Turbo。这款模型专为满足社区对长上下文处理需求的呼声而设计,具备支持 100 万 tokens 长上下文的能力,并显著提升了处理效率和成本效益。

Qwen2.5-Turbo 将上下文长度从之前的 12.8 万 tokens 扩展至 100 万 tokens,相当于约 100 万英语单词或 150 万汉字。这一突破使得模型能够轻松容纳10 部完整小说,150 小时的演讲稿,30000 行代码。Qwen2.5-Turbo 在多项基准测试中表现出色。Passkey 检索任务:1M-token 的检索实现了 100% 准确率;RULER 长文本评估:得分 93.1,超越了 GPT-4 和 GLM4-9B-1M。

为了支持更长的上下文,阿里团队引入了 稀疏注意力机制(sparse attention mechanisms),将处理 100 万 tokens 至输出第一个 tokens 的时间从 4.9 分钟缩短至 68 秒,速度提升了 4.3 倍。这一改进显著提升了模型在长文本处理中的响应效率。同时,Qwen2.5-Turbo 在经济性上表现出色,每百万 tokens 的处理成本仅为 0.3 元,能够处理 3.6 倍于 GPT-4o-mini 的 token 数量,为开发者和企业提供了更加高效且经济的解决方案。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号