k8凯发新闻中心

k8凯发,阿里除夕夜抛出重磅新模型 Qwen25-Max性能惊艳

2025-01-30
浏览次数:
返回列表

  农历除夕夜,全球华人喜迎新春之时,纽约证券交易所的电子屏上,阿里巴巴美股股价在收盘前从涨幅1%快速拉升至6.7%。这一行情异动背后k8凯发,,是一场技术上的奇袭。

  1月29日凌晨,阿里通义千问团队悄然上线-Max,在多个权威基准测试中展现出与全球顶级模型比肩的性能。这是继DeepSeek之后,中国AI阵营在高性能、低成本技术路线上的又一重要突破。

  市场人士分析称,此前过度聚焦DeepSeek,却忽视了包括阿里通义在内的中国AI整体性追赶。行业媒体《信息平权》表示,若阿里Qwen-2.5-max的性能超过V3,可以对其RL推理模型给予更大期待。

  当阿里云展现出“强大模型+充足算力+完整云平台”的组合优势时,是否印证了类似去年北美云计算服务商的投资逻辑?如果美股因AI整体增值10万亿美元,中国AI资产的重估时机是否已至?

  Qwen2.5-Max采用超大规模MoE(混合专家)架构,基于超过20万亿token的预训练数据。在MMLU-Pro、LiveCodeBench、LiveBench以及Arena-Hard等多个权威评测中,该模型均展现出与DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩甚至领先的性能。阿里团队表示,随着后训练技术的进步,下一个版本将有望达到更高水平。

  k8凯发官网入口,

  Qwen2.5团队同步发布了两个创新型号:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。这些开源模型支持高达100万token的上下文窗口,成为业内首个达到此规模的公开可用模型。这些模型使用稀疏注意力,处理百万token输入的速度比传统方法快3到7倍,输出长度可达8000个token。

  k8凯发官网入口,

  在测试中,14B型号和Qwen2.5-Turbo在查找非常长的文档中的隐藏数字时都达到了完美的准确性。较小的7B型号也表现良好,只有轻微的错误。在RULER、LV-Eval和LongbenchChat等要求更高的复杂的上下文测试中,百万token模型的表现优于128K token模型,尤其是在超过64K token的序列中,14B型号甚至在RULER中得分超过90分——这是Qwen系列的第一次——在多个数据集上持续击败gpt - 4o mini。

  如果说DeepSeek V3展现了中国AI的锐度,那么阿里的突破则体现了产业生态的深度进化。Qwen2.5-Max发布当天,阿里云百炼平台同步开放了完整的工具链支持,开发者可以直接在云端调用。这种“超算集群+开源生态+云原生”的三位一体架构,与北美AWS、Azure、GCP三大云服务商的商业模式形成镜像。

  摩根士丹利最新研报指出,低成本高性能模型也将重塑数据中心和软件行业格局。对于中国数据中心而言,短期内,如果大型科技公司采用类似技术路线,可能减少AI训练相关需求。但从长远来看,低成本模型将推动推理需求增长,对一线城市数据中心形成利好。对于中国软件行业,AI模型成本的降低将降低应用程序运行AI功能的门槛,从供给侧改善行业环境。

  如果阿里Qwen-2.5-max的性能确实展现出预期水平,加之其低成本优势与完整云生态,或引发中国AI资产的新一轮重估。

  k8凯发官网入口,

搜索