数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 19|回复: 1

[业界] 百灵大模型开源Ling-2.6-flash,提供BF16、FP8、INT4等版本

[复制链接]
发表于 前天 17:05 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x

IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布,Ling-2.6-flash 正式开源。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。

Ling-2.6-flash 是一款总参数量 104B、激活参数 7.4B 的 Instruct 模型,两周前以 Elephant Alpha 的匿名身份登陆 OpenRouter。
官方表示,过去两周里持续收集来自开发者的真实反馈,并针对 Ling-2.6-flash 的使用体验进行了多轮优化,进一步改善了中英文自然切换能力,并提升了其在主流 Coding 框架中的适配效果
据介绍,Ling-2.6-flash 的核心能力体现在三个方面:
混合线性架构,释放推理效率:通过引入混合线性架构,模型从底层优化计算效率,在 4 卡 H20 条件下推理速度最快可达到340 tokens/s,Prefill 吞吐达到 Nemotron-3-Super 的2.2 倍
Token 效率优化,提升智效比:在训练过程中对 Token 效率进行了针对性校准,力求以更精简的输出完成既定目标。在 Artificial Analysis 的完整评测中,Ling-2.6-flash 仅消耗15M tokens,约为 Nemotron-3-Super 等模型的1/10
面向 Agent 场景进行定向增强:针对当前需求最旺盛的 Agent 应用,在工具调用、多步规划与任务执行能力上持续打磨,使模型在 BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench 等评测中,即使面对激活参数更大的模型,依然能够取得相近甚至 SOTA 级别的表现

IT之家附开源链接如下:
Hugging Facehttps://huggingface.co/inclusionAI/Ling-2.6-flash
ModelScopehttps://www.modelscope.cn/models/inclusionAI/Ling-2.6-flash





发表于 前天 17:15 | 显示全部楼层
游客请登录后查看回复内容
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2026-5-1 02:04 , Processed in 0.093600 second(s), 8 queries , Gzip On, Redis On.

Powered by Discuz!

© MyDigit.Net Since 2006

快速回复 返回顶部 返回列表