数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 449|回复: 1

[科技] 240亿参数AI模型单卡可跑!欧洲团队秀出开源界新王牌

[复制链接]
发表于 2025-1-31 16:41:12 | 显示全部楼层 |阅读模式
本帖最后由 土耳鸡烤鸡 于 2025-1-31 16:44 编辑

TOP2 1月31日消息:欧洲AI研发劲旅Mistral AI今日祭出大杀器,正式推出参数规模仅为240亿的全新模型Mistral Small 3。这个"小个头"展现出的惊人实力直接叫板行业大块头——在权威的MMLU-Pro测试中,其表现竟与Llama 3.3 70B(700亿参数)和Qwen 32B(320亿参数)等巨无霸打成平手,更令人惊喜的是运行速度还快人一步。

这款模型最颠覆认知之处在于其超强适配性:普通玩家用单张RTX 4090显卡就能跑,果粉手中的32GB内存MacBook也能轻松驾驭。对比ChatGPT用户常用的GPT-4o mini备胎模型,Mistral新作不仅综合实力更胜一筹,响应延迟还更低,堪称开源界的"六边形战士"。

研发团队特意强调,这次开源的预训练和指令调优模型均采用Apache 2.0协议,为开发者提供了极具想象力的基础架构。特别值得注意的是,该模型完全摒弃了强化学习和合成数据训练,这种"纯粹"的技术路线使其在推理能力提升方面展现出独特潜力,或将引发开源社区的二次创新热潮。

不过这场AI对决仍有悬念待解。在涉及千余项专业编程和通用场景的实际测试中,人类评估者对Mistral Small 3的偏好度虽超越Gemma-2 27B和Qwen-32B,却仍略逊于Llama 3.3 70B和GPT-4o mini。这柄双刃剑既展现了模型的强大实力,也揭示了后续优化空间。

目前该模型已登陆Mistral AI自家平台,开发者可通过"mistral-small-latest"或"mistral-small-2501"接口尝鲜。这场以小博大的技术突围战,正在改写开源AI模型的竞争格局。





本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
发表于 2025-1-31 17:53:50 | 显示全部楼层
还有人吹这个
回复 支持 0 反对 1

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-9-21 07:56 , Processed in 0.312001 second(s), 12 queries , Gzip On, Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表