数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 1157|回复: 2

[科技] 4o-mini 只有 8B、o1 也才 300B,微软论文意外曝光 GPT 核心机密

[复制链接]
发表于 2025-1-2 11:59:08 | 显示全部楼层 |阅读模式
微软又把 OpenAI 的机密泄露了??在论文中明晃晃写着:



英伟达 2024 年初发布 B200 时,就摊牌了 GPT-4 是 1.8T MoE 也就是 1800B,这里微软的数字更精确,为 1.76T。





除此之外,论文中给 OpenAI 的 mini 系列,Claude3.5 Sonnet 也都附上了参数,总结如下:

* o1-preview 约 300B;o1-mini 约 100B

* GPT-4o 约 200B;GPT-4o-mini 约 8B

* Claude 3.5 Sonnet 2024-10-22 版本约 175B

* 微软自己的 Phi-3-7B,这个不用约了就是 7B

虽然论文中后面也有免责声明:






但还是有不少人觉得事情没这么简单。

比如为什么唯独没有放谷歌 Gemini 模型的参数估计?或许他们对放出来的数字还是有信心的。




也有人认为,大多数模型都是在英伟达 GPU 上运行的,所以可以通过 token 生成速度来估计。

只有谷歌模型是在 TPU 上运行的,所以不好估计。




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
发表于 2025-1-2 12:24:15 | 显示全部楼层
这在国内算不算机密?
回复 支持 反对

使用道具 举报

发表于 2025-1-2 12:59:03 | 显示全部楼层
未来ai还要要看东方
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-7-23 08:50 , Processed in 0.234001 second(s), 11 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表