|
全球最大电子代工厂富士康近日宣布重要进展:基于Meta的Llama 3.1架构,其成功研发出首个自研大语言模型FoxBrain。这款拥有700亿参数的AI系统,将率先应用于智能制造与供应链管理领域。
值得关注的是,这个对标国际一流水准的模型,训练硬件仅动用了120块英伟达H100 GPU。借助英伟达Quantum-2 InfiniBand网络加速,研发团队仅用四周时间就完成训练,总耗能控制在2688个GPU日。该模型采用知识蒸馏技术,通过复用现有成熟模型的智能特性,在繁体中文语料环境下生成了980亿token的高质量训练数据。
鸿海研究院人工智能研究所所长李永辉博士透露研发细节:"当前AI领域不再盲目堆算力,我们聚焦训练流程优化。通过精心设计的资源调度方案,在有限硬件条件下实现了接近世界级的推理能力。"尽管坦承模型效果略逊于国产的DeepSeek,但团队对实际应用充满信心。
作为苹果主要代工厂和英伟达AI服务器生产商,富士康的科技布局持续扩展。其与英伟达合作的Blackwell GPU超级工厂正在建设中,而此次训练使用的台北-1超算系统也来自双方深度合作。FoxBrain未来将作为关键驱动力,全面升级智能制造、电动车研发、智慧城市三大平台,推进制造体系的数字化转型。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|