|
|
来,各位正在琢磨AI模型、或者好奇科技巨头们最近又在折腾啥的网友们,咱今天得好好唠一个刚出炉的、味儿有点不一样的“大新闻”。这回的主角是谷歌,它家那个开源的、名字挺好听的模型家族“Gemma”,出第四代了,叫“Gemma 4”。但说实话啊,这次大家最炸锅的,反而不是它跑分多高、多聪明,而是它身上那张“身份证”——也就是软件许可证——换了个完全不一样的写法。
这话怎么说呢?咱们慢慢捋。消息是国外科技媒体《The Elec》报的。谷歌这回官方发布了Gemma 4,说这是他们开源模型家族的下一代产品。但最关键的一个变化,是它标志着谷歌朝着一个“更宽松、更开放”的生态系统,实实在在地迈了一大步。这个步子,就落在一张纸上:Apache 2.0许可证。
对,你没看错。谷歌这次,把自己之前给Gemma定制的、那一套自家的“Gemma使用条款”给扔了,换上了业界公认的、极度宽松和明确的开源许可证——Apache 2.0。这意味着啥?简单粗暴地讲,就是以后无论是企业还是咱们普通开发者、研究机构,用这个Gemma 4,几乎没啥限制了,随便用,随便改,拿去商用,再分发,都行,只要标明一下原始版权是谷歌的,并且如果你修改了代码也得说明一下就行。 这事儿在开源圈子里,引起的动静可比它模型性能提升还要大。
您可能纳闷,一个许可证而已,至于吗?哎,太至于了!咱得回过头看看,以前谷歌是咋干的。之前Gemma那几个版本,性能、功能在开源模型里其实并不拉胯,但为啥感觉它的江湖名声和采用度,好像比不上Mistral公司的模型,或者阿里通义千问(Qwen)系列呢?根源就在那个模糊的许可证政策上。
以前Gemma用的是谷歌自己写的“Gemma使用条款”。那条款里是允许免费用、允许商用、也允许你微调(fine-tuning)的,听着还行对吧?但坑就藏在后面:它对再分发(redistribution)和修改(modification) 做了不少限制。而且谷歌在条款里保留了一个“终极大招”:它随时可以单方面修改使用条款。更吓人的是,它那个“禁止使用政策”是直接引用到条款里的,也就是说,你只要继续用,就表示你接受了谷歌未来可能更新的任何规则。这感觉就像你租了个房子,合同里写房东可以随时改租金和规矩,这谁受得了啊?
这还没完。条款里还写了,如果谷歌认为你违反了政策或者法规,它有权“远程或以其他方式”限制你的访问。这意味着啥?意味着哪怕你已经把基于Gemma的产品做出去了、上线了,谷歌理论上都有可能远程给你“掐了”。这种不确定性,对企业客户来说,简直是噩梦。而且这些限制是“传染”的:你用Gemma做出来的产品,甚至用Gemma生成的数据去训练出来的新模型,都得遵守同样的限制。正因为这些条条框框,Gemma和另一家大厂Meta的Llama模型,之前没少挨批,大家说它们顶多算是“开放权重”模型,根本不是真正的“开源”模型,这也拖慢了它们在Hugging Face这类开源平台上的生态发展。
所以,现在明白Gemma 4换上Apache 2.0这张“身份证”,意义有多重大了吧?谷歌这是自己把以前那些自定义的、模糊的、可能伤人的条款,全给主动拆了。 企业们最大的心病——担心谷歌未来改规则、担心自己做出来的“子孙产品”也受牵连——这下基本解除了。跟Meta那个Llama的社区许可证(它要求月活用户超过7亿的大公司得单独谈协议)比起来,Apache 2.0可要单纯和友好太多了。
唠完这个最重磅的“身份变革”,咱再回过头看看Gemma 4本身到底咋样。谷歌自己肯定得夸,他们说Gemma 4为开源模型树立了新标杆,在推理、代码生成和复杂逻辑任务上,能干掉比它大得多的模型。他们甚至说了句挺唬人的话:“Gemma 4的表现能超过比它大20倍的模型。” 这口气,不小。
这个Gemma 4呢,跟谷歌那个更大的、闭源的Gemini 3模型是同宗同源,用了一样的研究和技术底子。它这次一口气出了四个配置:Effective 2B(E2B)、Effective 4B(E4B)、一个260亿参数的混合专家模型(26B MoE),和一个310亿参数的稠密模型(31B Dense)。谷歌还说,它不止能聊天,还能支持一些智能体(agent)工作流。
光听厂商自夸不行,得看第三方咋说。在一个叫Arena AI的公共大模型排行榜上,Gemma 4 31B模型在总榜排第27,在开源模型里排第三;26B模型总榜排第40,开源里排第六。位置还算靠前。
这里头有几个技术点挺有意思,我用咱能听懂的话解释下。名字里带“E”(Effective)的,意思是“有效参数”。比如那个E2B模型,它总共有51亿个参数,但实际干活(推理)的时候,只激活大概23亿个。这是靠一个叫“每层嵌入”的技术实现的,相当于给模型的每一层都配了个小小的专属“字典”来快速查资料,而不是搞一个巨大的公用字典,这样既省力(激活参数少、内存占用低)又能干差不多的活儿。量化后内存占用不到1.5GB,挺省地方的。
那个26B的混合专家模型(MoE)更是个“节能高手”。它肚子里有128个“专家”外加1个永远在线的“共享专家”,但每次处理信息,只请出8个“专家”来会诊。这样,虽然它本体有260亿的智慧储备,但每次实际动用的只有大约38亿参数的成本,相当于用40亿参数模型的计算开销,就能享受到260亿参数模型的智力水平,这买卖听起来挺划算。
那它跟咱们熟悉的其他开源模型比,到底谁厉害?根据一家叫Artificial Analysis的独立测试公司的数据,在一個叫GPQA Diamond的高难度基准测试里(这测试专考研究生或专家级别的科学、数学和基础推理能力),Gemma 4 31B得了85.7分,在开源模型里排第二,仅次于阿里通义千问3.5的270亿参数版本(85.8分),基本是脚前脚后,差距微乎其微。不过,在另外两个同样很难的测试MMLU-Pro和HLE上,通义千问3.5的表现要更好一些。这个HLE测试,据说出的题连博士级别的专家都觉得棘手。
但Gemma 4跟它的前任Gemma 3比,那进步可是飞跃式的。举个例子,在AIME数学推理测试上,Gemma 3 27B在不启用思维链的情况下只有20.8%的正确率,而Gemma 4 31B直接干到了89.2%;在LiveCodeBench(编码测试)上,也从29.1%飙升到了80%。这进步幅度,确实配得上“新一代”的称号。
所以,唠了这么一大圈,咱们来盘盘谷歌这步棋。它这回等于是左手拿着一个在性能上确实有大幅提升、而且设计上很讲究效率(有效参数、混合专家)的模型Gemma 4,右手则举起了Apache 2.0这面开源世界公认的“友好大旗”。这明摆着是要用“真正的开源”诚意,来吸引之前被许可证吓跑的开发者、企业和社区,尤其是想跟Meta的Llama生态抢人、抢影响力。在AI模型竞争已经白热化的今天,谷歌意识到,光模型强不够,还得“得人心”,而人心的关键,往往就始于那一页看似枯燥、实则至关重要的许可证。这场开源模型的战争,从拼参数、拼跑分,已经进入到拼生态友好度、拼规则确定性的新阶段了。Gemma 4这“身份证”一换,战场格局,说不定真要起些新变化了。各位搞开发、做研究、或者就是纯围观的朋友们,可以好好关注下,这个更“放得开”的谷歌,到底能玩出什么新花样。
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
x
|