(资料图)
谷歌今天把AI圈的参数迷信按在地上摩擦。Gemma 4系列正式发布,9B版本在多项基准测试里把Qwen 72B、Llama 3 70B这些"大块头"按着头打。换句话说,谷歌用十分之一的体型,办成了别人十倍人力的事。
这事魔幻的地方在于训练成本。Gemma 4用了英伟达B200集群,单节点就能跑完整训练。对比之下,同级别的模型通常要动用几百张卡、烧掉几千万美元。谷歌没公布具体数字,但放话称这是"最高效的开放模型之一"——「我们证明了规模不是唯一答案」。
技术细节藏得挺深。官方只透露用了"多模态后训练"和新的数据筛选管线,具体配方闭口不谈。开发者社区已经炸锅,Hugging Face上有人吐槽:"我的72B模型刚部署完,现在告诉我9B就能干同样的事?"
更扎心的是商业条款。Gemma 4允许月活4000万以下的产品免费商用,超过才需要谈授权。这刀法精准得像产品经理算过账——既讨好中小开发者,又给大厂留足谈判空间。有独立开发者在X上晒图:把Gemma 4 27B塞进单张4090,推理延迟比API调用还低。
谷歌DeepMind负责人Demis Hassabis转发了基准对比图,没配文字。但评论区最高赞说透了大家的心思:"参数战争结束了,现在比谁更会减肥。"
营业执照公示信息