Google发布全新开源翻译模型家族TranslateGemma
Google今日发布全新的开源翻译模型家族 TranslateGemma,基于其最新的开源权重模型 Gemma 3,被官方称为“开放翻译领域的重要一步”,首批支持多达 55 种语言,涵盖西班牙语、法语、中文、印地语等主流语种。

这一发布时点紧贴竞争对手动态:就在数小时前,OpenAI 刚刚推出主打语气和语境把握的 ChatGPT Translate 工具,通过双栏界面和自动语言识别,试图在用户体验和上下文理解层面挑战 Google Translate 等传统翻译服务。 与之相对,TranslateGemma 则更强调开放模型能力和在多种基准测试上的整体翻译质量。
TranslateGemma 系列目前提供 40 亿、120 亿和 270 亿参数三种规模版本。Google给出的评测结果显示,在 WMT24++ 基准上,TranslateGemma 12B 的表现超过了基础版 Gemma 3 27B,这意味着在参数量不足一半的情况下,可以实现更高吞吐、更低时延,同时维持甚至提升翻译准确度,对开发者来说有利于在有限算力环境中部署高质量翻译模型。
在部署场景方面,Google表示,4B 模型针对移动端推理进行优化,适合在手机等终端设备本地运行;12B 模型面向消费级笔记本电脑等本地算力场景;而 27B 模型则需要更强的算力支持,例如云端单卡 NVIDIA H100 等配置。 在 Vistra 图像翻译基准测试中,TranslateGemma 在图像内文字翻译任务上也取得了更好成绩,即便其并未针对该场景进行专门微调,显示出模型在多模态文本理解方面的潜力。
Google披露,TranslateGemma 的性能提升来自一个分两阶段的训练流程。第一阶段为有监督微调,研究团队在 Gemma 3 基座模型之上,引入大量人工翻译语料,并结合由 Gemini 模型生成的高质量合成数据进行训练;第二阶段则采用强化学习,通过一组奖励模型引导翻译质量优化,其中包括 MetricX-QE、AutoMQM 等先进指标,使模型更趋近自然、符合语境的翻译输出。
目前,TranslateGemma 全系列模型已经在 Kaggle 与 Hugging Face 平台开放下载,供研究者和开发者自由试验与二次开发。 在 OpenAI 把翻译进一步融入聊天式前端产品的同时,Google通过开放高性能底层模型,为第三方应用构建提供更多技术选项,也预示着机器翻译赛道将在开放模型与服务化工具两个层面同时加剧竞争。


