“日本最强AI”塌房了!扒开代码全是DeepSeek,日本网友集体破防

果壳 2026-03-18 21:49

“终于到日本用中国AI来冒充日本产AI的时代了。”

最近这件事在日本的X讨论炸了,起因是昨天日本一家科技公司乐天集团(Rakuten)在日本经济产业省(METI)的GENIAC 项目(日本AI政府资助项目)支持下,高调发布了号称“日本最大、性能最强”的7000亿参数大模型 Rakuten AI3.0。

但发布后不久,开源社区就迅速扒出,该模型的底层架构实际上是来自我们的DeepSeek-V3,乐天仅仅是做了日文数据的微调。

在知名的AI开源库Hugging Face 上,Rukuten AI3.0 赫然在自己的配置文件里面写着架构来自DeepSeek V3。

而在Rakuten AI 3.0模型的发布新闻稿里,丝毫没有提到任何关于DeepSeek的信息,只是含糊的说“它融合了开源社区的精华”,让一众网友以为这款模型就是日本自主研发的。

更致命的是,乐天为了掩盖这一事实,在开源时偷偷删除了DeepSeek的MIT开源协议文件。在被社区实锤后,才灰溜溜地以“NOTICE”文件名重新补上。

在 Hugging Face 上能看到项目文件的提交历史,显示修改

在 Hugging Face 上能看到项目文件的提交历史,显示修改

日本网友纷纷表示,“这让人无法接受”,拿着日本政府补贴,竟然只是微调了一波中国的DeepSeek,还有人说,用 DeepSeek就算了,还要偷偷藏藏真的很逊。

掩耳盗铃的“日本最强”

单看Rakuten公司发布的公关稿,这个模型确实算得上是日本在LLMs领域的一次比较有实力的发布。

这是一款拥有约7000亿参数的混合专家(MoE)模型,经开源社区确认,是和DeepSeek V3一样的671B总参数,激活37B。乐天首席AI官Ting Cai将其形容为“数据、工程和创新架构在规模上的杰出结合”。

Ting Cai这名字一听就不像是日本当地人,有日本网友在评论区说,用DeepSeek很过分,更过分的是,主导这个模型的大老板,是个彻头彻尾的移民强硬派。

我们发现Ting Cai曾在美国Google、苹果公司工作过,并在微软待了超过15年,本科在美国石溪大学,计算机科学就读。他曾在采访中表示,十八岁他第一次出国,去的就是日本,确实是个“移民强硬派”。

关于Rakuten AI 3.0的模型表现,在官方公布的各项基准测试中,它在日语文化知识、历史、研究生水平推理、甚至竞技数学和指令遵循等维度上,得分表现都极其优异,大有横扫日本本土大模型圈的架势。

不过,用来对比的模型,是已经被下架了的GPT 4o、只有1200亿参数的GPT OSS,还有日本的新兴另一个AI开发企业 ABEJA 基于千问推出的ABEJA QwQ 32b 模型。

7000亿和最多1200 亿比,Rakuten AI 3.0 确实是赢了不少。同时作为经产省GENIAC项目的重点扶持对象,乐天获得了大量的算力资源支持。

GENIAC这个项目设立的初衷,正是为了建立日本本土的生成式 AI 生态,缓解对海外巨头技术依赖的焦虑。

日本最大的参数规模,再加上这层“国家队”的滤镜,让Rakuten AI 3.0一出场就戴上了“全村希望”的光环。

还得是DeepSeek

但光环褪去得比想象中更快。

先不说7000亿参数、MoE架构,这几个关键词组合在一起,在当今的开源大模型圈子里,指向性实在太强了。等到开源社区的开发者们,到Hugging Face上一看详细的代码配置文件,竟然直接就写着DeepSeek V3。

从底层逻辑来看,这就是“中国架构 + 日本微调”。DeepSeek 提供了那套被全球验证过、极其高效的底层架构和推理能力,而乐天则利用其本土优势,用高质量的日文语料对其进行了微调,让它变得更懂日本文化。

客观来说,拿开源模型做本土化微调,在技术圈是一件极其正常且合理的事情。就像他们拿来作为对比的ABEJA QwQ 32b 模型一样,连代号都不改,直接用Qwen的QwQ。

日经新闻曾报道,日本公司开发的前十大模型里,有6个都是基于DeepSeek或Qwen进行二次开发。

如果乐天这次也坦坦荡荡地承认使用了DeepSeek的底座,顶多是一次缺乏新意的“套壳”发布,兴许还能蹭一波DeepSeek的热度。

但他们偏偏选择了掩藏。

之前我们分享美团浏览器使用开源项目时,曾提到不同的开源协议,其中DeepSeek采用的MIT协议,堪称开源界“最卑微、最宽容”的协议。

它允许用户免费拿去商用、修改、甚至闭源赚钱。它唯一的请求只有一个:在项目里,保留原作者的版权声明和许可声明。

Rakuten 模型发布新闻稿

Rakuten 模型发布新闻稿

而乐天不仅在模型发布博客中对DeepSeek 绝口不提,更是直接在代码库里抹除了这份协议文件,还高调宣布自己采用的是 Apache 2.0协议开源。

虽然Apache 2.0 同样是对商业极度友好的开源协议,但它更正式,常被大厂用来建立自己的开源生态和专利护城河。

不同开源协议对比,MIT协议比Apache 协议更宽松、更简短,Apache 2.0在赋予自由的同时,明确包含了专利授权保护和更严谨的责任免除条款,适合更大型、法律风险规避更严格的商业项目|图片来自互联网

乐天的算盘打得很精,抹掉DeepSeek 的名字,套上自己的Apache 2.0协议,再把自己包装成“慷慨开源7000亿参数大模型”的日本 AI 救世主。

喊了一年多的欧洲版DeepSeek、美国版DeepSeek,最后好像都没有做出来。

乐天也想做日本版DeepSeek,但在算力和训练成本的压力下,在当前全球大模型飞速发展的局面下,既想要中国技术的极致性价比,又放不下打造“本土巨头”的身段,显然是难上加难。

不如和我们一起等等DeepSeek V4吧。

本文经授权转载自APPSO(ID:appsolution),如需二次转载请联系原作者。欢迎转发到朋友圈。

订阅后可查看全文(剩余80%)

手机扫码打开本网页
扫码下载南方+客户端