Deepseek大概真的是国产大模型王者了。V3和Claude 3.5 Sonnet打得有来有回,除了少点人味儿之外(毕竟大概率蒸馏了GPT-4o),输出都挺让人满意的,token价格却几乎相当于白送;R1只用12000个token完美解决了o1至少用30000 token才解决的问题,更别提token单价的差距。

月之暗面的长上下文能力确实挺震撼的,是能塞下一整本课本的级别。但陷入无意义重复的情况也很多,正如网上那张给猫取名的梗图那样。

新秀MiniMax-01调得就没那么细心了,整体质量略逊于Deepseek V3,但考虑到这玩意巨巨巨巨巨长的上下文,倒是可以成为Kimi的上位替代。

阿里通义不知道在干嘛,QvQ除了名字比较萌之外,自个儿推理好久经常都是错的。当然这毕竟是个小模型,72B的参数量比起别人成千上万亿参数的MoE确实有着量级上的差距。14B的小模型质量确实还是不错的。

希望有一天我可以不再需要订阅ChatGPT Plus。

许可证:CC BY-SA 4.0
最后更新于 2026 年 1 月 17 日 23:32