2024年6月突破

338种语言,代码对标GPT-4 Turbo

DeepSeek-Coder V2采用MoE架构,支持338种编程语言,上下文窗口大幅扩展。在多个高级编程基准上,它追平甚至超越了GPT-4 Turbo——而此时距离最初的Coder发布仅7个月。这意味着一个小团队已经能够在一个相当垂直的领域里,追上拥有海量资源的顶级闭源模型。那些曾经怀疑开源代码模型天花板的人开始沉默,而全球的开发者社区则在庆祝:有了一个可以完全私密部署、免费商用的编程大脑。

参考来源