DeepSeek-V2是由杭州深度求索公司发布的第二代开源MoE模型,DeepSeek-V2 在中文综合能力与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队,英文综合能力英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B,特别擅长数学、编程和逻辑推理任务。它在多个大型模型排行榜上名列前茅,支持长达128K的上下文长度,并提供开放源代码。