月之暗面推Kimi Linear模型:处理长上下文速度提高了2.9倍
2025/11/04
·
Ai资讯
7
0 在人工智能生成内容(AIGC)领域,月之暗面团队推出的 Kimi Linear 模型取得了显著的技术进展。这一创新模型在处理长上下文时的速度提高了2.9倍,解码速度提升了6倍,突破了传统全注意力机制的性能瓶颈。Kimi Linear 采用了一种混合线性注意力架构,特别是在上下文处理和强化学习等多个场景中,表现超过了常用的 Softmax 注意力机制。

传统的 Transformer 模型使用 Softmax 注意力机制,计算复杂度高达 O (n²),这使得处理长文本时计算量和内存消耗呈指数级增长,严重影响模型的实际应用。而线性注意力的提出将这一复杂度降低至 O (n),使得处理效率有了大幅提升。然而,早期的线性注意力在性能上并不理想,尤其是在长序列的记忆管理方面存在局限性。

Kimi Linear 模型的核心创新是 Kimi Delta Attention(KDA),它通过引入细粒度的门控机制,改善了模型的记忆管理能力。KDA 能够根据输入动态调整记忆状态,有效地控制信息的遗忘与保留,从而更好地处理长时间交互中的信息。
此外,Kimi Linear 还采用了 Moonlight 架构,将 KDA 与全注意力层进行混合,按照3:1的比例配置,以在效率与模型能力之间取得平衡。这种设计使得 Kimi Linear 在长上下文处理上展现出优异的性能,同时有效降低了计算成本。
经过一系列实验验证,Kimi Linear 在多个任务上表现出色,尤其是在需要长上下文记忆的回文和多查询关联回忆任务中,其准确度远超前代模型,展现出细粒度控制的优势。
您需要登录后再评论
登录
{{item.user_nickname}}
{{item.create_time_txt}}待审核
{{item.zan_num}}
删除
{{comment.user_nickname}}
@{{comment.reply_nickname}}
{{comment.create_time_txt}}待审核
{{comment.zan_num}}
删除
展开更多
加载更多