jack.yang
万字长文拆解DeepSeek大模型技术演进-Coder/LLM/混合专家(MoE)/VL/R1 / V3.2-超长上下文处理、动态稀疏注意力(DSA)
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
jack.yang
社区首页
>
专栏
>
万字长文拆解DeepSeek大模型技术演进-Coder/LLM/混合专家(MoE)/VL/R1 / V3.2-超长上下文处理、动态稀疏注意力(DSA)
万字长文拆解DeepSeek大模型技术演进-Coder/LLM/混合专家(MoE)/VL/R1 / V3.2-超长上下文处理、动态稀疏注意力(DSA)
jack.yang
关注
发布于 2026-04-06 13:37:05
发布于 2026-04-06 13:37:05
941
0
举报
概述
自2022年ChatGPT引爆全球AI浪潮以来,大模型竞赛迅速演变为一场“算力军备竞赛”。OpenAI、Google、Meta等巨头凭借数千张H100 GPU和数百亿美元投入,不断刷新模型规模与性能的天花板。然而,在这场看似由资本主导的游戏中,一家中国初创公司——DeepSeek(深度求索) 却以“极致效率+长期主义”的技术路线,实现了从追赶者到领跑者的跨越。
文章被收录于专栏:
大模型系列
大模型系列
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
DeepSeek
腾讯云大模型知识引擎xDeepSeek
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
DeepSeek
腾讯云大模型知识引擎xDeepSeek
#DeepSeek-Coder
#DeepSeek-LLM
#DeepSeek-MoE
#DeepSeek-VL
#DeepSeek-R1 / V3.2
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐