跳到内容

夜深了,注意休息,愿你今夜好梦。

DeepSeek

DeepSeek

Since its establishment in 2023, DeepSeek (Hangzhou DeepSeek) has rapidly launched open source big models such as DeepSeekCoder, DeepSeek-V3 and DeepSeek-R1. Its innovative MoE architecture dramatically reduces inference costs, and its products have landed on the NVIDIA NIM platform and gone live on the National Supercomputing Internet. This article combs through the company's development timeline, technological breakthroughs and industry cooperation.

浏览 363 收藏 0 外链点击 0 更新 2026年4月15日
适用地区
全球
适用平台
以官网说明为准
是否免费
以官网与标签为准

DeepSeek公司概况

DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,2023年7月成立。这家由幻方量化创立的公司,注册在杭州拱墅区,主营业务包括大语言模型开发和技术服务。

发展时间线

2023年:起步与首发

  • 7月17日:公司正式成立。
  • 11月2日:推出首个开源代码模型DeepSeekCoder,能写代码、调试和分析。
  • 11月29日:发布670亿参数的通用大模型DeepSeekLLM,提供7B和67B多个版本。

2024年:技术突破

  • 5月7日:发布混合专家模型DeepSeek-V2,2360亿参数,推理成本降到百万token一块钱。
  • 9月5日:模型升级,推出DeepSeekV2.5。
  • 12月26日:发布DeepSeek-V3,参数规模达到6710亿,采用MoE架构和FP8训练,训练成本控制在557.6万美元。

2025年:扩张与挑战

  • 1月20日:开源推理模型DeepSeek-R1,性能对标OpenAI o1。
  • 1月26日:DeepSeek应用登顶美国苹果商店免费榜,下载量超过ChatGPT。
  • 2月5日:系列模型上线国家超算互联网平台。
  • 2月6日:澳大利亚政府以安全为由,禁止在政府设备中使用。
  • 2月8日:服务遭遇大规模攻击,暂时限制非+86手机号注册。

主要产品与技术

DeepSeek在一年多里密集推出了Coder、LLM、V2、V3、R1等多个开源模型。DeepSeek-V3的MoE架构和FP8精度训练是其亮点,在控制成本的同时保持了高性能。

行业影响与合作

2025年1月,英伟达宣布DeepSeek-R1登陆NVIDIA NIM平台,亚马逊和微软也接入了该模型。同时,模型上线国家超算互联网,拓展了国内算力支持。

争议与挑战

澳大利亚的禁令和2025年2月的网络攻击,给这家快速发展的公司带来了运营上的考验。

发表评论

正文
强调色