跳到内容

晚上好,辛苦一天了,放松一下吧。

DeepSeek

DeepSeek

DeepSeek(杭州深度求索)自2023年成立以来,快速推出DeepSeekCoder、DeepSeek-V3、DeepSeek-R1等开源大模型。其创新的MoE架构大幅降低推理成本,产品已登陆英伟达NIM平台并上线国家超算互联网。本文梳理公司发展时间线、技术突破与行业合作情况。

浏览 361 收藏 0 外链点击 0 更新 2026年4月15日
适用地区
全球
适用平台
以官网说明为准
是否免费
以官网与标签为准

DeepSeek公司概况

DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,2023年7月成立。这家由幻方量化创立的公司,注册在杭州拱墅区,主营业务包括大语言模型开发和技术服务。

发展时间线

2023年:起步与首发

  • 7月17日:公司正式成立。
  • 11月2日:推出首个开源代码模型DeepSeekCoder,能写代码、调试和分析。
  • 11月29日:发布670亿参数的通用大模型DeepSeekLLM,提供7B和67B多个版本。

2024年:技术突破

  • 5月7日:发布混合专家模型DeepSeek-V2,2360亿参数,推理成本降到百万token一块钱。
  • 9月5日:模型升级,推出DeepSeekV2.5。
  • 12月26日:发布DeepSeek-V3,参数规模达到6710亿,采用MoE架构和FP8训练,训练成本控制在557.6万美元。

2025年:扩张与挑战

  • 1月20日:开源推理模型DeepSeek-R1,性能对标OpenAI o1。
  • 1月26日:DeepSeek应用登顶美国苹果商店免费榜,下载量超过ChatGPT。
  • 2月5日:系列模型上线国家超算互联网平台。
  • 2月6日:澳大利亚政府以安全为由,禁止在政府设备中使用。
  • 2月8日:服务遭遇大规模攻击,暂时限制非+86手机号注册。

主要产品与技术

DeepSeek在一年多里密集推出了Coder、LLM、V2、V3、R1等多个开源模型。DeepSeek-V3的MoE架构和FP8精度训练是其亮点,在控制成本的同时保持了高性能。

行业影响与合作

2025年1月,英伟达宣布DeepSeek-R1登陆NVIDIA NIM平台,亚马逊和微软也接入了该模型。同时,模型上线国家超算互联网,拓展了国内算力支持。

争议与挑战

澳大利亚的禁令和2025年2月的网络攻击,给这家快速发展的公司带来了运营上的考验。

发表评论

正文
强调色