老黄又出手了。
DeepSeek-V4 一上线,英伟达 NIM 第一时间跟进。
V4-Pro 满血版,1.6 万亿参数。
V4-Flash 高速版,2840 亿参数。
划重点,免费。

01|DeepSeek V4 和 NIM
NIM 是英伟达推出的 AI 模型推理平台。全称 NVIDIA Inference Microservices。
它把主流的开源模型聚合到一起,统一用 OpenAI 兼容的 API 格式调用。
GLM、Kimi、MiniMax 都有。前两天又多了 DeepSeek-V4。
「
DeepSeek-V4-Pro是全球最大的开源模型,1.6 万亿参数,可以在 NVIDIA Blackwell GPU 上免费运行。」
官方实测,V4-Pro 在 GB200 NVL72 上单用户每秒输出超过 150 个 token。
简单回顾一下 V4 的参数。
V4-Pro:1.6 万亿总参数、490 亿激活、1M 上下文。
V4-Flash:2840 亿总参数、130 亿激活、1M 上下文。
两个都是 MIT 协议开源。
英伟达是典型的财大气粗。你甚至不需要注册登录就能体验。
就像这样。
资源刚上线,可能很抢手。
服务偶尔不稳定,token 输出速度有时候会掉。
但个人日常聊聊天,够了。
上教程。
02|注册英伟达开发者账号
打开 build.nvidia.com。
点击右上角 Login,输入邮箱。
接下来设置密码,点击 Create Account。
你的邮箱会收到一个 6 位验证码,复制粘贴进去。
随便输入一个账户名,点击 Create NVIDIA Cloud Account。
接下来验证手机号。
页面右上角会出现一个 Verify,点击。
输入手机号验证,亲测国内号码就可以。
03|获取 API Key
登录后,点右上角头像 → API Keys。
找到 Generate API Key。
给 Key 起个名字。划重点,过期时间可以调成 永不过期。
也就是 100 年。
点击 Generate Key。
你会拿到一个长这样的 Key:
nvapi-xxx_xxx
复制保存!
这个 Key 能调用 NIM 上所有免费模型,包括 DeepSeek-V4。
04|接入 Cherry Studio
这里以 Cherry Studio 为例。Claude Code 推荐用 CC Switch 切换 API 供应商。
不知道 Cherry Studio 是什么的,看我置顶文章。
点击左下角 设置 → 模型服务 → 添加,输入「老黄」,点 确定。
接下来配置连接信息。
API 密钥,粘贴你刚刚生成的 API Key。
API 地址,填入 https://integrate.api.nvidia.com/v1。
模型,重点加这两个 V4 的 ID。你可以手动添加,也可以点击 获取模型列表,然后添加。
-
deepseek-ai/deepseek-v4-pro -
deepseek-ai/deepseek-v4-flash
配置完,应该和下面这张图一样。

回到主界面,模型选择器里就能直接切到 V4 了。
可以嗨起来了。
除了 V4,还可以试试下面这些模型,都是开源的。
-
z-ai/glm-5.1、z-ai/glm-5 -
minimaxai/minimax-m2.7 -
moonshotai/kimi-k2.5 -
openai/gpt-oss-120b
V4-Pro 适合长上下文编程、文档分析这种重活。
V4-Flash 跑得更快,日常聊天够用。
但要泼一盆冷水。
新模型刚上线,抢手是肯定的。高峰期速度会慢,偶尔还会限流。
要当生产力工具用,还是建议用 DeepSeek 官方 API。
V4-Pro 限时 2.5 折,输入命中缓存 0.025 元、未命中 3 元、输出 6 元(每百万 token)。
V4-Flash 输入 0.02 元/1 元、输出 2 元。
英伟达 NIM 平台适合「现在就想试试 V4 到底什么水平」。
零成本,三分钟。
可以冲了。
本文来自转载AI信息Gap ,不代表发现AI立场,如若转载,请联系原作者;如有侵权,请联系编辑删除。

