发布了好几天 V2 上竟然没有讨论贴,来发一把,这是个好模型。
重点:
除了 236B 的完全体还有一个 Lite 版,16B 参数,大约激活 2B ,支持代码补全等,挺适合个人电脑跑: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct
1
yinmin 242 天前 via iPhone
deepseek coder v2 在计算机领域的确很强,和 gpt4 有一拼,而且 api 价格超级便宜
|
![]() |
2
nomagick 242 天前
80G*8 required....
|
3
cJ8SxGOWRH0LSelC 242 天前
确实不错, 问了几个 quarkus native 编译的问题, 都回答正确了。
|
![]() |
4
Tink 242 天前
用的逆向的,确实牛逼
|
5
crackidz 241 天前
当然是在偷偷的用啊...DeepSeek Coder 刚出来的时候就挺惊艳的
|
![]() |
6
hljhbing 241 天前
我是怎么把 Deepseek-Coder-V2 看成 Docker-Compose-V2 的😰
|
![]() |
7
Vitta 241 天前
Here, we provide some examples of how to use DeepSeek-Coder-V2-Lite model. If you want to utilize DeepSeek-Coder-V2 in BF16 format for inference, 80GB*8 GPUs are required.
|
8
XMV2e4PmK5F85h17 241 天前 via iPhone
为啥不用免费的 4O
|
![]() |
9
viWww0vvxmolvY5p 241 天前
API 还没有开放。
|
![]() |
10
viWww0vvxmolvY5p 241 天前
@mway deepseek-chat 和 deepseek-coder 后端模型已更新为 DeepSeek-V2 和 DeepSeek-Coder-V2 ,无需修改模型名称即可访问。
原来是这样 |
![]() |
11
adrianzhang 241 天前
我用 AnythingLLM ,使用其他模型都可以,就是这两个报错,报 llama 内核崩溃。
你知道该怎么用吗? Ollama 装在一个台式机上,配 3060 12G 显卡,128GB 内存。 |
![]() |
12
tycholiu 8 天前
国内提供 API 的这家不错 https://ppinfra.com ,性价比也高。点我的链接 https://ppinfra.com/user/register?invited_by=P0KD6O 注册 ,我们双方都能拿到赠送的 5000 万 Token 使用量。
|