
![]() |
帮忙看看这个 DIY 装机配置大模型入门怎样 song135711 • 170 天前 • 最后回复来自 coefuqin | 19 |
30min 搭建本地运行的 General AI agent, 多模态,自扩展,还支持语音! stevenlu137 • 178 天前 • 最后回复来自 stevenlu137 | 1 |
为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用 mili100 • 173 天前 • 最后回复来自 musi | 6 |
q4 量化的大模型能比原版全精度的差多少? jhytxy • 178 天前 • 最后回复来自 mili100 | 2 |
![]() |
Intel GPU 的 llama-bench 测试结果 HojiOShi • 179 天前 |
![]() |
求 DeepSeekR1 性价比硬件推荐 klo424 • 177 天前 • 最后回复来自 coala | 59 |
咨询 GPU 服务器方案 Legman • 179 天前 • 最后回复来自 tool2dx | 11 |
![]() |
大模型私有化是怎么集群部署的? mingtdlb • 180 天前 • 最后回复来自 volvo007 | 6 |
![]() |
ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全? icemanpro • 181 天前 • 最后回复来自 mmdsun | 9 |
8 卡 H100 部署 DeepSeekR1 求助 zhyim • 180 天前 • 最后回复来自 weiming | 15 |
公司一个台式机想作为服务器部署本地大模型,怎么在局域网使用呢 xinhaiw • 174 天前 • 最后回复来自 cander0815 | 21 |
8 路 L40 部署 R1-671B 上限是多少呢 jinja27 • 189 天前 • 最后回复来自 jingzf0214 | 10 |
有开源的可联网搜索的 ollama UI 项目推荐吗 goashore • 183 天前 • 最后回复来自 coefuqin | 14 |
![]() |
DIFY 这类产品会成为主流吗,交互逻辑咋这么复杂,感觉没自己写代码方便 wushenlun • 188 天前 • 最后回复来自 ericguo | 2 |
![]() |
各位大佬, m4mini32g 跑大模型🐂🍺还是 4060ti16g🐂🍺呀? songche • 194 天前 • 最后回复来自 chor02 | 22 |
大佬们有没有基于大模型的推荐系统 demo spitfireuptown • 196 天前 • 最后回复来自 murmur | 9 |
ollama 如何手动下载模型? mrleft • 192 天前 • 最后回复来自 h4ckm310n | 15 |
求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090 duanrancosmos • 199 天前 • 最后回复来自 Gnihton | 6 |