
![]() |
有同时支持 openai 和本地模型的客户端吗? frankyzf • 290 天前 • 最后回复来自 wangshushu | 4 |
![]() |
如何根据微信聊天记录,训练出一个自己语气的机器人对外使用 ggbond2233 • 311 天前 • 最后回复来自 manbamentality | 3 |
![]() |
cursor 搭配上自己的 openai apikey 实现的是完整功能吗? idblife • 306 天前 • 最后回复来自 PlusW | 6 |
![]() |
基于内部知识库管理,创建问答机器人 skykk1op • 312 天前 • 最后回复来自 Barhe | 1 |
![]() |
Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型? adrianzhang • 312 天前 • 最后回复来自 adrianzhang | 7 |
![]() |
离网 Centos 服务器部署 Qwen-2.5-Coder leoSup • 314 天前 • 最后回复来自 dcdlove | 6 |
![]() |
Llama 3.3 70B
Livid PRO |
21 |
![]() |
Qwen2.5 72B 是最好的本地代码补全模型 Leon6868 • 315 天前 • 最后回复来自 pakro888 | 15 |
关于运行 Lightrag 官方示例报错的问题 mdb • 319 天前 • 最后回复来自 Xs0ul | 1 |
![]() |
Apple 统一内存适合运行 LLM?理想很丰满,现实很骨感 hjc4869 • 177 天前 • 最后回复来自 noogler67 | 8 |
![]() |
8x4090 离线部署 Qwen2.5 求助 fid • 320 天前 • 最后回复来自 fid | 40 |
![]() |
exo + MindMac = 完全跑在 localhost 上的接近 ChatGPT 的体验
Livid PRO |
15 |
![]() |
各位的 m4 设备都陆续到货了,能否跑一下 ollama/llama.cpp ,看看大模型这块的算力究竟比 m1 max m2 ultra , 提升有多少? beginor • 233 天前 • 最后回复来自 ohblue | 25 |
本地模型如何优化"大"文件? ttut • 331 天前 • 最后回复来自 zachariahss | 1 |
![]() |
推荐一个最近很喜欢的自部署书签管理 Hoarder yir • 333 天前 • 最后回复来自 mooyo | 1 |
mac 有什么方案本地跑 ai 字幕 Jaie • 332 天前 • 最后回复来自 qbmiller | 9 |
![]() |
体验了 Qwen2.5 Coder 32B 之后,我觉得本地 LLM 能用了 ShadowPower • 337 天前 • 最后回复来自 yanyuechuixue | 98 |
代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算? raw0xff • 343 天前 • 最后回复来自 poorcai | 28 |
![]() |
有没有非常小型的开源 ai 项目,想根据每个账号的视频标题做分类 Joshuahui • 357 天前 • 最后回复来自 june4 | 3 |