V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
父节点
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 234 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 12  
littlemis 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢
littlemis  •  2025 年 3 月 18 日  •  最后回复来自 littlemis
4
zcm3579 如何估算一个大模型需要用到什么性能配置的硬件?
zcm3579  •  2025 年 3 月 19 日  •  最后回复来自 ChristopherY
16
ZimaBlueee A30 显卡-24G 显存,推荐部署什么大模型呢
ZimaBlueee  •  2025 年 3 月 28 日  •  最后回复来自 hefish
8
xkeyC 开发了个本地实时字幕 (Whisper + LLM api ) 软件,开源
xkeyC  •  2025 年 3 月 17 日  •  最后回复来自 xkeyC
2
feelapi ollama 支持的一些模型测试结果
feelapi  •  2025 年 3 月 13 日  •  最后回复来自 coefuqin
6
libasten 100 多号人的企业,想自己部署 deepseek,硬件要哪些?
libasten  •  2025 年 3 月 11 日  •  最后回复来自 tamshy
5
song135711 帮忙看看这个 DIY 装机配置大模型入门怎样
song135711  •  2025 年 3 月 14 日  •  最后回复来自 coefuqin
19
jhytxy q4 量化的大模型能比原版全精度的差多少?
jhytxy  •  2025 年 3 月 6 日  •  最后回复来自 mili100
2
HojiOShi Intel GPU 的 llama-bench 测试结果
HojiOShi  •  2025 年 3 月 5 日
v2er4241 求 DeepSeekR1 性价比硬件推荐
v2er4241  •  2025 年 3 月 7 日  •  最后回复来自 coala
59
MimicOctopus 咨询 GPU 服务器方案
MimicOctopus  •  2025 年 3 月 5 日  •  最后回复来自 tool2dx
11
1  2  3  4  5  6  7  8  9  10 ... 12  
第 101 到 120 / 共 234 个主题
256 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3256 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 32ms · UTC 12:27 · PVG 20:27 · LAX 04:27 · JFK 07:27
♥ Do have faith in what you're doing.