V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 196 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10  
kevan 求助,我笔记本的 4060 跑 语言模型很困难吗?
kevan  •  2024-10-14 15:37:56 +08:00  •  最后回复来自 chronos
1
songray 本地跑大模型代码助手还挺好用
songray  •  2024-09-24 11:48:03 +08:00  •  最后回复来自 tabc2tgacd
6
ChipWat mac mini 24g 大模型推理怎么样
ChipWat  •  2024-08-14 21:51:51 +08:00  •  最后回复来自 xing7673
27
ddvswgg 关于在本地部署开源模型的一些问题请教
ddvswgg  •  2024-08-13 17:42:35 +08:00  •  最后回复来自 CynicalRose
9
Vitta intel mbp 有办法用 gpu 给 ollama 提速吗
Vitta  •  2024-08-13 11:58:35 +08:00  •  最后回复来自 Vitta
6
mumbler win&mac 下开箱即用的本地大模型+知识库,支持数十种开源模型
mumbler  •  2024-08-28 08:46:50 +08:00  •  最后回复来自 mumbler
18
CNYoki ollama 本地模型 GPU 跑不满
CNYoki  •  2024-07-24 15:03:17 +08:00  •  最后回复来自 clemente
12
idblife Tesla V100-DGXS-32GB 这张卡能用来跑 ollama 或者 vllm 不?
idblife  •  2024-09-25 16:26:03 +08:00  •  最后回复来自 woscaizi
2
cinlen 本地跑 sd 和 local llm 推理, 什么显卡性价比最高?
cinlen  •  2024-07-01 11:02:47 +08:00  •  最后回复来自 crackidz
38
Azure99 分享一下自己训练的大模型
Azure99  •  284 天前  •  最后回复来自 ibox163
54
qweruiop 求推荐能同时链接 chatgpt 和 ollama 的 webui
qweruiop  •  2024-07-18 14:20:32 +08:00  •  最后回复来自 kangfenmao
3
wencan 有什么高性价比的开源大模型体验和生产部署服务?
wencan  •  2024-06-11 10:40:44 +08:00  •  最后回复来自 bkdlee
7
whyorwhynot 支持不同显存显卡的推理加速框架
whyorwhynot  •  2024-05-30 18:15:45 +08:00  •  最后回复来自 whyorwhynot
4
Tuatara 现在买 3090TI 玩 AI 靠谱吗
Tuatara  •  2024-05-24 05:35:42 +08:00  •  最后回复来自 glouhao
91
wxd21020 配置小主机跑大模型
wxd21020  •  2024-05-30 01:17:13 +08:00  •  最后回复来自 hootigger
83
1  2  3  4  5  6  7  8  9  10  
第 141 到 160 / 共 196 个主题
209 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3241 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 11:21 · PVG 19:21 · LAX 04:21 · JFK 07:21
♥ Do have faith in what you're doing.