V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ragnarok19
V2EX  ›  Local LLM

本地部署了大模型如何有效利用?

  •  
  •   ragnarok19 · 16 小时 6 分钟前 · 401 次点击

    我是 amd7h12 ( 64h128c )+30902+128gb8 用 ktransformers 跑满血版 deepseek-r1 很卡,现在用 llama.cpp 双卡跑 seed-oss-32b-q4

    1 条回复    2025-09-29 07:16:21 +08:00
    YsHaNg
        1
    YsHaNg  
       8 小时 17 分钟前 via iPhone
    11434 端口开公网
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5266 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 20ms · UTC 07:33 · PVG 15:33 · LAX 00:33 · JFK 03:33
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.