V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
kid1412621
V2EX  ›  Local LLM

本地 llm client

  •  
  •   kid1412621 · 83 天前 via iPhone · 1000 次点击
    这是一个创建于 83 天前的主题,其中的信息可能已经有所发展或是发生改变。

    请问 local llm client 你在用什么?为什么?

    lm studio/cherry studio?

    Chathub/page assistant?

    5 条回复    2025-04-18 11:13:26 +08:00
    hefish
        1
    hefish  
       83 天前
    arg 直接 maxkb 。
    huluhulu
        2
    huluhulu  
       83 天前   ❤️ 1
    Diss 下 cherry studio
    协议变来变去(MIT->Apache2->AGPL->收费),最终变成开源但是商业用户不免费,最搞笑是下面一段话:

    * 我们欢迎社区对 Cherry Studio 的贡献。所有向本项目提交的贡献都将被视为在 **AGPLv3** 许可证下提供。
    * 通过向本项目提交贡献(例如通过 Pull Request ),即表示您同意您的代码以 AGPLv3 许可证授权给本项目及所有后续使用者(无论这些使用者最终遵循 AGPLv3 还是商业许可)。
    * 您也理解并同意,您的贡献可能会被包含在根据商业许可证分发的 Cherry Studio 版本中。

    MIT->Apache2->AGPL 阶段的贡献者代码都被你白吃了啊?
    huluhulu
        3
    huluhulu  
       83 天前
    商业用户不免费 -> 这个要求很严格,基本上你在企业用,就是违反协议的。
    kid1412621
        4
    kid1412621  
    OP
       82 天前
    @hefish #1 这是啥
    @huluhulu #3 我该暂时没意识到,但 Cherry 对 multimodal 支持太局限了
    kid1412621
        5
    kid1412621  
    OP
       82 天前
    @hefish #1 哦,原来是 1panel 开发的,感觉像 dify ,我的需求是像 openui 那种,但想要原生 client
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2396 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 15:40 · PVG 23:40 · LAX 08:40 · JFK 11:40
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.