V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
livc
0D
V2EX  ›  OpenAI

线上部署 llama 2 的最佳方式是什么?

  •  
  •   livc ·
    livc · Jul 19, 2023 · 3527 views
    This topic created in 1019 days ago, the information mentioned may be changed or developed.

    想到的几种方式

    1. 本地跑
    2. 用 replicate 的 api
    3. 用 aws 或微软的 api
    5 replies    2023-07-22 09:29:50 +08:00
    jangit
        1
    jangit  
       Jul 19, 2023
    线上部署第一种是不大可能的,还是要等 gptq 支持,不然现在 7b 以上消费级显卡都不够跑的
    livc
        3
    livc  
    OP
       Jul 20, 2023
    @captray #2 感谢 有预估需要多少钱吗
    GL8885
        4
    GL8885  
       Jul 21, 2023 via Android
    本地应该是能跑的,量化过的模型可以用 CPU 加内存跑,一个好点的主板最多可以插 192G 内存,主要是这样推理很慢。
    AIGod
        5
    AIGod  
       Jul 22, 2023
    用 GPU 服务器部署呢,如 V100 的服务器
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   1131 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 36ms · UTC 17:21 · PVG 01:21 · LAX 10:21 · JFK 13:21
    ♥ Do have faith in what you're doing.