V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录

独立开发者节点

愿每一位独立开发者都能保持初心,获得一个好的结果.

hrzlvn
V2EX  ›  ☕Vibe Coding🤖

国产模型你们试下来谁更强

  •  
  •   hrzlvn · 20 小时 29 分钟前 · 4750 次点击

    我们做的是比较的复杂 agent ,目前试下来 kimi 效果最好

    49 条回复    2026-03-20 02:05:37 +08:00
    m952755064
        1
    m952755064  
       20 小时 26 分钟前
    别的没用过,GLM-5 还不错
    VeteranCat
        2
    VeteranCat  
       20 小时 25 分钟前
    不用纠结,glm kimi 这俩都差不多。 当然能用的话,最好还是 claude 。
    FaustinaD
        3
    FaustinaD  
       20 小时 24 分钟前
    各有各的拉
    wsseo
        4
    wsseo  
       20 小时 22 分钟前
    GLM-5
    新出的 minimax-2.7
    小米新出的 mimo-v2-pro
    doubao-seed-2.0

    如果编程不要用 qwen3.5-plus
    defaw
        5
    defaw  
       20 小时 21 分钟前
    昨晚上开了个 minimax m2.7,比之前的 m2.5 强多了,m2.5 的时候工具调用成功率也就 50%。
    感觉 m2.7 比 glm4.7 强一些,达到 composer1.5 的水平了
    skuuhui
        6
    skuuhui  
       20 小时 21 分钟前
    文无第一。如果是做商业产品,建议用 qwen 系列,并且过段时间你就发现原因了。
    mingtdlb
        7
    mingtdlb  
       20 小时 19 分钟前   ❤️ 1
    @wsseo 小米,你是来搞笑的吧
    soleils
        8
    soleils  
       20 小时 17 分钟前   ❤️ 5
    @mingtdlb 小米新出的 mimo-v2-pro, 效果不错
    cryptovae
        9
    cryptovae  
       20 小时 17 分钟前
    @wsseo

    哈哈哈哈
    `编程不要用 qwen3.5-plus`
    说明你也被坑到了啊,谁家好人把中英文中间强制加空格啊,真特么够了,一个小特性直接毁掉了一个应用场景
    ddczl
        10
    ddczl  
       20 小时 17 分钟前
    我用的 MiniMax ,满足我 90%的情况。昨天更新的 2.7 我还没怎么试,但是能处理我之前使用 2.5 时一个无法处理的问题了
    liu731
        11
    liu731  
    PRO
       20 小时 17 分钟前
    除去 Qwen 外全部拉跨(最近的 3.5 也跨完了)
    sean250031
        12
    sean250031  
       20 小时 10 分钟前
    投 kimi-k2.5 一票
    catazshadow
        13
    catazshadow  
       20 小时 0 分钟前
    谁偷 claude 偷的多谁好
    tinybaby365
        14
    tinybaby365  
       19 小时 59 分钟前
    QWen3.5 中英文间强加空格不是个案,感觉没训练好就放出来了。
    hrzlvn
        15
    hrzlvn  
    OP
       19 小时 56 分钟前
    @tinybaby365 indeed
    zhonghao01
        16
    zhonghao01  
       19 小时 48 分钟前
    GLM 5 / KIMI ,MINIMAX 中规中矩,其他就不要碰了。
    nnnnnnamgn
        17
    nnnnnnamgn  
       19 小时 31 分钟前
    glm5 凑合用,但贵,minimax 干小活可以
    xyzlucky
        18
    xyzlucky  
       19 小时 25 分钟前
    别的不知道,但是今天用了一下 Qwen3.5-Plus ,no ,不行。。。。。。。看他干活我心累
    redbeetle
        19
    redbeetle  
       19 小时 21 分钟前
    miniMax-M2.5 、KiMI-2.5 使用下来,感觉 KIMI-2.5 更好用些。首先是他的多模态就方便一些,miniIMAX 的 ai 幻觉比 KIMI 更重一点。但 miniMax 有个最大的优点就是便宜量大管饱。智谱的 GLM 没有使用,暂不评论
    fengge0002
        20
    fengge0002  
       19 小时 17 分钟前
    https://v2ex.com/t/1199441
    看看洗车问题的回答对比,kimi 的逻辑推理还是稍微差点。不过做 agent 也许更重要的是指令听从和工具调用能力
    EricSTG
        21
    EricSTG  
       19 小时 10 分钟前
    @skuuhui #6 请问是啥原因
    vthu57924
        22
    vthu57924  
       19 小时 1 分钟前
    感觉目前反馈最好的是 GLM-5
    CANTI
        23
    CANTI  
       18 小时 21 分钟前
    @cryptovae 好奇问下,中英文之间加空格应该是写作排版的常规操作,编程里中英文同时存在应该是注释或者日志?这里会有啥影响呢?
    ffxrqyzby
        24
    ffxrqyzby  
       18 小时 20 分钟前
    我进来之前以为是高达模型呢
    listenerri
        25
    listenerri  
       17 小时 58 分钟前
    @CANTI #23 新改动的代码倒是无所谓,但若是 LLM 擅自修改其他无关代码,甚至其他文件呢,就为了加特么空格

    不过这个问题在 AGENTS.md 里加上限制,不要它随意修改已有代码,也就差不多好了
    dunn
        26
    dunn  
       17 小时 50 分钟前 via Android
    评测每家都很厉害,实际都有差距
    Tink
        27
    Tink  
    PRO
       17 小时 37 分钟前 via Android
    实测是 kimi2.5 ,一亿有一亿的好
    congyoubanmian
        28
    congyoubanmian  
       17 小时 8 分钟前
    投 kimi2.5 光他识图不用专门调用 mcp 就比 glm5 和 minimax 强 逻辑上弱 glm5 一点,来自三个包年套餐用户体验
    WithoutSugarMiao
        29
    WithoutSugarMiao  
       16 小时 16 分钟前
    之前给小龙虾接的 minimax2.5 我觉得挺好用的。他们昨天又发布了 2.7 还没有测试,据说又有一些增强。
    Sezxy
        30
    Sezxy  
       16 小时 9 分钟前
    单写代码,glm-5 和 kimi-k2.5 目前够用,主要还是便宜,一个月一顿饭钱
    soleils
        31
    soleils  
       16 小时 6 分钟前
    miniMax-M2.7 专门给龙虾优化了
    soleils
        32
    soleils  
       16 小时 6 分钟前
    @WithoutSugarMiao miniMax-M2.7 专门给龙虾优化了
    JackeyLee233
        33
    JackeyLee233  
       15 小时 46 分钟前
    国内智谱家的还行
    jedeft
        34
    jedeft  
       15 小时 35 分钟前
    写代码方面,同时开了 cursor 和 开发 kimi code 2.5, 用起来 kimi 还是差一些。
    andyxialm
        35
    andyxialm  
       15 小时 13 分钟前
    今年高频使用过这些国内模型
    kimi k2.5 包月 coding plan
    minimax 2.5 包月 coding plan
    minimax 2.7 包月 token plan ,用了 > 24 小时
    glm 4.7/5 两个月付费

    大前端场景结合 claude code 场景,质量/推理速度 minimax 2.7 > glm5 > kimi k2.5 > glm 4.7 ,token 消耗没有对比,都是 coding plan

    真实体验绝无虚假,目前主力在用 minimax 2.7 ,有需要可以走我的 9 折链接: https://platform.minimaxi.com/subscribe/token-plan?code=1H2JTfmyFS&source=link
    zhmouV2
        36
    zhmouV2  
       14 小时 45 分钟前
    试用过几次 kimi 不知道有个啥 bug

    我叫它帮忙补一下函数注释 它把我函数第一行给删了:
    ```
    foo() {
    bar()
    }
    ```
    变成这样了
    ```
    // 乱七八糟的注释
    bar()
    }
    ```
    CNYoki
        37
    CNYoki  
       14 小时 43 分钟前
    现在 Qwen 已经上不了台面了吗
    Hilong
        38
    Hilong  
       14 小时 36 分钟前
    @CNYoki qwen 出了开源,确实能力上比不上其他几家的
    zhuangzhuang1988
        39
    zhuangzhuang1988  
       14 小时 36 分钟前
    deepseek 最强
    Karmicfire
        40
    Karmicfire  
       14 小时 35 分钟前
    各有拉点
    wsseo
        41
    wsseo  
       14 小时 23 分钟前
    @andyxialm minimax2.7 官方 API 为什么一次输出几十个字符,有办法控制一个个输出吗
    unclemcz
        42
    unclemcz  
       12 小时 32 分钟前 via Android
    用过 glm4.7 和 minimax2.5/2.7 ,个人感觉 glm 稍好。
    fs418082760
        43
    fs418082760  
       9 小时 27 分钟前
    @soleils 目前我用 API 调用不了
    frayesshi1
        44
    frayesshi1  
    PRO
       8 小时 46 分钟前
    @zhuangzhuang1988 #39 DS 又慢又 rate limit ,并且工具调用失败概率很大
    coefu
        45
    coefu  
       8 小时 35 分钟前
    只用了 local qwen3.5 9B 。我觉得还可以。
    jackqian
        46
    jackqian  
       7 小时 32 分钟前
    不要在垃圾国产模型上浪费时间和金钱,模型只有 opus 4.6 和 codex 5.4
    chqome
        47
    chqome  
       6 小时 44 分钟前
    还是千问厉害,其他都是垃圾
    coolair
        48
    coolair  
       6 小时 4 分钟前
    我用了 MiniMax 感觉很拉,用 2.5 的时候经常代码写不全。
    最近更新了 2.7 ,策略也改了,原来算 Prompts ,现在算模型调用,一会儿就用完了,TPS 也动不动就跑满。
    Librola
        49
    Librola  
       4 小时 39 分钟前
    @listenerri 这一点 antigravity 之前也是,总是擅自改我无关代码的格式(甚至改功能),因为这一点我直接放弃了 antigravity ,不知道现在好点了没😂
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1036 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 35ms · UTC 22:45 · PVG 06:45 · LAX 15:45 · JFK 18:45
    ♥ Do have faith in what you're doing.