V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
hqwuzhaoyi
V2EX  ›  分享创造

为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama

  •  1
     
  •   hqwuzhaoyi · 280 天前 · 1510 次点击
    这是一个创建于 280 天前的主题,其中的信息可能已经有所发展或是发生改变。

    https://github.com/hqwuzhaoyi/bob-plugin-ollama

    但是 llama 的翻译能力有点捉急,各位大佬有没有好主意

    image

    5 条回复    2024-03-16 03:23:57 +08:00
    unclemcz
        1
    unclemcz  
       280 天前 via Android
    试一下 qwen:7b 及以上,不管准不准,至少翻译出来的句子是顺畅的😃
    hqwuzhaoyi
        2
    hqwuzhaoyi  
    OP
       280 天前
    @unclemcz 哈哈哈,谢谢,我来试试😆
    barryzhai
        3
    barryzhai  
       278 天前 via iPhone
    直接用 openai 那个接口就行,不需要写另外的插件,ollama 支持 openai 格式的 api
    hqwuzhaoyi
        4
    hqwuzhaoyi  
    OP
       277 天前
    @barryzhai 原来是这样,再去试试,奇怪的知识有增加了,我把教程剖出来
    barryzhai
        5
    barryzhai  
       277 天前 via iPhone
    @hqwuzhaoyi openai 插件填写 ollama 本地 api 记得加上 v1/那个后缀,然后密钥随便写
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5461 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 08:43 · PVG 16:43 · LAX 00:43 · JFK 03:43
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.