V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
爱意满满的作品展示区。
e13lau
V2EX  ›  分享创造

趁着 MCP 的热度,我给 Linu AI Chat 集成了 MCP Client

  •  
  •   e13lau · 13 小时 46 分钟前 · 295 次点击

    这个项目是什么

    Linu 是一个支持填写你自己的 key 与多个不同的大语言模型端点的 AI 聊天软件,比如 OpenAI ,Claude ,302.AI 等等。

    现状

    MCP 出来后,X 有一些讨论热度,我也去研究了一下,感觉未来可期。

    因为 MCP 是 LLM 调用工具函数的一套接口协议,最重要还支持本地调用,数据安全也更有保障。

    Claude 客户端的 MCP 试用了一下,体验比较拉跨,并且要全局翻墙才能用。

    然后说回 Linu 是我之前独立开发的一款 AI 聊天应用,

    MCP 协议出来之后我也尝试集成进来,

    到上周终于调通了。

    这里可以下载试用 https://github.com/E13Lau/Linu

    目前还是 alpha 版本,仍然有比较多的 bug

    但仍然想发个贴,因为想知道大家对此是否感兴趣。

    image

    3 条回复    2024-12-19 18:19:36 +08:00
    yichu
        1
    yichu  
       5 小时 53 分钟前
    支持 Sampling 么,有点好奇想看看 Sampling 在 MCP Client 中具体的实现
    e13lau
        2
    e13lau  
    OP
       5 小时 38 分钟前
    @yichu 目前没有支持,看了一下,似乎是服务端可以主动发起让客户端完成一次和模型的对话。周末我尝试支持一下,但是查了一下只有一个 MCP Server Demo 支持 Sampling ,目前生态还比较匮乏。
    yichu
        3
    yichu  
       5 小时 26 分钟前
    @e13lau 差不多,我理解的是可以实现 “你让我回答这个问题,你首先要回答我的另一个问题” 的这种情况,过程中还需要 Client 和 User 交互来进行确认,甚至 Sampling 发起的对话也是可以使用其他 sever 的。这样的话感觉确实有点有意思,不过很难操作啊
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2500 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 15:46 · PVG 23:46 · LAX 07:46 · JFK 10:46
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.