Liftman 最近的时间轴更新
Liftman

Liftman

V2EX 第 493197 号会员,加入于 2020-06-04 17:00:48 +08:00
今日活跃度排名 8945
Liftman 最近回复了
7 小时 7 分钟前
回复了 dajj 创建的主题 程序员 现在大家对 AI 编程的感觉怎么样 ?
其实就一个问题。你用的 ai 是否是目前的 sota ?。。。如果每天使用 gpt-5 和 gemini 和 grok4 和 opus4 的人我觉得不会问这些问题。。。。如果你还在使用落后的模型。那这个问题完全没有意义。完全不同步,不在一个频道。说锤子呢。。。。。
10 小时 50 分钟前
回复了 dsd2077 创建的主题 程序员 Cursor 让我越来越失望
@cwang22 有插件可以看当前用的 api 总价。哪怕算了缓存的情况下,依旧远超会员费了。。。200 刀的会员目前最高记录一个月网上的,是薅了几万刀。。。我们现在开发有一个积极性很高的地方就是,他们会很乐衷于往死里用。。。周末喜欢疯狂挂并行任务干点额外的开发。 绝对赚啊。如果你们老板心疼。可以 200 刀 2-3 个人一起用。。他暂时还没管控这块。但是月底开始可能会有一些限制了。。
@dong12138 有插件可以看当前用的 api 总价。哪怕算了缓存的情况下,依旧远超会员费了。。。200 刀的会员目前最高记录一个月网上的,是薅了几万刀。。。我们现在开发有一个积极性很高的地方就是,他们会很乐衷于往死里用。。。周末喜欢疯狂挂并行任务干点额外的开发。
因为豆包不是个 coder 模型。ds 的上下文非常短,也没有 coder 版本。qwen 略微搞笑。说句不好听的,你在拿 3 个不成熟的玩具尝试进行正经工作。

目前能打的模型只能 claude sonnet 和 opus 。而且只有 cc 和 augment 的个别 vibe coding 工具靠谱。
1 天前
回复了 dsd2077 创建的主题 程序员 Cursor 让我越来越失望
claude code max 欢迎你。而且我觉得不管从什么角度来说,20 刀的会员能帮上你的大忙,那要么是工作难度太低,要么是见鬼了。不能太指望了。换 cc max 。一天回本。
首先,这不是几个关键词能完成的工作,任何 vibe coding 都是大量的提示词对话构建的。当然不否认你可以用 agent 架构,让 plannar 去负责构建提示词和系统架构。但是颗粒度还是取决于开发者到底懂不懂要做什么。

其次我看评论区很多人可能甚至都没有用过 claude 或者 claude code ,对 ai 编程的印象还在八国联军那会。和我最近面试的很多应届生差不多。挺可悲的。

最后,我觉得如果只是想实现替代性功能,单纯的实现功能,不考虑复杂交互和 ui 的开发是可以实现的。
因为我觉得大家要明白一个问题,楼主提的软件都是为了人的操作而开发的,而如果未来的目的是给 ai 进行操作,是完全可以类似 claude code 走 cli 路线,这样反而是最适合 ai 的。抛弃所有的交互界面,因为最终目的也可能是只是用于某个 mcp 。

PS. 目前我们团队都是用 claude code max 会员,而且都是一天回本。如果靠 api 编程,那真是天价。但是给予的回报也是对应的。我在尽可能的让每个开发都进行独立的项目,最多 2 个开发并行。其实对于我们普通公司的开发团队而言,根本不可能遇到什么高级的复杂的开发任务,大部分还是业务的对接,细节的拉扯。只要能够站在总体开发角度,能够足够的拆碎开发需求,能够明确目标,vibe coding 的输出是很稳定的。别扯什么上下文太短,目前来说绝对不短了。不够用只能说你要么没有能力足够细化,要么就是还是一知半解的乱用 ai 。
@mfsw 就普通的厂就行啊。搬瓦工啥的。但是协议记得搞对。不然秒封 ip 。换一次 7 美金。
自己租一个 vps 就行了。自己架一下也就五分钟。。不要考虑 peo 。官方的预设提示词,内置的工具是无法比拟的。。。。纯 api 效果很拉跨。
28 天前
回复了 kiritoyui 创建的主题 NAS 优雅访问家里内网服务的方式讨论
我买的懒猫。。。因为我懒。
你不需要微调。其实最简单就是 2 个角度。1 。做成智能体。限制他回答其他通用问题。2 。加个知识库,塞点领域内的文本就行,不要管质量,只要数量。

然后这样吹:“

我们打造了一款面向 XX 行业的垂直领域大模型,它不仅是一个“懂行业”的大语言模型,更是一种对通用智能架构的深度垂直重构。

在数据层,我们整合了 超过 XX 万条高质量行业样本,总规模 XX 亿字的标注语料,覆盖了流程文档、结构化记录、实操指南、用户对话、异常日志等多个维度,形成完整的行业知识图谱与行为链路。

在模型层,我们基于当前主流的 Transformer 架构,引入了动态稀疏激活的 MoE ( Mixture of Experts )机制。通过在推理过程中动态选择不同专家路径,我们实现了模型在不同子任务间的能力分化与局部最优,每次前向仅激活 16%的参数,在显著提升性能的同时,大幅降低推理成本。

不仅如此,我们通过对行业任务进行标签驱动的专家路由学习,将模型专家层显式绑定到业务流程的不同模块,实现了“专人专岗”的智能推理路径。

同时,我们对模型进行了蒸馏与剪枝优化,在保留领域任务强表现的前提下,砍掉了超过 70%的冗余通用权重,使模型体积精简至原始的 40%,同时显著提升了加载速度与边缘部署能力。

更重要的是,在微调阶段,我们全面剥离了原始通用模型中与目标行业无关的知识残留,通过负迁移抑制 + 正则对比学习,显著提升了模型在行业问答、决策辅助、故障推理等核心场景下的稳定性与可解释性。

最终,这款模型在多个真实业务任务上交出了优异答卷:
• 召回率提升 32%
• 行业意图理解精度提升 29.4%
• 推理延迟降低 65%
• 平均部署成本下降 58%
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1150 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 18:11 · PVG 02:11 · LAX 11:11 · JFK 14:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.