V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  reeco  ›  全部回复第 2 页 / 共 56 页
回复总数  1118
1  2  3  4  5  6  7  8  9  10 ... 56  
302 天前
回复了 Jinnrry 创建的主题 Local LLM Google Gemma 开源没人讨论下吗?
效果不行,试了几个问题就没兴趣了
304 天前
回复了 CivAx 创建的主题 程序员 各位的家用服务器是 EXSi + OS 还是直接装 OS
debian + docker 纯手动
307 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@wclebb 能跑,7b 量化到 2bit ,iPhone 15 Pro 上就能跑了,但没什么用,模型上限太低了
308 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@ShadowPower 在我的 7950x 上面,llama.cpp avx512 有大约 10%到 20%的提升
308 天前
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
纯 cpu 跑买一块支持 avx512 的 cpu 加 32G 内存,跑跑量化 7b 的也还行。用 gpu 你那块 3060ti 跑 7b 也完全够了,单独配其实也可以考虑 amd rocm ,便宜大碗。但目前这块需求其实没那么强,跑起来新鲜劲一过,容易吃灰。
自己编译一下 llama.cpp ,一样的效果
不涉及系统开发,没有区别。所谓的开发环境不就是 IDE + 浏览器吗
318 天前
回复了 huiwang520 创建的主题 程序员 我对 Go 和 Rust 的看法
这种废话贴点进来真是浪费时间
线上 CPU 就 2 核,啥优化都没用
340 天前
回复了 shubiao 创建的主题 问与答 怎么把大模型微调成文本分类模型?
分类为什么要用大模型
预算 2w ,直接上 4090 ,1.5w 买 4090 ,剩下的 5k 按内存,cpu ,电源、主板,依次往下砍。
才 12 点,搁这养生呢
python 也是 binding 到 c++,直接用 java binding 到 c++不就好了吗,一个容器搞定。
2023-12-20 12:40:40 +08:00
回复了 newbee2000 创建的主题 分享发现 回顾 2023 年入手的电子设备
入手了 2x4090
2023-12-19 10:39:11 +08:00
回复了 hui9000 创建的主题 问与答 关于公司搭建 AI 问答的一些风险
请我当顾问,帮你搭一个完全私有部署的 :-)
2023-12-06 11:40:14 +08:00
回复了 steelshadow39 创建的主题 Java 讨论 Java 相比其他编程语言(c++, go, rust 等)的缺点
没有意义的讨论,不如花点时间用这几门语言分别写下 side project
2023-12-04 13:48:45 +08:00
回复了 gouguoyin 创建的主题 开源软件 如何评价.net 框架 furion 文档收费的商业化尝试行为
这种框架,没有任何技术难度
全用 vim ,你将感受不到各个平台的差别。开发只要 IDE 和浏览器就够了,其他都不是必须的吧。
2023-11-29 11:43:13 +08:00
回复了 luvmhx 创建的主题 Apple 有高德地图的同学解释一下为什么吗
iOS 那个 tts 声音更机械
2023-11-27 11:11:21 +08:00
回复了 Flourite 创建的主题 Go 编程语言 go 语言用起来好操蛋
不是繁琐,是 go 比较简陋
1  2  3  4  5  6  7  8  9  10 ... 56  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2478 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 93ms · UTC 02:54 · PVG 10:54 · LAX 18:54 · JFK 21:54
Developed with CodeLauncher
♥ Do have faith in what you're doing.