V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  MIUIOS  ›  全部回复第 3 页 / 共 47 页
回复总数  928
1  2  3  4  5  6  7  8  9  10 ... 47  
18 天前
回复了 1up 创建的主题 问与答 小红书要被查什么?
小红书还有审查? 感觉啥都可以发
19 天前
回复了 wenkgin 创建的主题 Local LLM AI 本地化部署的方式
多少 B 的? 本地部署大语言模型纯降智成智障,还不如接 api 真的,花点钱还省了多少电费
你是说 trae 的国际版? 直接开 tun 模式
21 天前
回复了 libasten 创建的主题 互联网 阿里这次要干死美团?
@pigpigxia 梗小鬼, 阿里开源了多少 AI 模型,甚至连文生视频图生视频这种能商业化的模型都开源了, 还想要咋样,这些亏本业务靠什么养着,最终还不是要靠这些真正赚钱的的业务,没钱谈什么理想
21 天前
回复了 MRG0 创建的主题 宽带症候群 接段光纤居然要 400 块
这个价格太正常了,它是按一天的工钱去算的,基本上也是要忙活个半天才完工
问了 8.6 和 8.10 哪个大? 回答如下:
8.10 大于 8.6 。
原因:
版本号中的数字从左到右依次递增,且每位数字按十进制比较大小。例如:
。主版本号(第 1 位)相同的情况下比较次版本号(第 2 位)。若主版本号不同,则直接对比主版本号
结论:8.10>8.6 。
传统大模型普遍采用 Transformer 架构,其计算复杂度随序列长度呈平方级增长,导致训练和推理成本居高不下。SpikingBrain-1.0 突破性地引入脉冲神经元技术,构建了线性( 7B 参数)和近线性( 76B 参数)复杂度模型。测试数据显示,在 GPU 环境下处理 100 万长度序列时,其首个 Token 生成速度较主流模型提升 26.5 倍;处理 400 万长度序列时,保守估计速度提升超过 100 倍。移动端测试同样亮眼,在手机 CPU 上处理 6.4 万至 25.6 万长度序列时,解码速度较同规模 Llama3.2 模型提升 4.04 至 15.39 倍。
那你想个好点的词来
《大厂都发生过不小心在日志输出用户明文密码的事件》
没听说,至少我不会把用户登录信息输出到 log 上,没啥意义也不必要这么做
建议提离职
excel 秒了
26 天前
回复了 mystical 创建的主题 Java 有写 Java 的么,你们的 jdk 还是用 1.8 么
@iloveios 写 php 的也一样,这种语言就那样了,本身为业务而生
26 天前
回复了 young1 创建的主题 程序员 大模型吐 JSON
先看模型支不支持结构化输出,不支持结构化输出的模型,你提示词在怎么写他都会出现幻觉, 我现在也遇到这个问题哦
amd 跑模型? 很难评价
26 天前
回复了 tangmanger 创建的主题 数据库 你们平时手撸 SQL 多吗?还是 ORM 优先
从不手写 sql ,都是查出来拼接,比 sql 好维护
@tomatocici2333 懂得,马上菠菜就要来了
29 天前
回复了 ok168168 创建的主题 问与答 年轻人有记得中元节的吗?
每个地方的叫法都不同
29 天前
回复了 wuruxu 创建的主题 程序员 为了魔改 chromium, 点满了各种技能树
@iv8d C 语言也是高级语言,java 快是因为它只是转义成了 jvm 能识别的字节码,jvm 运行的时候再编译成二进制, 而 C 语言这种编译出的产物就是二进制
1  2  3  4  5  6  7  8  9  10 ... 47  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1129 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 39ms · UTC 17:07 · PVG 01:07 · LAX 10:07 · JFK 13:07
Developed with CodeLauncher
♥ Do have faith in what you're doing.