V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  sillydaddy  ›  全部回复第 42 页 / 共 148 页
回复总数  2953
1 ... 38  39  40  41  42  43  44  45  46  47 ... 148  
2025 年 6 月 19 日
回复了 genPeterTohetang 创建的主题 创业组队 寻找志同道合的技术合伙人|优质项目启动中
@heziqiang 也可能是我把人想得太好了。他可能就仅仅是一个骗子而已。
2025 年 6 月 18 日
回复了 genPeterTohetang 创建的主题 创业组队 寻找志同道合的技术合伙人|优质项目启动中
缺乏最基本的换位思考能力,意味着你根本无法从用户的角度去考虑问题,去解决问题。
缺乏最基本的真诚,意味着跟你们合作是一个大坑。
2025 年 6 月 18 日
回复了 genPeterTohetang 创建的主题 创业组队 寻找志同道合的技术合伙人|优质项目启动中
说了半天等于什么也没说。

什么叫「志同道合」?
~你们的「志」是哪个方向,独立思考?
~你们的「道」又在哪里,硅谷?

什么叫「对项目有好奇心」?什么才叫「核心技术能力」?
~连你们的项目是什么都不知道,怎么知道是不是有好奇心?
~连你们都项目是什么都不知道,怎么知道需要什么核心技术能力?

我要是 Leader ,会先把你给开掉!什么信息都没有透露,还这呀那的。
@nomagick >““推理”的过程中需要不断向文本 round down”
感谢你的提醒,我确实没有注意到这点。我需要再去研究下。
不过,我可以提出 2 点反驳:
1 是大语言模型的训练,本身是在潜空间中进行的,这点上是没有问题吧?如果说 V-JEPA 2 通过训练获得了「世界模型」。那么说大语言模型没有获得任何语言深层的含义,就是极其不公平的。
2 是根据上面的理解,一个已经通过语言训练获得了「世界模型」的 LLM ,在推理时,尽管是自回归的,我从直觉上觉得,它不会因为什么每一步都向文本 round down ,就失去某些核心能力,变成一种「统计」。你说呢?

当然,上面的第 2 点,还需要我进一步去推理一下。但第 1 点,无论如何,也足以支持对杨立昆关于大语言模型只是「统计模型」立场的反驳。
> “Latent space 就是比文本空间什么像素空间靠谱啊,Latent space 是学习出来的”
LLM 有哪一点不符合? LLM 的嵌入向量不是学习得到的吗? LLM 有直接用高维的文字空间去做训练吗?
这都是初学者都知道的基本常识了,杨立昆他非要说自己的才是真理,其他的都是垃圾。看看他怎么评价 Sora 的?再看看他怎么评价自家的 V-JEPA 的。
2025 年 6 月 14 日
回复了 daodaolicai 创建的主题 推广 活钱 07 | 摆脱线性增长!复利思维养成术
不要推这些缺乏常识,误人子弟的东西了。
所有的投资,都是把一些本来可以消费的钱,借给别人。牺牲当下的享受,用利息来补偿。
所有的复利效应,都必须要考虑本钱数量,1 分钱哪怕复利到 1 块钱,花掉你 100 年,你肯干吗?
1%复利,365 天提升 37.8 倍,你的数学是体育老师教你的吗?你的人品又是谁教你的?
@NotLongNil 用什么数学证明,我还从来没听过数学可以证明像深度学习这样的东西。上面的对比还不够明显吗?
杨立昆就是一个笑话。倒不是说他不懂,而是他对 LLM 装傻充愣的样子。
@shmilypeter 嗯,我还以为 Opus 模型会不一样呢。
没有试过 Opus ,不知道消耗的 token 有多少,thinking 过程产生的 token 也计入在内吧?
请问楼主你说的 1 小时是连续工作吗?还是 Opus 编码过程中介你有介入呢?
2025 年 6 月 13 日
回复了 Asuler 创建的主题 TypeScript ts 有没有直接能查看最终类型的方法
直接写一个这个类型的变量,比如 a:TypeA ,然后写 a.b ,鼠标悬浮到 a.b 上,可以看到 b 的类型。如果 b 是函数,应该可以看到函数参数的类型。
今天又用 Cursor 来写代码,给到它一个问题之后,它自己去写测试用例,自己去测试,自己去添加打印信息,自己修改后运行。改完调试后,自己把打印信息、多余的测试文件删除掉。

只要有现实的约束和反馈,幻觉和造假就不是问题。
能不能分享一下是什么点呢?
2025 年 6 月 12 日
回复了 MiguelTapia 创建的主题 问与答 遇到剪映罕见 bug,这是在内容审查吗?
天呐,剪映是一个桌面端软件吧?意思是剪辑的东西都上传到剪映的服务器,然后某个 bit 翻转导致 blockID 串了?否则无法解释本地出现未知数据。
2025 年 6 月 12 日
回复了 drymonfidelia 创建的主题 程序员 充了 Google One, Gemini 的智商依旧是所有 AI 垫底
现在的大模型啊,你根本不知道它们什么时候会「降低智商」。大模型本身就是一个黑盒了,黑盒外面还要套一层黑盒。
@fbxshit 哈,我刚刚也想到了,我觉得是可以的。
假设 A 还是给 B 发了一句“北京的糖葫芦是不是很有名? ”(不包含隐藏信息),大语言模型正常的输出是“ 没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口。”。
在每输出一个 token (可以看作是一个汉字)时,A 和 B 的大语言模型以及随机数发生器都完全处于同步状态。
就像你说的,我们可以介入这个过程,让二进制串嵌入到这个生成过程,比如在生成第一个字“没”时,其实大语言模型生成的是一个(0.2, 0.5, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ...)向量,这个向量与“没”(0.2, 0.4, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ..),以及“不”(0.1, 0.5, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ..),以及“对”(0.2, 0.5, 0.9, 0.8, 0.7, 0.25, 0, 0.32, ..)。。。这些字最接近。然后根据接近程度,分配给“没”,“不”,“对”等这几个字,分别以(0.25, 0.3, 0.3,...)的出现概率,这时开始使用伪随机数摇骰子,我们其实是知道伪随机数在这一步一定是输出一个确定的数字,比如是 200 ,它对应到“没”字。但是我们可以介入这个过程,如果我们希望将 1 这个 bit 位加入进来,我们可以让伪随机数继续输出 200 之后的下一个数字,比如 312 ,这时它仍然映射到“没”,不符合我们的要求,继续输出再下一个,直到与“没”字不一样,比如输出 123 ,映射到“不”字,这时我们通过“相对于原本要输出的字的改变”这个现象,编码了一个 1 进去,如果希望编码 0 ,那就不改变原始输出的字。

后面可以继续这样处理,每输出一个 token ,都可以至少编码 1 个 bit 进去。当然了,有时候,如果几个字的概率分布是(0.99, 0.01, 0.01, ...)这样,那就不要强行编码 bit 1 进去了,因为可能会让文字变得不通顺。我感觉大部分情况下,是完全可以编码 bit 1 的。甚至可以每个 token 编码多个 bit 进去,如果有多个字出现的概率相似,比如(0.1, 0.1, 0.1, 0.1, 0.1, ...)。

这个方案优点就是可以非常精确的编码和解码,不需要人工介入,生成的语句还非常自然。利用的关键就是伪随机数发生器的确定性和同步。
@fbxshit >“要求它每一句话前面 10 个字,每个字的笔画分别为 7798666995”
也许是你要求的信息密度太高了。10 个字还要隐藏这么多信息,还有符合语句通顺,还有语义连贯,这是 mission impossible!
另外大语言模型对笔画、字数这些都非常不擅长。所以可能需要从其他角度考虑,或者降低一些信息密度。
可以的。关键原理是:大模型的输出可以是完全确定性的。

给定大语言模型一段输入,它的输出看起来是随机的,是概率性的。也就是每次给同样的输入,它的输出都不同。但是,在计算机界,就没有真正的随机。这里的关键是,大语言模型每次输出一个 token ,其实它输出的是一个表达 token 的一个向量,比如(0.2, 0.5, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ...),我们要将它解释成具体的 token 。为什么说是解释呢,因为这个向量并不与任何一个已知的 token 一致。只是与已知的 token 接近,而且与不同的已知 token 的接近程度不同。如果你了解向量的知识,这点很容易理解。但是,我们需要把向量转换成已知的 token ,所以,我们根据向量跟不同 token 的接近程度,赋予每个 token 一个出现的概率,然后我们生成一个随机数(就像掷骰子),决定最终选择哪个 token 。这个过程就像北京的汽车摇号。

可以看到,随机性完全决定于我们的随机数,而计算机学界使用的基本都是伪随机数,每次随机看起来生成的数不一样,但它完全是确定性的。

你和接收方,可以使用一个相同的大语言模型,然后约定使用相同的随机数发生器。这样,对于同样的输入,你们的大语言模型,将给出完全相同的输出。

有了前面的 2 个大语言模型绝对同步的保证,后面就是将字符串编码到对话中了。
比如 A 先发起对话,“北京的糖葫芦是不是很有名?”,这句话不加入任何信息。那么 A 和 B 都完全知道 B 的回复内容。那么传送信息就简单了,可以用大语言模型将 B 的回复内容加入信息,比如通过声调的变化。外界不知道 B 原本要回复的内容,所以它解密不出来,但是 A 是知道的,所以,它相当于有一副原本,可以发现 B 的回复内容有哪些修改,进而解密。
现在,A 和 B 已经进行了一轮对话,怎样继续呢?可以在 B 的回复后面,加上一句隐藏的提示词“请继续 A 的提问”,驱动大语言模型继续给出 A 的问话。
然后 A 就可以在大语言模型给出的回复里面再加入信息给到 B 了。
1 ... 38  39  40  41  42  43  44  45  46  47 ... 148  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2860 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 43ms · UTC 04:41 · PVG 12:41 · LAX 21:41 · JFK 00:41
♥ Do have faith in what you're doing.