1
forbreak 8 小时 18 分钟前
个人理解错了勿喷。 现在的大模型是大语言模型靠的是黑盒计算,每个字后面的字出现的概率来实现回答的。 训练资料里面那个概率大就输出那个,并不能保证一定正确。 所以才有 ai 投毒污染回答。 所以不是 ai 全知全能是 ai 预测了你这个问题的回答,每个字应该出现的顺序。 单独一个专业的资料可能不够投喂到 ai 大模型能够正确预测的水平。
|
2
AEDaydreamer 8 小时 11 分钟前
都是通用模型, 但是很多冷门知识质量不高, 准确率也有限.
|
3
sjdhome 7 小时 41 分钟前
大模型是一个概率模型,默认情况下的水平是看它的训练程度。如果能直接给它提供领域内的一手资料,能答得更好。
|
4
cairnechen 7 小时 40 分钟前
/t/1202034
昨天别的帖子里讨论过: 未来应该有且只有通用的 agent (模型),垂直领域的知识会内化成通用模型的能力 场景→方案,是软件的思维方式。模型时代,是训练→获得通用能力→微调/提示词工程解决行业问题的思路。 |
5
jifengg 7 小时 34 分钟前
很多专门出“Code”的大模型,不就是在编程方面更精通么?
也有专精“数学”的大模型。 另外新闻经常看到医疗方面的大模型 |
6
Chicagoake 7 小时 27 分钟前
具体要看训练数据,比如阿里的阿福是医疗咨询类,你问他疾病、用药问题获得的答案大概率比编程类获得的回答更好。(这里用更好,而不是更对、更准确)
|
7
Dispatcher 7 小时 20 分钟前
取决于样本和 nn 。
如果样本有,那么可以娓娓道来,如果样本没有,但是训练过类似的,那么可以胡编乱造;如果样本没有,且训练不好,那么就是无法回答。 ai 模型的能力边界取决于样本,所以无法回答无解问题,比如核聚变可行性方案,超光速飞船,但是可以回答你认知外它却知道的东西,对于很多人来说是打开了新世界大门。 ai 不擅长完整回答,比如说让它一字不差输出《海边的卡夫卡》,肯定不行。但是它可以输出大意,因为它不是完整保存数据,而是拆成一个个字、词,记住字词的对应关系。 |
8
bu9 5 小时 57 分钟前
大语音模型理解你的意思,专家模型回答你的问题。 豆包背后是海量模型调度。
|