
1 Meteora626 2 月 28 日 只和训练数据有关,和谁训练无关 |
2 1Satoshi 2 月 28 日 都是蒸馏出来的 ,一个爹妈生的 |
3 seven777 OP |
5 seven777 OP @sommio #4 非常感谢, 我发现的现象是,同一个话题或者需求, 同一家族的不同规模的 model 最终会趋于一致的结论; 而不同家族的 model 会很分裂,始终不能达成共识. 尤其是 OpenAI, 永远中庸且长臭, 永远不能和他达成共识. 何解? |
6 usVexMownCzar 2 月 28 日 via iPhone 天地会,小刀会,红门,青帮…分的可细了,与大模型交流的时候小心点 |
7 seven777 OP @usVexMownCzar #6 我举个例子, 一个功能评估, OpenAI 会考虑很多的边界情况,永远没有权衡和取舍或让步, 而 Claude 家族的会有取舍, Grok 家族的会有取舍和权衡....... - Grok 家族的,更像一个潇洒的帅哥, 先聚焦目标干起来, 管他死活... - Claude 家族的,更像是个博士后, 深入研究后告诉你,走 A 方案吧, B 的风险更大...... - OpenAI 家族的, SB 老登类型, 永远都比比来来, 这也不行,那也有问题, 永远不能和他共识. |
8 artiga033 3 月 1 日 via Android 像这样实验都没有完全控制变量吧,不直接调 api 的话,各家的 system prompt 乃至你自己账号的历史记录啥的都会影响,而且其实只要不是本地自己跑推理的模型,调别人 api 你永远也不知道黑盒里面到底是什么。 就算考虑这些变量都一样,其实观察到的行为也是合理的,毕竟训练数据对模型输出的影响很大,而且训练集才是真宝贝哪怕开源模型都很少有公开训练集的。 本质上这个其实就和你问模型“你是谁”一样,它们都统一回复你“我是 transformer 训练的神经网络”那反而比较可怕... |