上下文支持到 10 万 token ,已经人类记忆力
![]() | 1 Jacian 2024-03-05 10:40:00 +08:00 via iPhone 每个大模型都说自己超过 GPT4 ,看效果吧 |
![]() | 2 locoz 2024-03-05 11:03:32 +08:00 上下文长度通常看看就好,实际可以正常工作的长度会远低于宣称的长度,达到一定程度之后输出质量就会出现明显下降。 |
3 lyyQAQ 2024-03-05 11:03:50 +08:00 没怎么用过,看别人说 claude 封号特别严重 |
![]() | 4 Guesser 2024-03-05 11:12:51 +08:00 希望更多的优秀模型出来,openai 无脑封号太难用了 |
5 holulu 2024-03-05 18:33:16 +08:00 ![]() 刚测了,在逻辑推理方面是比 gpt-4 好的,多点模型卷起来挺好的,一家独大就没得选了。 |