





























1 neteroster Jun 9, 2024 via Android 很好的测试。Qwen2 确实是非常优秀的一组模型,特别是多语言能力方面的改进可圈可点。阿里选择将模型(除 72B )以 Apache2.0 开源也是非常慷慨。期待未来更强的模型。 |
2 freshgoose Jun 9, 2024 楼主你这个网页是什么软件来着,有点眼熟,但想不起来了 |
3 ogli324 Jun 9, 2024 想看和 gpt4/o 的横评 |
4 yankebupt Jun 9, 2024 才发现是 7B Instruct 而不是 72B 就可以做这些……这是个民用单显卡能跑的模型啊…… 速度还真是快 |
5 Znemo Jun 9, 2024 使用体验上主观感觉不如 qwen 14b ,所有开源模型,每次看介绍和测评都贼厉害,真用起来就不是那么回事 。 |
6 crackidz Jun 9, 2024 @Znemo 其实什么模型都需要根据场景上手 benchmark 一下,当然使用姿势也需要调整一下:有些 GPT-4* 可以直接处理的,换成一些小模型需要用一些额外的姿势,相同的处理方式会看出能力差异 |
7 mightybruce Jun 9, 2024 mark 一下。有时间我试试 |
8 kenvix Jun 9, 2024 部署了 Qwen2-72B-AWQ ,针对翻译场景,明显更喜欢说废话,尽管 Prompt 已经要求直接给出翻译结果不要说别的。Qwen2 的感觉 RLHF 没做好,明显比 1.5-110B 倒退了很多 |
9 kneo Jun 9, 2024 用 ollama 试了下 7b 模型,确实有进步,能完成之前完成不了的任务。我之前有两个用 gpt3.5 能轻松跑出来的简单任务,用 ollama 试过所有 4090 卡能跑的模型,没一个能完成的。qwen2 算是第一个能跑出来的。 |
10 smalltong02 OP |
11 smalltong02 OP |
12 smalltong02 OP |
13 smalltong02 OP |
14 smalltong02 OP |
15 smalltong02 OP @mightybruce 您要自己测试的话,需要在 Google Cloud Platform 上注册自己的账号,并且生成 OAuth 2.0 的凭证,下载 Json 格式的 Token 之后再导入到 WebUI 中就可以使用了。 |
16 smalltong02 OP |
17 smalltong02 OP |
18 CNYoki Jun 10, 2024 via iPhone 现在在用 qwen110b 做实体抽取+推理,感觉跟 gpt4o 还是差很多 |
19 kenvix Jun 10, 2024 @smalltong02 #16 我感觉是需要微调了 ![]() |
20 wwvvance Jun 18, 2024 请教一下, qwen2 模型是什么形式跑起来的, ollama 启动方式是不是不支持函数调用, 要用 qwen-agent, 但我发现 qwen-agent 不兼容 langchain 的类, 有点苦恼不知道如何整合. 提前感谢. |
21 smalltong02 OP @wwvvance 对于原生支持 Function Call 的模型,比如 OpenAI ,Gemini 和 Kimi 等,我都使用它们提供的接口来进行函数调用。对于不支持函数调用的模型,我使用预置的提示词技术来实现的函数调用功能。Baidu 和 Qwen 的模型原生是支持这个功能的,但是因为需要安装其它的库有点冲突,所以暂时把它们当成不支持来对待的。 |
22 smalltong02 OP |
23 daisyfloor Jul 5, 2024 via iPhone @smalltong02 请问这个做内容生成 翻译 会有内容审查 敏感词 404 的问题么 以及隐私问题 |