![]() | 1 coefu 15 天前 想一想就行了,目前你这个想法整个业界也没有什么 80 分的方案。 |
![]() | 2 Solix 15 天前 ???别闹了,7b 全精度显存需求:大约 28~32 G ,量化 8/16G 能运行,然后跑起来有啥用,它能搞指令遵循还是结构化? |
![]() | 4 play78 15 天前 如果只是固定单词指令,现在 AIOT 芯片和方案就有现成的。便宜的几毛钱的芯片就内置了。淘宝搜索“LED 语音灯”,准确率比大模型准非常多。 |
6 jacketma 15 天前 自己部署这个就可以 huggingface.co/Qwen/Qwen2.5-Omni-7B |
7 bigtear 15 天前 小米的智驾用的是一个 128g 显存的 NVIDIA 开发版,你可以试试能不能调用它 |
9 ca2oh4 15 天前 固定指令的话,乐鑫都有成熟的方案可直接用了 |
10 imliuruiqi 15 天前 非要本地的话也有一些量化后的小模型,但效果可能需要你自己实验一下 相关研究可以顺着 huggingface 的 smollm 去找: https://huggingface.co/blog/smollm |
12 skallz 15 天前 我觉得你这个方案就想错了,应该是做一个语音识别,然后根据关键词,去做对应的操作,而不是接入 llm 大模型。。。 |
14 humminwang 15 天前 gemma 3 270m 可以试试 500 多 MB 内存即可 |
![]() | 15 wheat0r 15 天前 我理解这个 OP 的这个逻辑,人是很复杂的,很多时候用户并不会给出指定的指令,确实需要端侧具有一定的思考能力。 比如用户可能并不会说“播放歌曲千万次的问”,而是说“给老子整个刘欢那个 ask 啥的歌” |
![]() | 18 maokg OP |