
1 ysheep 2024-01-11 10:45:49 +08:00 3 大厂 Z 板+好颗粒内存 超频 会增加显卡的利用率,但是价格的代价会比较大,自己评估吧 |
2 sunny352787 2024-01-11 10:53:46 +08:00 AI 显存容量更重要,显存不够都跑不起来,GPU 快不快其实意义不大,要只是随便玩玩的话 4060ti 够了 |
3 tallie 2024-01-11 11:07:54 +08:00 4060ti 都有 16G 的版本了吗? 什么价位大概? |
4 ikw 2024-01-11 11:07:56 +08:00 要是 4060Ti 16G 能有 192 的带宽,我都不带犹豫的,老黄着刀法太难受,下一个 16G 选项 4070Ti Super 直接 6499 |
6 frankyzf 2024-01-11 12:05:47 +08:00 借楼问一下,也有这方面的兴趣但还没入门,自己买显卡和租显卡( colab 或 autodl )有什么优势和劣势呢? |
7 telaviv 2024-01-11 13:36:10 +08:00 2080 Ti 22G ,显存和带宽重要 |
8 GNK48linlin 2024-01-11 13:46:39 +08:00 @tallie 双十一铭电竞之心有过 3200 |
9 woqujjfly 2024-01-11 13:54:27 +08:00 借楼问一下,sd 生成非常高质量得图( 10m 左右大小 4000 分辨率左右的)至少得上什么显卡 |
10 ZxykM 2024-01-11 13:55:22 +08:00 买显存大的,然后买位宽高的 |
11 phli OP @ysheep 看有人评测如果 cpu 跟 主板太差可能导致显卡跑不满。超频到没啥想法,就是怕买 m 板散热供电啥的不行导致跑不满。 |
12 phli OP @sunny352787 4060 ti 16g 版本完全足够,但看他那 128 尾款 这黄皮子太恶心了。4070ti super 是 256 价格就翻翻了。 |
15 paopjian 2024-01-11 15:43:18 +08:00 你现在有现成模型或者有训练的需求了吗,使用过在线 colab AutoDL 运行过模型了吗,如果一点没开始的话建议还是先试试在线的吧 |
16 SantuZ 2024-01-11 15:59:02 +08:00 建议还是先自己租卡感受一下,位宽和显存很重要,可以非常直观的感受出来...不差钱就上 4090 吧 |
18 Greendays 2024-01-11 16:10:48 +08:00 只能说搞 AI 的话,这几张显卡没啥本质区别,最多就是快慢的区别。 |
19 k9982874 2024-01-11 16:14:00 +08:00 via Android 我选 3080 女骑士包浆魔改 20g 版 |
20 howfree 2024-01-11 16:49:48 +08:00 |
21 phli OP @paopjian 只拿人家的模型玩过,还没深入搞呢。现在是 macbook 4g 显存 运行个 sd 也就能跑动。深入研究就没法继续了。 |
22 NewHere 2024-01-11 22:16:49 +08:00 只是玩玩可以上 800 一张的 P100 16G ,但是你得有其他的显示输出设备,比如核显或者另外一张亮机卡 |