V2EX parad 的所有回复 第 1 页 / 共 2 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    parad    全部回复第 1 页 / 共 2 页
回复总数  27
1  2  
JavasScript + Ajax + DOM API + 跳转拦截
十年前的网站都是这么写的
其实就是自己实现一个 React / Vue
这是你手写的还是 AI 写的呀? AI 写 ML 相关的代码还是不太行。建议看看相关数据&模型的教程,经典 paper 和 baseline 例子参考。
149 天前
回复了 jdz 创建的主题 程序员 你们让 ai 写完代码都 review 吗
大概看下一下逻辑,没问题的话让 AI 生成几个测试,仔细看看测试用例写的对不对,如果覆盖不全就让 AI 再继续覆盖。
根据我的测试,GPT-4.1 编程能力和输出质量明显高于 Gemini 2.5 Pro 。输出比 Gemini 更专注和精简。
164 天前
回复了 wind1986 创建的主题 程序员 怎么通过人工智能玩游戏
@wind1986 想快速上手的话直接跑 stablebaseline3 ,调参数。

要系统学习的话从 reinforcement learning 的最开始学。MDP ,DQN ,PPO 。youtube 上应该很多。

要练手的话参加 kaggle simulation 类别的比赛,比如 lux challenge ,还有 MIT battlecode 。
164 天前
回复了 wind1986 创建的主题 程序员 怎么通过人工智能玩游戏
TypeScript 的话可以看看这个 lib ,里面有 DQN 和 PPO 。目前我在维护:

https://github.com/StoneT2000/rl-ts
164 天前
回复了 wind1986 创建的主题 程序员 怎么通过人工智能玩游戏
我之前写过 3 个 AI 玩游戏的 mobile app ,欢迎参考

https://ai-simulator.com/
Cursor 最新版本 0.49 好像开始限制 context 了,我手动 @的文件还要 agent 再 100 行,100 行的读。

如果是多文件,大 context ,可以试试我开发的 16x Prompt 工具,比较手动但是更可控,没有奇怪的 context 算法,能发挥模型原本的 100 %的能力。
169 天前
回复了 llej 创建的主题 程序员 基于 Effect 的后端 api 设计
看来来有点像 Ramda https://ramdajs.com/
Polar.sh 好像最近比较流行。可以试试。
@frankies 数据分析是 Data Analytics 或者 Business Analytics ,和数据科学 Data Science 有很大区别。Data science 现在和 AI 基本一个意思。
在国外生活多年,这两个专业对我来说没有任何区别。
@zhy91 从公开的 trade deficit 数据来看是美国进口中国的大于中国进口美国的。跟你说的是正好反的。这也是美国增加关税最根本的理由。
@paranoiagu 也算是正常的。Ollama 内部是有些自己的逻辑的。

Reddit r/LocalLLaMA 和 Hacker News 我记得有人反馈同样的问题。

你也可以在那里 post 你的测试结果。
Temperature 设置为 0 ,消除 output 随机性

确保都是在 GPU 上跑的,lamma.cpp 和 ollama 默认有可能在 CPU 上跑,需要配置
每个模型不太一样,但是质量都会随 context 长度下降。

https://arxiv.org/abs/2502.05167
推荐 Fireworks, Together 和 Hyperbolic ,我自己测试下来速度比较快。Hyperbolic 最近两天变慢了。

测试脚本的原始数据: https://github.com/paradite/deepseek-r1-speed-benchmark

测试报告 https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed
@lovestudykid 问了另一家 provider ,他们说因为 Deepseek R1 是 "trained in FP8",所以本来就是 FP8 quantization 。所以没有影响。
但我也不确定这些 provider 有没有自己多做一层 quantization ,因为 Deepseek R1 的 FP8 是某些 layer 才有的,有会多其他 layer 还是 BF16:
- https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00001-of-000163.safetensors
- https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00160-of-000163.safetensors
- https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00163-of-000163.safetensors
这些 BF16 不确定是不是被额外的做了 FP8 quantization 。按照 vLLM 的说法,如果是 Online Dynamic Quantization
“all Linear modules (except for the final lm_head) have their weights quantized down to FP8_E4M3 precision with a per-tensor scale”:
- https://docs.vllm.ai/en/v0.5.0.post1/quantization/fp8.html
@lovestudykid 根据我的理解,DeepSeek 最终的 weight 是 mixed F8_E4M3 + FP32 。这个可以在 Hugging Face 的 原始 model layer details 里面看到: https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00027-of-000163.safetensors

而 Hyperbolic 的 FP8 是他们自己的 quantization ,是在 model 上面额外的 quantization ,这里有解释: https://docs.hyperbolic.xyz/docs/hyperbolic-ai-inference-pricing

所以我理解 Hyperbolic 应该是做了额外的 quantization 。当然有可能是我理解错了。欢迎指正。
域名太小众,渲染不出 link [https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed]( https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed)
1  2  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2960 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 95ms UTC 12:13 PVG 20:13 LAX 05:13 JFK 08:13
Do have faith in what you're doing.
ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86