V2EX makerbi 的所有回复 第 1 页 / 共 3 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    makerbi    全部回复第 1 页 / 共 3 页
回复总数  51
1  2  3  
277 天前
回复了 79lawyer 创建的主题 Python 请教 Python 大佬 Django-Q 的使用问题
1. 微调的目的是什么?是否必须微调?没有经验的情况下微调只会耗费大量资源而且降低模型本身的能力。能用提示词搞定的就优先用提示词。如果要求是能问答企业内部知识的场景,考虑 RAG 是否可以完成?
2. 考虑并发会到多少?并发数直接影响到你需要的显卡资源数量。按我观察的经验来看,大部分企业员工在应用 AI 这件事情上尝鲜的程度多于真正日常使用的程度,也就是说部署一个并发数在个位数的服务就完全绰绰有余了。
3. 如果不是严格要求私有化部署的情况下,使用公有服务是最优选择。
4. PDF 总结也有很多种做法,显存资源不够的情况下对应的就是上下文长度较小,那就分块总结再合并总结,也能完成任务。
@CassianVale 估计是打包的问题,可以直接用 aliyun-oss-x 替代试试,默认是不需要 aliyunsdkcore 的。
2024-09-04 12:19:46 +08:00
回复了 AlanBrian 创建的主题 Python 请教下有什么方案可以在服务器上把 html 转成图片
Python 的话 Playwright 就可以,我是和你完全一样的需求,需要渲染 ECharts 图表,部署在阿里云函数,每次调用平均用时 4 秒的样子。
2024-08-22 12:10:15 +08:00
回复了 xiaoli1999 创建的主题 程序员 [求助] 求一个低价文生图模型 api
2024-07-03 11:51:28 +08:00
回复了 xueling 创建的主题 程序员 coze 要收费了,还有什么替代方案推荐吗?
自荐一下我一年前就开源的 AI Agent + 工作流 产品: https://github.com/AndersonBY/vector-vein
2024-04-18 18:09:23 +08:00
回复了 Pters 创建的主题 Python 新手请问我这样处理文件上传对不对
你自己的服务器管理大文件?一般来说 GB 级了用 OSS 更方便吧
2024-04-15 17:50:03 +08:00
回复了 frostming 创建的主题 Python 有一个包管理器叫 PDM,已经四年多了
两年前开始我的项目都用 PDM 管理了,支持一个
2024-04-02 16:31:27 +08:00
回复了 sqlman 创建的主题 Python 公司数据流转平台如何从 0 开始搭建?
如果没时间或者没兴趣学前端的话,可以考虑 AMIS ( https://baidu.github.io/amis/zh-CN/docs/index ),就只是取个数展示啥的完全够用了。
之前遇到过一个类似的问题,windows 下无法正常识别 Javascript 类型的文件,需要在代码里手动配置:

import mimetypes

mimetypes.add_type("application/Javascript", ".js")
2024-03-15 00:14:00 +08:00
回复了 Greysonhyh 创建的主题 Python 广州招聘 | AI 应用 Python 后端工程师 | 8 - 13k
没看出来比特鹰具体是干啥的
2024-03-09 17:45:12 +08:00
回复了 ronman 创建的主题 Google 收到 Gemini 1.5 Pro 资格了
@noahlias 还真是,没通知,再去发现已经有权限了
2024-02-29 15:51:54 +08:00
回复了 PiersSoCool 创建的主题 程序员 用 ai 写代码是不是该换种方式了
@947347 是的,但是目前大部分 LLM 特别是开源的 LLM 还是以 32k 为主,而且如果要自己部署生产环境的开源 LLM ,考虑硬件配置的话,32k 现阶段比较合适。
2024-02-29 13:56:22 +08:00
回复了 PiersSoCool 创建的主题 程序员 用 ai 写代码是不是该换种方式了
大部分的 LLM 上下文长度也就 32k ,导致很难把一个完整的中型项目或者小型项目+文档放到上下文里,也就无从谈起跨文件理解架构和函数调用之类的需求。所以目前比较期待 Google 的 1M 上下文长度 Gemini 1.5 Pro 来实现完整理解代码项目。根据一些内测用户的反馈确实能够达到放一个完整代码项目进去然后实现新功能。
我已经 report 了,Github 刚刚给我回复处理了
2024-02-26 15:03:02 +08:00
回复了 dtla 创建的主题 程序员 一道 Java 八股,检测 AI 智商
单纯从一道题目来看大语言模型的性能还是有失偏颇,评测肯定是从多个维度多方面评价的。单一题目考核最容易出现的问题是数据泄露的问题,即原题目本身出现在了模型训练数据里,这是目前很多 LLM 榜单存在的问题(当然也有对应的检测和新的考核方案)。

对于这道题目本身,对比了几个模型的输出,除了 OpenAI 外,ChatGLM 和 Qwen 看起来都还行。
https://vectorvein.com/public/workflow-run-record/04ef976b300848b9b0318dc233b8f29d

我倾向于还是训练数据的问题,不完全能代表模型能力本身。目前一个热点研究也是在小模型上增加更多的训练数据达到更好的效果。
2024-02-18 09:38:32 +08:00
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
如果只是关键字提取、文本摘要这种的需求的话用 1~2B 的模型就可以了,llama.cpp 量化部署,纯 CPU 跑就行,内存不要太小都没问题。
如果是 Windows 下长期做开发的话,可以考虑打开全局 utf-8 ,能避免大部分编码问题 https://i.imgur.com/hXNuMV8.jpeg
1  2  3  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5508 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 38ms UTC 01:28 PVG 09:28 LAX 18:28 JFK 21:28
Do have faith in what you're doing.
ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86