机器学习 way to explore https:https://cdn.v2ex.com/navatar/9fe8/593a/678_normal.png?m=1628872967 https:https://cdn.v2ex.com/navatar/9fe8/593a/678_large.png?m=1628872967 2025-12-24T02:21:29Z Copyright © 2010-2018, V2EX 请问 AI 训练大佬 : 目前大家不写 blog, stackoverflow 等,如何训练新的优质数据,还是拿 AI 数据训练自己? tag:www.v2ex.com,2025-12-24:/t/1180789 2025-12-24T00:03:53Z 2025-12-24T02:21:29Z littlemis member/littlemis 想要真正理解目前的深度学习(不仅是打杂的炼丹师),需要怎样的数学基础 tag:www.v2ex.com,2025-12-10:/t/1178092 2025-12-10T09:13:52Z 2025-12-10T20:25:06Z YanSeven member/YanSeven
有一个清单或者书籍能够囊括这些数学内容吗。 ]]>
怎样加快 onnx 模型在 cpu 上的推理速度啊 tag:www.v2ex.com,2025-12-06:/t/1177292 2025-12-06T09:44:23Z 2025-12-05T17:44:23Z ns2250225 member/ns2250225 我已经问过 AI 了,已经把 onnx 模型进行了剪枝,进行了 int8 动态量化,开启了 cpu 多线程推理,速度由原来的 3s 优化到现在的 1.3s ,感觉到极限了,可是老板的要求是 500ms ,大佬快救救孩子

]]>
AI 公司瞄准的顺序是浏览器、输入法、操作系统 tag:www.v2ex.com,2025-11-29:/t/1175862 2025-11-29T12:02:16Z 2025-12-01T01:37:18Z intoext member/intoext 浏览器是互联网入口,观察浏览器的访问行为可有助于了解用户。 等于给 AI 公司喂料(或者采集)。

从豆包做输入法来看,未来估计要会聚焦输入法。 因为输入法比浏览器还能捕捉用户数据。对于不上网的数据、行为也能采集。

再后来,估计是要竞争操作系统了。 自然,因为有生态原因,不大会出现除 linux 、windows 之后的大系统。 但是我估计使用开源 linux 魔改的系统是很多的--AI 公司搞点这个,技术上简直易如反掌。

不知道大家怎么看?

]]>
有什么能本地跑的机器学习项目吗? tag:www.v2ex.com,2025-11-18:/t/1173455 2025-11-18T03:01:15Z 2025-11-23T12:49:48Z rpish member/rpish 好奇除了大模型,图片生成,还有没有什么能本地跑的,好玩的机器学习项目?

]]>
求助 使用 ddddocr 自训练模型场景下,遇到了 onnxruntime.capi.onnxruntime_pybind11_state.InvalidArgument tag:www.v2ex.com,2025-11-12:/t/1172404 2025-11-12T16:45:06Z 2025-11-12T16:42:06Z fortytwo member/fortytwo 使用 ddddocr 自训练模型场景下,遇到的问题

(dddd-trainer) PS C:\Users\12460\Documents\project\dddd_trainer> uv run .\test.py 2025-11-13 00:35:09.0336981 [E:onnxruntime:, sequential_executor.cc:572 onnxruntime::ExecuteKernel] Non-zero status code returned while running SequenceAt node. Name:'n0_424' Status Message: Invalid sequence index (57) specified for sequence of size (57) Traceback (most recent call last): File "C:\Users\12460\Documents\project\dddd_trainer\test.py", line 14, in <module> res = ocr.classification(image) ^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\ddddocr\__init__.py", line 2643, in classification ort_outs = self.__ort_session.run(None, ort_inputs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 287, in run return self._sess.run(output_names, input_feed, run_options) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ onnxruntime.capi.onnxruntime_pybind11_state.InvalidArgument: [ONNXRuntimeError] : 2 : INVALID_ARGUMENT : Non-zero status code returned while running SequenceAt node. Name:'n0_424' Status Message: Invalid sequence index (57) specified for sequence of size (57) 

测试的训练集数据: https://wwm.lanzoum.com/itczd0b5z3yj

GitHub: https://github.com/sml2h3/dddd_trainer.git

# test.py import ddddocr ocr = ddddocr.DdddOcr( det=False, ocr=False, show_ad=False, import_onnx_path=r"C:\Users\12460\Documents\project\dddd_trainer\projects\test_2\models\test_2_1.0_23_6000_2025-11-13-00-06-13.onnx", charsets_path=r"C:\Users\12460\Documents\project\dddd_trainer\projects\test_2\models\charsets.json", ) with open(r"C:\Users\12460\Downloads\1112\new\PKKQ_1578462523867.jpg", "rb") as f: image = f.read() res = ocr.classification(image) print(res) 

操作日志

(dddd-trainer) PS C:\Users\12460\Documents\project\dddd_trainer> uv run .\app.py create test_3 2025-11-13 00:29:53.496 | INFO | __main__:__init__:12 - Hello baby~ 2025-11-13 00:29:53.497 | INFO | __main__:create:15 - Create Project ----> test_3 2025-11-13 00:29:53.497 | INFO | utils.project_manager:create_project:13 - Creating Directory... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3 2025-11-13 00:29:53.497 | INFO | utils.project_manager:create_project:20 - Creating Directory... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3\models 2025-11-13 00:29:53.498 | INFO | utils.project_manager:create_project:24 - Creating Directory... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3\cache 2025-11-13 00:29:53.498 | INFO | utils.project_manager:create_project:28 - Creating Directory... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3\checkpoints 2025-11-13 00:29:53.498 | INFO | utils.project_manager:create_project:32 - Creating CRNN Config File... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3\config.yaml 2025-11-13 00:29:53.500 | INFO | utils.project_manager:create_project:36 - Create Project Success! ----> test_3 (dddd-trainer) PS C:\Users\12460\Documents\project\dddd_trainer> uv run .\app.py cache test_3 C:\Users\12460\Downloads\1112\images 2025-11-13 00:30:10.911 | INFO | __main__:__init__:12 - Hello baby~ 2025-11-13 00:30:10.913 | INFO | __main__:cache:20 - Caching Data ----> test_3 Path ----> C:\Users\12460\Downloads\1112\images 2025-11-13 00:30:10.919 | INFO | utils.cache_data:__get_label_from_name:36 - Files number is 8599. 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8599/8599 [00:00<00:00, 1379439.31it/s] 2025-11-13 00:30:10.926 | INFO | utils.cache_data:__collect_data:92 - Coolect labels is [" ", "1", "D", "Q", "F", "R", "P", "5", "9", "6", "X", "G", "H", "S", "V", "Z", "3", "T", "K", "J", "W", "2", "8", "4", "U", "Y", "E", "I", "C", "B", "L", "A", "7"] 2025-11-13 00:30:10.929 | INFO | utils.cache_data:__collect_data:96 - Writing Cache Data! 2025-11-13 00:30:10.929 | INFO | utils.cache_data:__collect_data:98 - Cache Data Number is 8599 2025-11-13 00:30:10.929 | INFO | utils.cache_data:__collect_data:99 - Writing Train and Val File. 2025-11-13 00:30:10.931 | INFO | utils.cache_data:__collect_data:116 - Train Data Number is 8342 2025-11-13 00:30:10.932 | INFO | utils.cache_data:__collect_data:117 - Val Data Number is 257 (dddd-trainer) PS C:\Users\12460\Documents\project\dddd_trainer> uv run .\app.py train test_3 2025-11-13 00:30:26.382 | INFO | __main__:__init__:12 - Hello baby~ 2025-11-13 00:30:26.383 | INFO | __main__:train:26 - Start Train ----> test_3 2025-11-13 00:30:26.384 | INFO | utils.train:__init__:40 - Taget: min_Accuracy: 0.97 min_Epoch: 20 max_Loss: 0.05 2025-11-13 00:30:26.384 | INFO | utils.train:__init__:45 - USE GPU ----> 0 2025-11-13 00:30:26.384 | INFO | utils.train:__init__:52 - Search for history checkpoints... 2025-11-13 00:30:26.384 | INFO | utils.train:__init__:69 - Empty history checkpoints 2025-11-13 00:30:26.384 | INFO | utils.train:__init__:71 - Building Net... C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\torch\nn\modules\rnn.py:123: UserWarning: dropout option adds dropout after all but last recurrent layer, so non-zero dropout expects num_layers greater than 1, but got dropout=0.3 and num_layers=1 warnings.warn( 2025-11-13 00:30:26.400 | INFO | utils.train:__init__:75 - Net( (cnn): DdddOcr( (cnn): Sequential( (conv0): Conv2d(1, 16, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (relu0): ReLU(inplace=True) (pooling0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) (conv1): Conv2d(16, 32, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (relu1): ReLU(inplace=True) (pooling1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) (conv2): Conv2d(32, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (batchnorm2): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (relu2): ReLU(inplace=True) (conv3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (relu3): ReLU(inplace=True) (pooling2): MaxPool2d(kernel_size=(2, 2), stride=(2, 1), padding=(0, 1), dilation=1, ceil_mode=False) (conv4): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (batchnorm4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (relu4): ReLU(inplace=True) (conv5): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (relu5): ReLU(inplace=True) (pooling3): MaxPool2d(kernel_size=(2, 2), stride=(2, 1), padding=(0, 1), dilation=1, ceil_mode=False) (conv6): Conv2d(128, 128, kernel_size=(2, 2), stride=(1, 1)) (batchnorm6): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (relu6): ReLU(inplace=True) ) ) (lstm): LSTM(384, 384, dropout=0.3, bidirectiOnal=True) (loss): CTCLoss() (fc): Linear(in_features=768, out_features=33, bias=True) ) 2025-11-13 00:30:26.400 | INFO | utils.train:__init__:76 - Building End 2025-11-13 00:30:26.509 | INFO | utils.train:__init__:81 - Get Data Loader... 2025-11-13 00:30:26.510 | INFO | utils.load_cache:__init__:102 - Charsets is [" ", "1", "D", "Q", "F", "R", "P", "5", "9", "6", "X", "G", "H", "S", "V", "Z", "3", "T", "K", "J", "W", "2", "8", "4", "U", "Y", "E", "I", "C", "B", "L", "A", "7"] 2025-11-13 00:30:26.510 | INFO | utils.load_cache:__init__:106 - Image Resize is [-1, 64] 2025-11-13 00:30:26.510 | INFO | utils.load_cache:__init__:118 - Image Path is C:\Users\12460\Downloads\1112\images 2025-11-13 00:30:26.511 | INFO | utils.load_cache:__init__:25 - Reading Cache File... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3\cache\cache.train.tmp 2025-11-13 00:30:26.512 | INFO | utils.load_cache:__init__:30 - Read Cache File End! Caches Num is 8342. 2025-11-13 00:30:26.512 | INFO | utils.load_cache:__init__:25 - Reading Cache File... ----> C:\Users\12460\Documents\project\dddd_trainer\projects\test_3\cache\cache.val.tmp 2025-11-13 00:30:26.513 | INFO | utils.load_cache:__init__:30 - Read Cache File End! Caches Num is 257. 2025-11-13 00:30:26.513 | INFO | utils.train:__init__:87 - Get Data Loader End! 2025-11-13 00:30:30.161 | INFO | utils.train:start:108 - [2025-11-13-00_30_30] Epoch: 0 Step: 100 LastLoss: 3.5620920658111572 AvgLoss: 4.684982450008392 Lr: 0.01 2025-11-13 00:30:33.520 | INFO | utils.train:start:108 - [2025-11-13-00_30_33] Epoch: 0 Step: 200 LastLoss: 3.629438877105713 AvgLoss: 3.591061780452728 Lr: 0.01 2025-11-13 00:30:36.940 | INFO | utils.train:start:108 - [2025-11-13-00_30_36] Epoch: 1 Step: 300 LastLoss: 3.478365659713745 AvgLoss: 3.574828338623047 Lr: 0.01 2025-11-13 00:30:40.677 | INFO | utils.train:start:108 - [2025-11-13-00_30_40] Epoch: 1 Step: 400 LastLoss: 3.725684881210327 AvgLoss: 3.5830772018432615 Lr: 0.01 2025-11-13 00:30:44.054 | INFO | utils.train:start:108 - [2025-11-13-00_30_44] Epoch: 1 Step: 500 LastLoss: 3.6253044605255127 AvgLoss: 3.5884796619415282 Lr: 0.01 ... 2025-11-13 00:33:39.470 | INFO | utils.train:start:108 - [2025-11-13-00_33_39] Epoch: 19 Step: 5200 LastLoss: 0.0010958763305097818 AvgLoss: 0.0016259117133449763 Lr: 0.009604 2025-11-13 00:33:44.079 | INFO | utils.train:start:108 - [2025-11-13-00_33_44] Epoch: 20 Step: 5300 LastLoss: 0.0009493848774582148 AvgLoss: 0.0010536348074674606 Lr: 0.009604 2025-11-13 00:33:48.775 | INFO | utils.train:start:108 - [2025-11-13-00_33_48] Epoch: 20 Step: 5400 LastLoss: 0.0010489150881767273 AvgLoss: 0.0012551895825890823 Lr: 0.009604 2025-11-13 00:33:53.303 | INFO | utils.train:start:108 - [2025-11-13-00_33_53] Epoch: 21 Step: 5500 LastLoss: 0.0011606556363403797 AvgLoss: 0.000944445063942112 Lr: 0.009604 2025-11-13 00:33:57.803 | INFO | utils.train:start:108 - [2025-11-13-00_33_57] Epoch: 21 Step: 5600 LastLoss: 0.0007763305329717696 AvgLoss: 0.0009715505503118038 Lr: 0.009604 2025-11-13 00:34:02.339 | INFO | utils.train:start:108 - [2025-11-13-00_34_02] Epoch: 21 Step: 5700 LastLoss: 0.0012899019056931138 AvgLoss: 0.0015180535794934258 Lr: 0.009604 2025-11-13 00:34:06.902 | INFO | utils.train:start:108 - [2025-11-13-00_34_06] Epoch: 22 Step: 5800 LastLoss: 0.0009287762804888189 AvgLoss: 0.0015425046352902428 Lr: 0.009604 2025-11-13 00:34:11.336 | INFO | utils.train:start:108 - [2025-11-13-00_34_11] Epoch: 22 Step: 5900 LastLoss: 0.0007486791582778096 AvgLoss: 0.0011510271998122334 Lr: 0.009604 2025-11-13 00:34:15.845 | INFO | utils.train:start:137 - [2025-11-13-00_34_15] Epoch: 23 Step: 6000 LastLoss: 0.0006851484067738056 AvgLoss: 0.0009158773045055568 Lr: 0.009604 Acc: 1.0 2025-11-13 00:34:15.846 | INFO | utils.train:start:143 - Training Finished!Exporting Model... C:\Users\12460\Documents\project\dddd_trainer\nets\__init__.py:216: UserWarning: # 'dynamic_axes' is not recommended when dynamo=True, and may lead to 'torch._dynamo.exc.UserError: Constraints violated.' Supply the 'dynamic_shapes' argument instead if export is unsuccessful. torch.onnx.export(net, dummy_input, graph_path, export_params=True, verbose=False, W1113 00:34:16.515000 3024 .venv\Lib\site-packages\torch\onnx\_internal\exporter\_compat.py:114] Setting ONNX exporter to use operator set version 18 because the requested opset_version 12 is a lower version than we have implementations for. Automatic version conversion will be performed, which may not be successful at converting to the requested version. If version conversion is unsuccessful, the opset version of the exported model will be kept at 18. Please consider setting opset_version >=18 to leverage latest ONNX features The model version conversion is not supported by the onnxscript version converter and fallback is enabled. The model will be converted using the onnx C API (target version: 12). Failed to convert the model to the target version 12 using the ONNX C API. The model was not modified Traceback (most recent call last): File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\onnxscript\version_converter\__init__.py", line 127, in call converted_proto = _c_api_utils.call_onnx_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\onnxscript\version_converter\_c_api_utils.py", line 65, in call_onnx_api result = func(proto) ^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\onnxscript\version_converter\__init__.py", line 122, in _partial_convert_version return onnx.version_converter.convert_version( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\onnx\version_converter.py", line 39, in convert_version converted_model_str = C.convert_version(model_str, target_version) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ RuntimeError: D:\a\onnx\onnx\onnx/version_converter/BaseConverter.h:68: adapter_lookup: Assertion `false` failed: No Adapter From Version $18 for Split Skipping constant folding for op Split with multiple outputs. Skipping constant folding for op Split with multiple outputs. Applied 3 of general pattern rewrite rules. Skipping constant folding for op Split with multiple outputs. Skipping constant folding for op Split with multiple outputs. 2025-11-13 00:34:45.655 | INFO | utils.train:start:159 - Export Finished!Using Time: 3.816666666666667min (dddd-trainer) PS C:\Users\12460\Documents\project\dddd_trainer> uv run .\test.py 2025-11-13 00:35:09.0336981 [E:onnxruntime:, sequential_executor.cc:572 onnxruntime::ExecuteKernel] Non-zero status code returned while running SequenceAt node. Name:'n0_424' Status Message: Invalid sequence index (57) specified for sequence of size (57) Traceback (most recent call last): File "C:\Users\12460\Documents\project\dddd_trainer\test.py", line 14, in <module> res = ocr.classification(image) ^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\ddddocr\__init__.py", line 2643, in classification ort_outs = self.__ort_session.run(None, ort_inputs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\12460\Documents\project\dddd_trainer\.venv\Lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 287, in run return self._sess.run(output_names, input_feed, run_options) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ onnxruntime.capi.onnxruntime_pybind11_state.InvalidArgument: [ONNXRuntimeError] : 2 : INVALID_ARGUMENT : Non-zero status code returned while running SequenceAt node. Name:'n0_424' Status Message: Invalid sequence index (57) specified for sequence of size (57) 
]]> BERT 论文复现: 经验 & 教训 tag:www.v2ex.com,2025-11-03:/t/1170130 2025-11-03T03:18:33Z 2025-11-03T03:30:18Z huangyezhufeng member/huangyezhufeng

https://datahonor.com/blog/2025/11/02/bert/

目录:

关于我们做到了哪一步 BERT 简介 有趣的观察 预训练过程的有趣现象 数据非常非常重要 从 Finetune 管窥预训练的威力 错误与教训 即使在极小数据集上也无法过拟合 一次性预处理全量数据,CPU 加班,GPU 休假 试图用临时手搓的玩意儿达到很好的性能 workers 和 prefetch 因子设得过大导致 OOM 没有优雅处理 DataLoader worker 的异常 评估时使用了错误的 tokenizer 最后 
]]>
求推荐一些 LLM/深度学习方面打基础的书籍或者课程 tag:www.v2ex.com,2025-10-28:/t/1168798 2025-10-28T01:11:14Z 2025-10-29T15:16:50Z vocaloid member/vocaloid 感觉基础还是不太牢靠,不知道各位 v 友有没有相关的书籍可以推荐

]]>
2025 年底,如果想做一个图像分类模型,用什么模型来微调比较好 tag:www.v2ex.com,2025-10-20:/t/1167088 2025-10-20T09:12:46Z 2025-10-24T18:49:17Z Suinn member/Suinn 如题,有一大批数据集,但是有一段时间没了解图像分类这个领域了,这个场景用大模型感觉也不是很适合,所以想问问万能的站友们

]]>
目前使用 yolov8 训练了一个目标检测模型,但是上线使用效果不是很好,怎么优化? tag:www.v2ex.com,2025-10-17:/t/1166309 2025-10-17T01:49:04Z 2025-10-17T03:44:43Z kennen member/kennen 目标是检测一张图片是否合规,将来要扩展到更多物体的检测(比如一辆车正在施工,前方侧方都要放置安全锥桶),目前采用的是 yolov8 ,有木有别的技术方案可以考虑?

]]>
最近看 1-2 万主机发现 3090 还是能打的 tag:www.v2ex.com,2025-10-16:/t/1166079 2025-10-16T03:38:07Z 2025-10-16T10:47:47Z quech member/quech 狗东找了一些主机配置,显卡集中在下面型号,ai 分析对比之后居然还是推荐 3090 Nvidia RTX4000 Ada 20GB

RTX3090 24G

A5000 24G

2000Ada 16G

RTX4000Ada 20G

RTX5070Ti 16Gb

RTX4000Ada 20G

5080 16G

5060Ti 16G

RTX5060Ti 16G

5070Ti 16G

RTX 5000 24G

]]>
想做有声小说声音克隆, 3060Ti 能扛得住吗? tag:www.v2ex.com,2025-10-13:/t/1164848 2025-10-13T06:49:36Z 2025-10-13T11:15:26Z EasonIndie member/EasonIndie V 友们好,最近想自己做一个 中文有声小说项目,希望呻吟自然流畅、语气生动、有停顿、笑声这些表达。 目标是 克隆自定义声音(我自己或一些受欢迎的配音),然后批量生成小说音频。


💡 我的需求大致是:

  1. 先克隆/微调一个中文声音,让声音自然、不机械。
  2. 风格希望像相声那种“说学逗唱”的语气——要能控制节奏、停顿、情绪。
  3. 后期做有声小说输出

🖥️ 当前设备配置:


🔧 初步技术路线:

我目前查下来主要有两条思路:

  1. 快速上手路线(生成类)

    • 使用 Suno Bark 或类似大模型,直接生成多情感中文语音;
    • 适合先试效果、调节 prompt 实现“相声语气”;
    • 缺点是声音不一定稳定、不可控。
  2. 高可控路线(训练类)

    • 管线:Speaker Encoder → VITS / Coqui-TTS → HiFi-GAN ;
    • 录制 20 ~ 60 分钟高质量音频做微调;
    • 目标是克隆稳定音色、能生成自然语调的中文语音;
    • 支持 prosody / style token 控制节奏语气。

计划在本地用 PyTorch + CUDA 训练/推理,显存有限的话准备上 fp16 + LoRA + 梯度累积 等优化。


❓ 想请教 V 友们:

  1. 3060 12GB 或 3060Ti 8GB 能胜任 TTS / 声音克隆任务?

    • 听说显存容量在 TTS 场景下比算力更关键,想听下大家的实测经验。
  2. 如果只做轻量微调(不从零训练),3060Ti 是否足够?

  3. 有没有人实际在本地跑过 Bark / VITS / Coqui-TTS / HiFi-GAN 这类项目?

    • 推理速度和显存占用大概怎样?
    • 有没有推荐的显存优化技巧?
  4. 对于“相声风格”的语音,有没有成熟的风格迁移或 prosody 控制方法?


✅ 目标:

能在家用机上稳定生成相声风格的有声小说音频,自己做声音模型和后期,长期迭代。


大家有做过类似声音克隆 / 本地 TTS 项目的,求分享经验和显卡选型建议 🙏

]]>
[AI Glimpse 科普系列] KV Cache 的原理推导与代码实现(基于 GPT2) tag:www.v2ex.com,2025-06-04:/t/1136339 2025-06-04T08:34:06Z 2025-06-04T08:34:06Z huangyezhufeng member/huangyezhufeng
  • 博客地址: LLM KV Cache: A Simple Implementation
  • 重点讲解了为什么需要在推理阶段做 KV Cache
  • 代码基于 GPT2 实现,可以在 16G 显卡上运行复现,代码开源在 ai-glimpse/toyllm: ToyLLM: Learning LLM from Scratch
  • ]]>
    关于 OCR 以及以图找图识别 tag:www.v2ex.com,2025-05-27:/t/1134586 2025-05-27T03:22:16Z 2025-05-27T05:19:01Z fenglirookie member/fenglirookie 我现在使用 com.google.mlkit:text-recognition:16.0.1 ,com.google.mlkit:text-recognition-chinese:16.0.1 这个库进行 OCR 提取,在确认使用这个库的情况下有什么方法可以提高 OCR 识别的正确率呢? opencv 的图片匹配是否也可以同理提升正确率?

    ]]>
    这类型的英语学习视频,是用哪个模型生成? tag:www.v2ex.com,2025-05-16:/t/1132328 2025-05-16T14:08:25Z 2025-05-16T14:08:25Z jacketma member/jacketma 这个模型生成的视频,人物表情不僵硬、相当自然,哪个模型调出这样的效果?

    ai.PNG

    原视频: https://www.youtube.com/shorts/ygWC9GH3c0A

    用了几个国产模型,做不出来这个效果

    ]]>
    怎么实现提取俩个图片的一些特征,然后进行特征比对 tag:www.v2ex.com,2025-05-13:/t/1131503 2025-05-13T09:44:06Z 2025-05-14T02:21:53Z hmxxmh member/hmxxmh 图片有这些特征:颜色、形状、清晰度、是否 ps

    ]]>
    检测画面中存在漏水,给点思路 tag:www.v2ex.com,2025-05-12:/t/1131241 2025-05-12T09:55:52Z 2025-05-13T13:47:11Z momomoi member/momomoi 场景是: 可见光摄像头实时拍摄一片区域,很小部分是双目(带热成像),区域内存在错综交叉的管道(就是粗水管)

    现在需要检测漏水,水状态有 2 种:管道破裂喷再空中 、地面积水,主要就是这种异常图像太少,个位数级别

    用了 yolo 检测模型+图像整个画面和基准图的判别,发现漏判严重, 主要是摄像头不时对焦+有窗户、光斑会映射到地面上+其他异常情况

    有没有其他思路 指导一下。

    ]]>
    学习 AI, 跑下模型, 应该用什么 N 卡? tag:www.v2ex.com,2025-04-20:/t/1126818 2025-04-20T09:38:30Z 2025-04-25T02:59:57Z nananqujava member/nananqujava 有没有大佬了解机器学习的 mlops 框架或者平台 tag:www.v2ex.com,2025-04-18:/t/1126539 2025-04-18T09:42:46Z 2025-04-18T09:56:37Z JoeDH member/JoeDH 最近有个需求,就是需要部署一套机器学习平台,满足已有公司内一些模型的管理啥的(主要是传统的图像识别模型)

    需要支持服务器算力、模型版本、训练、测试分析、数据集等等这类的管理

    看了一下 kubeflow 、腾讯的 cube-studio ,感觉内容有点大又复杂

    因为我不是搞 AI 的所以不太懂,有大佬在用的或是了解这块的吗?是否还有其他推荐的一些易于使用的框架或平台

    ]]>
    如何把本地文件作为大模型的知识库 tag:www.v2ex.com,2025-04-17:/t/1126159 2025-04-17T05:47:58Z 2025-04-17T06:59:01Z iOTOi member/iOTOi 使用大语言模型进行文本分类任务需要微调吗? tag:www.v2ex.com,2025-04-17:/t/1126133 2025-04-17T04:00:32Z 2025-04-17T10:39:19Z marklu member/marklu
    由于我的技术背景有限,对于这种方法的选择及其替代方案有些疑问,想听听大家的专业意见:

    1.微调的实际可行性: 用专门的分类数据去微调一个通用预训练模型,会不会损失模型基础性能,导致在遇到与微调数据不太一样的文本时,表现反而变差?
    2.是否可以直接使用 GPT 等模型替代: 现在有许多能力非常强大的 LLM ,似乎可以通过给出清晰的指令( Prompt )就能完成很多任务。对于文本分类来说,直接使用这类强模型+好 Prompt ,相比于“训练”一个基础模型,是不是一种更高效(开发时间短、可能效果还好)的选择?在这种情况下,应该如何验证分类的准确性?
    我主要想理解这两种技术路径的适用场景、优缺点以及实际操作中的考量。任何经验分享或建议都将对我非常有帮助!谢谢大家! ]]>
    lima 和 colima 居然是有关系的 tag:www.v2ex.com,2025-04-13:/t/1125074 2025-04-13T04:06:31Z 2025-04-13T04:06:31Z julyclyde member/julyclyde 怪不得看起来那么相似呢

    https://lima-vm.io/docs/faq/colima/ Colima is a third-party project that wraps Lima to provide an alternative user experience for launching containers.

    ]]>
    gpt4o 图像生成的技术讨论(自回归模型又好起来了?) tag:www.v2ex.com,2025-04-10:/t/1124516 2025-04-10T08:30:32Z 2025-04-10T11:05:43Z lthero member/lthero gpt4o 图像生成的特点是,生成时从上到下逐渐清晰化(并不只是显示技巧)

    s1

    如果使用 diffusion 进行生成,它的过程可能是这样的

    s2

    但已知的是 gpt4o 图像生成(似乎)已经转向 autoregressive(自回归模型)+transformer

    s3

    目前外网也对 gpt4o 的技术进行了猜测,但也没讨论出个结果来(大多是认同转向了 ar 模型)

    自回归模型是要打败 diffusion ,并在多模态领域又好用起来了吗?

    另外,目前开源界似乎还没有什么动静,国内的字节跳动在 ar 的图像生成领域探索得还挺多(发了不少 paper )

    ]]>
    [AI Glimpse 科普系列] 不到 100 行 Python 代码从零实现 LLM 的推测采样算法 tag:www.v2ex.com,2025-04-08:/t/1123968 2025-04-08T07:00:48Z 2025-04-08T07:00:48Z huangyezhufeng member/huangyezhufeng TLDR

    具体实现

    ]]>
    什么?唠唠嗑就能生成游戏关卡! Unreal Engine + MCP 来了! tag:www.v2ex.com,2025-04-06:/t/1123593 2025-04-06T23:08:10Z 2025-04-08T18:39:10Z albertxavier001 member/albertxavier001 请添加图片描述

    即使没有编程基础,只要怀揣独特创意,MCP+Unreal 也能助你将想象变为触手可及的精品良作

    想必关注游戏开发领域的独立游戏开发者已经注意到了 blender-mcp 这个项目 它允许 Blender 连接到 Claude AI ,允许 Claude 直接与 Blender 交互和控制,使即时辅助 3D 建模、场景创建和操作成为可能。

    现在,通过 UnrealMCP 插件和 Python Editor Script 插件,控制虚幻引擎制作游戏场景 POC 也成为了可能。

    效果展示🥳

    唠唠嗑就能生成游戏关卡,谁能不爱😘?

    在这里插入图片描述 在这里插入图片描述

    白色的小不点是小狗🐕哦

    在这里插入图片描述

    从地面下看看~

    配置步骤🤖

    01 确保 Python Editor Script 插件已启用

    打开 Settings/Plugins

    在这里插入图片描述

    搜索并勾选 Python Editor Script Plugin 在这里插入图片描述

    02 安装 UnrealMCP 插件

    UnrealMCP 是一个非官方的虚幻引擎插件,旨在通过人工智能工具控制虚幻引擎。它在虚幻引擎内部实现了一种机器控制协议 (MCP),允许外部人工智能系统以编程方式与虚幻环境进行交互和操作

    在项目根目录下创建 Plugins 插件 在这里插入图片描述

    在 Plugin 目录下打开命令行并运行

    git clone <https://github.com/kvick-games/UnrealMCP>

    确保在 Plugins\UnrealMCP 目录下包含 GitHub 上的文件

    在这里插入图片描述

    重启虚幻引擎编辑器,在 Settings/Plugins 中搜索并勾选 UnrealMCP 插件(同第一步)

    03 配置 UnrealMCP Server

    Plugins\UnrealMCP\MCP 中运行 setup_unreal_mcp.bat 脚本

    04 将项目转换成 C++项目

    这一步主要是为了编译第二步下载的插件,不需要真的去写 C++

    新建一个 C++ class 即可,后续根据 UI 创建一个默认类即可 在这里插入图片描述

    打开 Visual Studio

    在这里插入图片描述

    关闭虚幻引擎编辑器,编译项目 在这里插入图片描述

    重新打开虚幻引擎编辑器,点击工具栏最右侧的图标打开 MCP Server Control Panel

    点击 Start Server 在这里插入图片描述

    Server Status 变成 Running 说明 Unreal MCP Server 可以运行了 在这里插入图片描述

    05 在 Cursor 中添加 UnrealMCP Server

    打开 Cursor Settings 在这里插入图片描述

    点击 + Add new global MCP server

    在这里插入图片描述

    在“mcpServer”中加入配置

    "unreal": { "command": "powershell", "args": ["<YOUR_GAME_ROOT>/Plugins/UnrealMCP/MCP/run_unreal_mcp.bat"] } 

    在 Cursor Settings 中出现下图说明添加成功 在这里插入图片描述

    之后就可以愉快的在 Chat 中愉快的让 AI 帮我们在虚幻引擎中创建 POC 场景啦~~~

    在这里插入图片描述

    项目限制🥲

    由于 UnrealMCP 插件项目还在非常早期的阶段,现在仅可支持有限的基本操作:获取场景基本信息,Python 脚本运行,基础材质操作等。而且就算使用了顶尖的大语言模型也不能一次性生成正确的 MCP Server 调用,需要反复修正。

    展望未来😍

    虽然目前 UnrealMCP 插件还有诸多限制,但是 MCP 还是为虚幻引擎打开了一句话生成游戏的大门!

    试想一下,未来 UnrealMCP 支持了更多的 Unreal 操作:动画、地形、AI 、PCG 等等,并且能支持蓝图或第三方游戏开发可热更脚本(例如腾讯的 PuerTS ),那么不论是游戏场景制作还是 gameplay 逻辑编写,都可以通过在 Cursor/Cluade/Windsurf/VSCode 等编辑器中通过自然语言描述生成游戏。

    这不仅能将游戏开发、原型制作的效率大大提高,更能将游戏开发门槛大大降低!

    也许在未来某一天,这样的场景会变成现实:借助 MCP+游戏引擎,零基础创作者也能将灵感轻松转化为专业级品质的游戏作品。

    有趣游戏资讯👾开发分享🖥️尽在游戏碰碰🎮

    微信号:游戏碰碰 扫码关注 了解更多

    在这里插入图片描述

    ]]>
    大模型是如何执行像数学运算、编程等精确性要求比较高的任务的? tag:www.v2ex.com,2025-03-29:/t/1121905 2025-03-29T02:46:08Z 2025-03-29T13:59:45Z happyn member/happyn
    我跟 Gemini 聊了半天,发现一个非常有意思的事情,比如我问他 "请告诉我圆周率小数点后 x 位的数字",当 10 位,30 位,50 位的时候,都没有问题,但是超过一定量,比如 1000 位,它就会宕机; 如果用 deepseek 的推理模式,他就会自己计算;所以我的理解是:

    1. 大模型理解问题,是靠神经网络进行 token 预测的
    2. 大模型解决数学类的精确问题,必须是混合模型(MoE),调用专门处理精确计算的那个部分,才能得出正确答案?

    这个理解对吗? ]]>
    有没有 LLM 入门的系统学习教程 tag:www.v2ex.com,2025-03-27:/t/1121545 2025-03-27T08:04:12Z 2025-03-27T10:16:06Z ojh member/ojh 我想系统学习一下 LLM 的使用比如发起请求、一些基本概念比如温度、上下文窗口、MCP 等,但不需要深入学什么人工智能方面专业的知识,网友们有没有什么好的教程或者书推荐

    ]]>
    mtranserver 的翻译效果还是差一点 tag:www.v2ex.com,2025-03-26:/t/1121113 2025-03-26T02:20:50Z 2025-03-26T05:15:35Z sugarkeek member/sugarkeek
    ]]>
    求助,有没有视觉大模型可以识别一个 UI 设计图中各个模块的划分 tag:www.v2ex.com,2025-03-13:/t/1118001 2025-03-13T00:34:22Z 2025-03-13T02:59:37Z 9527kf member/9527kf 试了几个模型,能识别出来有几个模块,但不能准确标出位置信息。
    大家有了解这块的吗 ]]>
    多模态大模型的大小远低于单文本模型啊。 tag:www.v2ex.com,2025-03-02:/t/1115294 2025-03-02T12:31:42Z 2025-03-02T09:30:42Z 565656 member/565656 图文大模型开源的一般就 3b ,7b ,72b 。应该是某种原因限制了多模态模型的大小?比如图片不像文字一样自回归预训练大模型?单文本的 600b 都有,这是不是意味着 gpt4o 其实模型并没有 gpt4 大?那对比的时候这些多模态模型应该打不过单文字模型吧?

    ]]>
    利用 deepseek 分析医学影像找出结节这是什么技术原理? tag:www.v2ex.com,2025-03-02:/t/1115191 2025-03-02T01:39:26Z 2025-03-01T10:49:15Z s609926202 member/s609926202 新闻链接: https://mp.weixin.qq.com/s/p3msf_1p4uwTdZFTH8JNdA

    Deepseek 是文本生成的,他是怎么结合医学影像找出结节的?

    ]]>
    大语言模型与深度学习书籍推荐 tag:www.v2ex.com,2025-02-21:/t/1113214 2025-02-21T05:26:30Z 2025-02-21T07:26:30Z huangyezhufeng member/huangyezhufeng TLDR

    LLM 相关

    DL 相关

    详情

    ]]>
    为什么 LLM 不擅长数饺子? tag:www.v2ex.com,2025-02-19:/t/1112497 2025-02-19T01:24:13Z 2025-02-19T01:22:59Z xuchkang171 member/xuchkang171 ]]> 突然冒出一个点子,利用现在热门的 AI 来做 web 外挂工具 tag:www.v2ex.com,2025-02-18:/t/1112229 2025-02-18T02:46:46Z 2025-03-24T19:13:15Z pinocc012 member/pinocc012 现在很多日常工作,是在各个 web 应用之间 copy paste ,理论上应用之间数据打通可能就没这些破事了,但是现实中还是不少需要人去干 所以如果能训练 AI 来干这个事情我们就能够更愉快的摸鱼 要做的开发大概是油猴脚本对接大模型?

    ]]>
    请问训练或者调试 yolo 用什么配置性价比较高。 tag:www.v2ex.com,2025-02-11:/t/1110797 2025-02-11T16:07:05Z 2025-02-11T16:07:05Z ixixi member/ixixi 目前有 macmini m4 和 i7-12700 + amd 的显卡 想买个 n 卡玩玩 ai

    求玩过的老哥说下经验

    ]]>
    大模型能记住所有它训练过的数据吗? tag:www.v2ex.com,2025-01-22:/t/1107038 2025-01-22T04:19:15Z 2025-01-22T11:36:26Z lurui45 member/lurui45 大模型能记住它训练过的数据吗?

    如果你让 GPT 背诵红楼梦全文,它会回答它无法逐字逐句背诵,因为超过它的生成容量限制,但是如果你需要某一部分的内容(比如某一回的片段、某个经典场景或对话),它可以根据你的需求生成相应的段落或章节。

    所以它的数据库里面是真的录进去全文了吗?红楼梦全文 80 万字,当我们说到某个模型要多少 Billion 参数时,这 80 万字能否理解为其中的一部分参数?

    我问了 GPT ,它回答它通过学习这些文本的规律和模式,能够在需要时生成相应的内容。总之无法理解...

    ]]>
    如何从头构建一个自己的大模型呢?从底层最基础的神经网络开始实现 tag:www.v2ex.com,2025-01-11:/t/1104401 2025-01-11T13:10:05Z 2025-01-16T07:53:44Z lenqu member/lenqu 我最近闲来无事,想系统性的学习一下神经网络,之前看到的都很片面,希望有懂的推荐一下

    ]]>
    LLM 静态批处理和 Continuous Batch 相关疑问的求解 tag:www.v2ex.com,2025-01-11:/t/1104386 2025-01-11T11:50:44Z 2025-01-11T16:16:22Z huc2 member/huc2 问题来自在看这篇博客时看到的图片

    img1

    这张图片中是静态 batch 的示意图,但我的理解似乎有所偏差,希望有大佬能答疑解惑。

    问题 1:对于静态 batch 场景,同一个 batch 中不同的 sample 的 prefill 是同时完成的吗?

    我的理解: 对于一个单独的短 prompt ,prefill 阶段肯定是一个比很长的 prompt 快的。但是当这 2 个长度不同的 sample 经过 padding 然后拼成了一个静态 batch 之后,也就是维度变成了 [batch_size, ..] (当然这里可能不止 2 个 sample )。在 prefill 阶段,他们肯定是同时开始的,因为 transformers 内部是很多的矩阵乘法。并且要经过很多层,比如:

    emb = layer1(emb) emb = layer2(emb) ... 

    上面的 emb 的维度应该也都会是 [batch_size, ....]

    虽然同一个 batch 之间不同 sample 单独做 prefill 需要的时间不同,但是当他们成为一个 batch 之后,变成了一个大矩阵,他们在经过不同的 layer 的时候,都是一起一层一层过的,也就相当于他们同时开始 prefill 阶段,然后同时完成 layer1, 同时完成 layer2, ......。最后一起完成最后一层,获得第一个预测的 new_tokens ( batch 中每个 sample 都有一个 new_token)。所以,在我的理解中,prefill 阶段应该是左右对齐的。

    问题 2: 以下我对 Continuous Batch 的理解是否正确?

    我的理解:

    以上是我的理解,不知道有多少错误的内容,希望有大佬指正。我的描述可能有点啰嗦,抱歉。

    ]]>
    有没有久坐提醒类服务,最好是基于啥啥啥模型的那种活体检测。 tag:www.v2ex.com,2025-01-08:/t/1103390 2025-01-08T01:49:06Z 2025-01-08T03:55:23Z YaD2x member/YaD2x 最好是基于 AI 模型的,通过笔记本前置摄像头,或其它普通摄像头检测活体长时间坐在电脑前的。实现久坐 1h 弹出提示的。

    ]]>
    LLMs 文本标签(分类)任务怎么做比较好? tag:www.v2ex.com,2025-01-06:/t/1102993 2025-01-06T10:58:59Z 2025-01-06T12:42:36Z CNYoki member/CNYoki
    另外现在通用型 LLMs 好像对标签工作都不太完美,经常出现标出其他不在字典的标签,或是标签过多之后分类效果不佳。

    有没有朋友在做相关工作有经验的,可以分享下方法嘛 ]]>
    能推荐个偏实战的 tranformer/LLM 的课程么? tag:www.v2ex.com,2025-01-06:/t/1102896 2025-01-06T06:09:22Z 2025-01-06T09:34:54Z ttgo member/ttgo 模型部署的姿势 tag:www.v2ex.com,2025-01-01:/t/1101819 2025-01-01T10:07:19Z 2025-01-02T19:25:28Z anivie member/anivie 小白想问问现在的模型一般都是怎么部署的?直接用 python 的框架部署上去吗?还是导出给 c++部署?看到好像 onnx 部署的文章好像很稀少,大伙都是直接用 python 部署的吗?

    ]]>
    深度学习在自己电脑上跑, Linux 环境,选择 WSL 还是物理机 Ubuntu? tag:www.v2ex.com,2024-12-29:/t/1101050 2024-12-29T08:09:02Z 2024-12-29T15:40:37Z jiashuaibei member/jiashuaibei 不是很喜欢物理机装 Ubuntu ,毕竟还需要写论文以及行业软件只支持 Windows 。
    那么在 WSL 跑深度学习显卡直通损耗大概多少?可行吗?有过来人吗? ]]>
    CUDA 搞深度学习, 1TB 的一块硬盘, C 盘留多大合适? tag:www.v2ex.com,2024-12-28:/t/1100947 2024-12-28T11:28:50Z 2025-01-10T01:38:28Z jiashuaibei member/jiashuaibei 怎么理解 RNN 循环神经网络工作原理? tag:www.v2ex.com,2024-12-25:/t/1100332 2024-12-25T22:46:01Z 2024-12-26T05:10:46Z James369 member/James369 y = f(x, θ)
    这里函数 f 的定义是固定的。那么,只要输入一组 x 和 y ,就可以训练出θ。


    但是对于 RNN ,我不大理解的是:
    1. 它的网络结构是不定的,多重的。假如循环了 n 次,相当于要训练 n 个函数: f1(x,θ), f2(x,θ),,, fn(x,θ).
    2. 对于这样多重的网络结构,它是怎么训练收敛的?
    3. 后面输入进来训练的 x ,是否会对前面已经训练好的θ产生影响(类似灾难性遗忘) ]]>
    ReLU 函数在 x> 0 的时候也是线性的,套 ReLU 函数是怎么实现激活作用的? tag:www.v2ex.com,2024-12-22:/t/1099417 2024-12-22T09:42:32Z 2024-12-22T11:20:24Z lisisi member/lisisi 神经网络每一层节点输出值,都要套一层非线性激活函数。现在使用较多的激活函数 ReLU 激活函数在 x > 0 的时候也是线性的,并且是 y=x ,这能起到“线性”=>“非线性”的作用吗?不太理解 ReLU 是怎么实现激活作用的

    ]]>
    阿里新开源的 QwQ-32B-Preview 模型有啥特殊性? tag:www.v2ex.com,2024-11-28:/t/1093265 2024-11-28T01:13:56Z 2024-11-28T02:18:38Z cowcomic member/cowcomic 说是数学和编程领域表现出色,但他不是有了 coder 和 math 两个单独的模型了么

    ]]>
    上楼梯的时候,人是怎么判断脚该抬多高的 tag:www.v2ex.com,2024-11-25:/t/1092383 2024-11-25T05:28:22Z 2024-11-25T16:22:35Z abcfreedom member/abcfreedom 似乎不是太高的楼梯,都能自然而然的抬上去,脑子也不用可以去算楼梯有多高🤔

    ]]>
    小白求教,输入语音指令输出统计图表这样的功能是否可以实现? tag:www.v2ex.com,2024-11-20:/t/1091035 2024-11-20T01:22:17Z 2024-11-20T01:28:34Z jiangziheng member/jiangziheng 问了 ChatGPT ,也不是很明确。大概思路是语音转文字,文字传入 AI ,返回相关 SQL 和指令,再通过代码做统计,图表生成,输出给用户。
    不知道现在是否可以实现这样的功能?现在只会用 ChatGPT ,看了下 Qwen2 微调,想是否可以把数据库表加入大模型进行训练。应该学习哪些只是可以做到这个效果,还有就是后续可能数据仓库变动,AI 也跟着更新。(排版和语言组织的不太好,大家见谅) ]]>
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86