
最近在 HP Microserver Gen8 上重新搭建了 Nextcloud (在虚拟机里面容器里,基于 PHP 7.2 ),可惜通过 virtio 虚拟万兆网络进行下载,SSD 上文件的下载速度不超过 260MiB/s,机械硬盘上文件的下载速度不超过 80MB/s。要知道直接本地访问时,SSD 能达到 550MB/s 左右,机械硬盘平均 130MB/s,不甘心(这时 PHP 进程的 CPU 占用率很低,说明根本没有达到 CPU 执行瓶颈)。
排除了网络问题后,我在存储目录上搭建了一个 Nginx 进行测试,发现通过 Ngninx 直接下载文件几乎能达到本地直接访问的性能。于是,下载速度慢的锅就落在了 PHP 的性能上。
经过一番调研,Nextcloud 的 WebDav 服务是基于 sabre/dav 的框架开发的。于是找到了 sabre/dav 的源码,最后定位到下载文件代码的位置:3rdparty/sabre/http/lib/Sapi.php 。原来 sabre/dav 是通过调用 stream_copy_to_stream 将要下载的文件拷贝到 HTTP 输出的:直接把文件流和 PHP 的输出流进行对拷,之前并没有其他的读写操作,说明瓶颈就在这一行代码。
// 3rdparty/sabre/http/lb/Sapi.php // ... if (is_resource($body) && 'stream' == get_resource_type($body)) { if (PHP_INT_SIZE !== 4) { // use the dedicated function on 64 Bit systems stream_copy_to_stream($body, $output, (int) $contentLength); } else { // ... 我本人并不是 PHP 程序员,于是开始了漫长的搜索。Google 娘告诉我 PHP 专门提供了fpassthru函数提供高性能文件下载,于是我修改代码把 stream_copy_to_stream 换成了fpassthru。
// 3rdparty/sabre/http/lib/Sapi.php // ... if (is_resource($body) && 'stream' == get_resource_type($body)) { if (PHP_INT_SIZE !== 4) { // use the dedicated function on 64 Bit systems // stream_copy_to_stream($body, $output, (int) $contentLength); fpassthru($body); // 改动这一行 } else { // ... 测试了一下,发现下载速度直接打了鸡血,440-470 MiB/s。可惜 fpassthru 只能把文件输出到结尾,不能只输出文件的一部分(为了支持断点续传和分片下载)。另外翻了一下 sabre/dav 的 issues,发现 sabre/dav 不用fpassthru的另外一个原因是有些版本的 PHP 中fpassthru函数存在 BUG。
那为什么stream_copy_to_stream速度和fpassthru差距大得不科学呢?只能去读 PHP 的源码了,幸好 C 语言是我的强项。 我发现,fpassthru函数和stream_copy_to_stream函数实现是及其类似的:先尝试把源文件创建为内存映射文件(通过调用 mmap ),如果成功则直接从内存映射文件拷贝到目的流,否则就读到内存中进行传统的手动拷贝。差别来了,stream_copy_to_stream的第三个参数是要拷贝的字节数,可惜如果这个值大于 4MiB,PHP 就拒绝创建内存映射文件,直接回退到传统拷贝。
在循环中调用stream_copy_to_stream,每次最多拷 4MiB:
// 3rdparty/sabre/http/lib/Sapi.php // ... if (is_resource($body) && 'stream' == get_resource_type($body)) { if (PHP_INT_SIZE !== 4) { // use the dedicated function on 64 Bit systems // 下面是改动的部分: // allow PHP to use mmap by copying in 4MiB chunks $chunk_size = 4 * 1024 * 1024; stream_set_chunk_size($output, $chunk_size); $left = $contentLength; while ($left > 0) { $left -= stream_copy_to_stream($body, $output, min($left, $chunk_size)); } } else { // ... 测试了一下,结果令人震惊:下载速度几乎和本地读取无异了:SSD 文件的下载速度超过了 500 MB/s,甚至超过了 fpassthru 的速度(大概是因为缓冲区开的比fpassthru大)。
我又试着创建了一个 10G 大小的 sparse 文件 ( truncate -s 10G 10G.bin ),Linux 在读取 sparse 文件时可以立即完成,可以用来模拟如果硬盘速度足够快的情况。继续测试,发现下载速度超过了 700MiB/s,已经接近万兆网络的传输极限。这时 PHP 进程的 CPU 占用率已经达到 100%,说明瓶颈在 CPU 性能上了。
用stream_copy_to_stream 拷贝流时,如果 source 是文件并且每次拷贝小于 4MiB,PHP 会用内存映射文件对拷贝进行加速。超过 4MiB 后就会回退到传统读取机制。
向 Sabre 项目提了 PR:https://github.com/sabre-io/http/pull/119。如果各位也在玩 Nextcloud 并且遇到了下载速度瓶颈,可以试着打一下我这个补丁。
1 zk8802 2019 年 4 月 15 日 via iPhone 赞楼主刨根问底的精神! |
2 Q4h7388nR28s95fa 2019 年 4 月 15 日 厉害!楼主专研精神真棒! |
3 zhs227 nbsp; 2019 年 4 月 15 日 没玩过这么高级的装备,不过非常佩服楼主,顶一下友情支持 另外不清楚有没有人知道,nginx 的那个 sendfile 和这个 mmap 的拷贝机制是不是一回事 |
4 raysonx OP @zhs227 是的`sendfile`的性能更高,直接让内核对拷两个文件描述符,连内核态 /用户态拷贝都不用。但是 PHP 至今没有利用`sendfile`,包括`fpassthru`。 |
5 yufz 2019 年 4 月 15 日 via Android 佩服佩服,真 极客 |
6 GG668v26Fd55CP5W 2019 年 4 月 15 日 via iPhone 厉害啊 |
7 sxcccc 2019 年 4 月 15 日 via iPhone aws 的 ec2 高端配置 东京节点 首页 500kb 打开速度一流 内容分发都是 4gb 大包依然能迅速下载 参考 www.dxqq.net |
8 lzxgh621 2019 年 4 月 15 日 via iPhone 我这边 程序本体都跑不利索 |
9 slowgen 2019 年 4 月 15 日 很棒,最近在团队内部推 nextcloud,以及基于 Collabora 的办公文档协作,先收藏留作备用了. |
10 tony601818 2019 年 4 月 15 日 via Android 厉害,难得有真正有意义的话题了! |
11 lihongming 2019 年 4 月 15 日 via iPhone 赞,可以考虑测一下 2M 一个循环,看是不是会更早达到 CPU 瓶颈,那样的话就该考虑自己修改 stream_copy_to_stream 源码放宽限制,以获得更高性能了。 |
12 mwftts 2019 年 4 月 15 日 via Android 好久没在 app 第一页看到这样的技术贴,今天一天心情肯定会不错 |
13 lazyyz 2019 年 4 月 15 日 via Android 厉害,佩服楼主这折腾劲! |
14 taresky 2019 年 4 月 15 日 via iPhone 厉害! |
15 akagishigeru 2019 年 4 月 15 日 via iPhone 一大早就学习了 |
16 carlclone 2019 年 4 月 15 日 via Android 强,基础好扎实 |
17 mokeyjay 2019 年 4 月 15 日 强无敌,点赞 |
18 CallMeReznov 2019 年 4 月 15 日 via Android 这才是真正的干货啊 |
19 zvcs 2019 年 4 月 15 日 via Android 谢谢楼主的分享 |
20 Canon1014 2019 年 4 月 15 日 目瞪口呆 |
21 zuokanyunqishi 2019 年 4 月 15 日 via Android 点赞 |
22 fengtalk 2019 年 4 月 15 日 收藏了,佩服和赞赏楼主的这种探索精神。 |
23 Edwards 2019 年 4 月 15 日 收藏 |
24 zzxCNCZ 2019 年 4 月 15 日 赞楼主,厉害了 |
25 R18 2019 年 4 月 15 日 厉害了!打破砂锅闻到底 |
26 fox0001 2019 年 4 月 15 日 via Android 点赞! nextcloud 15 之前,性能低下,我只是从树莓派搬到 x8350。一直以为是 PHP 背的锅,没想到楼主还能找出具体原因 |
27 SupperMary 2019 年 4 月 15 日 via Android 很强 |
28 eluotao 2019 年 4 月 15 日 技术贴 要收藏...回头看看 NAS 有没有优化的空间. |
29 whatsmyip 2019 年 4 月 15 日 很强 |
30 yngby 2019 年 4 月 15 日 牛逼牛逼 |
31 polymerdg 2019 年 4 月 15 日 牛逼 |
32 hst001 2019 年 4 月 15 日 via Android 666 |
33 SbloodyS 2019 年 4 月 15 日 牛逼 |
34 sorshion 2019 年 4 月 15 日 基础很扎实,厉害 |
35 liuxu 2019 年 4 月 15 日 这波操作可以的 |
36 syahd 2019 年 4 月 15 日 via Android ⊙⊙!这就是开源的魅力啊,有需要就可以自己改。不过确定魔改这一部分的代码不会对其他地方造成影响吗? |
37 dapang1221 2019 年 4 月 15 日 厉害了 |
38 bzi 2019 年 4 月 15 日 厉害啊 |
39 tailf 2019 年 4 月 15 日 服了 |
40 reeble 2019 年 4 月 15 日 大佬大佬 |
41 sheeta 2019 年 4 月 15 日 佩服佩服 |
42 zhujinliang 2019 年 4 月 15 日 via iPhone 使用 nginx 的 X-Accel-Redirect 可不可行呢 |
厉害了 |
44 liuxyon 2019 年 4 月 15 日 厉害 |
45 yytsjq 2019 年 4 月 15 日 @zhujinliang X-Accel-Redirect 相比 fpassthru 应该更好些吧 |
46 dalieba 2019 年 4 月 15 日 via Android 希望 Sabre 项目早日接纳楼主的改进,新版本早日发布。 |
47 klusfq 2019 年 4 月 15 日 via iPhone 膜拜楼主大佬 |
48 zzxx3322 2019 年 4 月 15 日 楼主有遇到上传瓶颈吗?官方默认最多同时上传三个任务,关键速度跑不满,我没有详细测试是不是网络或者硬件问题导致速度跑不满,但是我感觉你的问题和这个问题也应该是相同的锅,提一下,可以给点意见嘛? |
49 duola 2019 年 4 月 15 日 折腾精神,厉害! |
51 moonfly 2019 年 4 月 15 日 技术贴必须要支持, 虽然自己的功力远远没有达到 LZ 的级别, 但能看到这样的帖子,真的是一种享受! |
52 Huelse 2019 年 4 月 15 日 真是一篇干货,感谢感谢!! |
53 Actrace 2019 年 4 月 15 日 还有一个方案,文件输出完全交给 Nginx 去做,PHP 只负责处理输出前逻辑。 这里需要用到 Nginx 的一个特性 X-Accel-Redirect,不过这样整套程序就和 Nginx 绑定到一起了。 |
54 zjq123 2019 年 4 月 15 日 via Android 你们下载速度达到几百兆每秒? |
55 dnsaq 2019 年 4 月 15 日 via iPhone 目瞪口呆 我都看懵了。 |
56 tongz 2019 年 4 月 15 日 奈何本人没文化, 一句卧槽走天下 |
57 laozhoubuluo 2019 年 4 月 15 日 啥也不说了,点赞!! |
58 ultimate010 2019 年 4 月 15 日 真心点赞,我自己搭建的局域网 samba 和 nfs 等文件服务,速度也没法跑满千兆网卡,查了下参数优化了下 samba aio,有点提升,但是仍然无法满速,没思路就凑合用了。 |
59 KasuganoSoras 2019 年 4 月 15 日 确实是快了很多,在千兆服务器上测试的 |
60 KasuganoSoras 2019 年 4 月 15 日 @ultimate010 #58 局域网 samba 我测试千兆是可以跑满的,传文件速度稳定在 110MB/s 左右,如果跑不满可能是 samba 版本比较低或者其他问题 |
61 killerv 2019 年 4 月 15 日 厉害了 |
62 cfcboy 2019 年 4 月 15 日 感谢楼主的分享,做个记号。 |
63 BCy66drFCvk1Ou87 2019 年 4 月 15 日 awesome |
64 fengci 2019 年 4 月 15 日 mk |
65 panlilu 2019 年 4 月 15 日 硬核 debug |
66 ultimate010 2019 年 4 月 15 日 @KasuganoSoras 谢谢,我用 docker 跑的,最新的 dperson/smba,小机器 cpu 是 Intel(R) Atom(TM) CPU D525 @ 1.80GHz,机械硬盘,全速的时候也就 50mb 左右,以前调出过写入 80mb,读取也就 30-40mb,cpu 好像没有跑满,感觉自己的配置有点问题。 |
67 KasuganoSoras 2019 年 4 月 15 日 @ultimate010 #66 这应该就是 CPU 性能瓶颈问题了,我手上也有一台 Atom D2550 的工控主机,装了 Samba 测试也是跑不满千兆,速度在 100-400Mbps 左右浮动,就上不去了 |
68 kookxiang 2019 年 4 月 15 日 应该用 sendfile 吧 |
69 ben1024 2019 年 4 月 15 日 厉害 |
70 intsilence 2019 年 4 月 15 日 手动点赞! |
71 raysonx OP @KasuganoSoras 截图中是打了补丁后的速度吗?之前是多少? CPU load 有没有跑满? |
72 KasuganoSoras 2019 年 4 月 15 日 @raysonx #71 之前大概是 20 ~ 40M/s 左右,CPU 的话基本上不可能跑满的……至少是宽带先跑满 因为 CPU 是 32 核 64 线程,但是下载的时候看到 CPU 占用率明显比之前高了,速度也快了很多 |
73 dandycheung 2019 年 4 月 15 日 via Android @zhs227 不是一回事。 |
74 KasuganoSoras 2019 年 4 月 15 日 @raysonx #71 这个速度其实不是固定的,一直在跳来跳去,可能和我本地网络有关,我看到有几秒钟速度上到了 97MB/s,然后又掉到 60 左右,不过已经算很不错了 |
75 raysonx OP @KasuganoSoras 有时间的话可以试试在服务器上本地测速,排除网络影响。方法是直接用 curl 命令下载文件: curl -o /dev/null --user 'username:password' -H hostname http://127.0.0.1/remote.php/webdav/文件名 |
76 BooksE 2019 年 4 月 15 日 你们都是点赞?只有我是羡慕 lz 有这个能力 |
77 wmwwmv 2019 年 4 月 16 日 via Android 这对我很有用,感谢楼主 |
79 tankren 2019 年 4 月 16 日 via Android 收藏了 谢谢 |
80 silencefent 2019 年 4 月 16 日 速度提高 3 倍,cpu 跑满载还是有点划不来吧,gen8 好歹也是 3.5G 起步的 4C8T 服务器 |
81 ganbuliao 2019 年 4 月 16 日 牛逼 我觉得 还是比较适合拧小螺丝钉 |
82 ganbuliao 2019 年 4 月 16 日 还是觉得自己比较适合拧小螺丝钉 (滑稽 |
83 wttx 2019 年 4 月 16 日 via Android Mark 一下,以后有用,, |
84 telami 2019 年 4 月 16 日 开源的魅力,心向往之 |
85 lzj307077687 2019 年 4 月 16 日 敬佩! |
86 nyaruko 2019 年 4 月 16 日 万兆。。厉害了。。家里千兆网完全不担心这些。 |
87 knightgao2 2019 年 4 月 16 日 厉害厉害了 |
88 Jaeger 2019 年 4 月 16 日 反手就是一赞 |
89 abccccabc 2019 年 4 月 19 日 这个贡献可大了。 |
90 iwishing 2019 年 5 月 7 日 这个就是工匠精神,hacker 精神,打破沙锅问到底的精神 请问,您秃了没有? |
91 Chenamy2017 2019 年 5 月 7 日 牛! |
92 JRay 2019 年 5 月 7 日 大佬大佬 |
93 zlfoxy 2019 年 5 月 7 日 厉害,关键是这么复杂的东西,楼主能解释的这么清楚。膜拜。 |
94 pupboss 2020 年 8 月 20 日 楼主好,我想请教个问题,NextCloud 使用网页版或者 WebDAV 处理大文件的时候,取消下载文件之后,php 还是会不断的读硬盘,并且占满 IO,如果点了一个视频关闭再开再关闭,磁盘会卡的不能用,同时我也用 Nginx 测试过静态文件,只有在需要读盘的时候才会有 20M/s 左右的 IO,然后立刻就不读了,这个问题有解吗,我看官方已经合并了你最新的代码,应该不是这个导致的 |
95 aod321 2021 年 6 月 30 日 大佬牛! |