javascript - 网页加载大小10M+的pdf,时间过长的问题
阿神
阿神 2017-04-11 09:53:10
[JavaScript讨论组]

加载流程是这样的,pdf文件在ftp服务器上,web服务器要先去ftp服务器下载pdf,然后在返回文件给浏览器,相当于要pdf要在网络中传输2次,就是下载2次了。

导致的问题就是加载时间很长,要10多秒才能显示,很难忍受,

请问大神们有没有这方面的经验和解决方案可以传授下,pdf基本上都是10多M的大小

目前能想到的解决方案,是把pdf下载服务器上,转换成单页的jpg,先返回第一页的jpg,然后其他的转换任务还在线程中异步执行,这样应该可以将请求时间缩短一半。

阿神
阿神

闭关修行中......

全部回复(11)
黄舟

谢邀。之前遇到过类似的问题,,图片上传,一开始的思路是前端把图片上传到后台,再由后台上传到七牛云,后来感觉太影响速度,就直接用七牛的JS SDK,前端把直接把图上传到七牛,只把对应的文件名(key)发给后台,再将key存入数据库。
我觉得题主这个问题类似吧,,为什么不直接在页面上的PDF地址改成FTP服务器的地址呢??如有错误请批评指出,不才在这方面不了解

PHPz

我感觉不是ftp服务器的问题,内部网络一般都是非常快的,很少成为瓶颈

你可以试试,在你的web服务器上放一个pdf,然后直接访问这个pdf看看速度如何

天蓬老师

ftp协议可以直接访问下载的

黄舟

提供一个思路楼主参考
文件切割成多份,多线程下载,完成后在本地组合生成文件。
不过借用第三方,如七牛,这种已经优化的专业的平台应该更省事

ringa_lee

我们的做法是在后端写个服务,先把上传的pdf文档,利用这个接口存储成多个svg文件,然后把这些svg文件提交到阿里云的oss或者是七牛的存储服务中,这个转换和存储的过程大概在半分钟左右,访问的时候,可以用懒加载方式,浏览效率和用户体验都非常不错。

巴扎黑
  1. 试试把pdf直接放到web机器,再访问web机器看速度提升了多少,ftp和web机器在一个内网吗?

  2. 将下载分发用云存储平台去,如cdn提供商、阿里云等

  3. 如果web机器访问速度可以,那可以使用rsync将ftp的同步到web机器来,如果项目小的话

天蓬老师

我的解决方案是tornado+requests流传输
http://www.zwy.win/?p=132

怪我咯

用户体验:做个加载进度条
网络优化:上面很多都说了,CDN加速(机密文件不适合)
文件优化: pdf做成可单页加载的,不好处理可尝试分割成多个图片

这种问题,一般1,2两不就够了

阿神

新的pdf功能可以做成 类似异步请求的效果 本身文件很小具体需求会请求网络

伊谢尔伦

为什么每次请求 都要重新连FTP下载?
建议第一次下载后把文件存在本地,
如果PDF会经常改动,那就在第二次下载之前判断一下文件大小和修改时间,
有改动再重新下载。

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号