下载大文本超时现象
由于业务需求,需要进行文本下载
由于文本过大,导致超时出现以上这种现象,有什么好的方法可以避免下载超时吗?在此万分感谢!!!
回复内容:
由于业务需求,需要进行文本下载
由于文本过大,导致超时出现以上这种现象,有什么好的方法可以避免下载超时吗?在此万分感谢!!!
504网关超时,不是nginx超时, 还是php超时。
要设置 fastcgi 或者说 php-fpm 的超时时间。
设置php ini超时时间
如果你的php前有nginx或者apache(一般都有吧),需要同时设置它们的超时时间。
否则它超时了,你后端不超时也没用啊。
用Linux系统工具进行下载,wget
、curl
、axel
之类的
调整php的超时时间即可避免这样的问题
切割成小文本下载?
要是爬虫的话,推荐用python,可以获取网页内的图片,文字,并进行格式化处理,方便点。这是个参考链接:http://www.cnblogs.com/fnng/p/3576154.ht...
打成zip包再下载呗,文本文件的压缩比很高,与其考虑超时的问题不如考虑怎么让文件变小,这样也节约访问者的等待时间,比如你在服务器上导出mysql下载到本地,你愿意直接下载还是压缩之后在下载呢?前者可能要10分钟,后者几十秒。
上一篇: Python实现telnet服务器的方法
下一篇: python操作表格添加行