PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题
php curl与file_get_contents函数都可以获取远程服务器上的文件保存到本地,但在性能上面两者完全不在同一个级别,下面我先来介绍php curl或file_get_contents函数应用例子,然后再简单的给各位介绍一下它们的一些小区别吧。
推荐方法 curl获取
<?php $c = curl_init(); $url = 'www.jb51.net'; curl_setopt($c, curlopt_url, $url); curl_setopt($c, curlopt_returntransfer, 1); $data = curl_exec($c); curl_close($c); $pos = strpos($data,'utf-8'); if($pos===false){$data = iconv("gbk","utf-8",$data);} preg_match("/<title>(.*)<\/title>/i",$data, $title); echo $title[1]; ?>
使用file_get_contents
<?php $content=file_get_contents("//www.jb51.net/"); $pos = strpos($content,'utf-8'); if($pos===false){$content = iconv("gbk","utf-8",$content);} $postb=strpos($content,'<title>')+7; $poste=strpos($content,'</title>'); $length=$poste-$postb; echo substr($content,$postb,$length); ?>
看看file_get_contents性能
1)fopen/file_get_contents 每次请求远程url中的数据都会重新做dns查询,并不对dns信息进行缓存。但是curl会自动对dns信息进行缓存。对同一域名下的网页或者图片的请求只需要一次dns 查询。这大大减少了dns查询的次数。所以curl的性能比fopen/file_get_contents 好很多。
2)fopen/file_get_contents在请求http时,使用的是http_fopen_wrapper,不会keeplive。而curl却可以。这样在多次请求多个链接时,curl效率会好一些。(设置header头应该可以)
3)fopen/file_get_contents函数会受到php.ini文件中allow_url_open选项配置的影响。如果该配置关闭了,则该函数也就失效了。而curl不受该配置的影响。
4)curl可以模拟多种请求,例如:post数据,表单提交等,用户可以按照自己的需求来定制请求。而fopen/file_get_contents只能使用get方式获取数据。
5)fopen/file_get_contents 不能正确下载二进制文件
6)fopen/file_get_contents 不能正确处理ssl请求
7)curl 可以利用多线程
8)使用 file_get_contents 的时候如果 网络出现问题, 很容易堆积一些进程在这里
9)如果是要打一个持续连接,多次请求多个页面。那么file_get_contents就会出问题。取得的内容也可能会不对。所以做一些类似采集工作的时候,肯定就有问题了。对做采集抓取的用curl,如果还有同不相信下面我们再做个测试
curl与file_get_contents性能对比php源代码如下:
1829.php
<?php /** * 通过淘宝ip接口获取ip地理位置 * @param string $ip * @return: string **/ function getcitycurl($ip) { $url="http://ip.taobao.com/service/getipinfo.php?ip=".$ip; $ch = curl_init(); $timeout = 5; curl_setopt ($ch, curlopt_url, $url); curl_setopt ($ch, curlopt_returntransfer, 1); curl_setopt ($ch, curlopt_connecttimeout, $timeout); $file_contents = curl_exec($ch); curl_close($ch); $ipinfo=json_decode($file_contents); if($ipinfo->code=='1'){ return false; } $city = $ipinfo->data->region.$ipinfo->data->city; return $city; } function getcity($ip) { $url="http://ip.taobao.com/service/getipinfo.php?ip=".$ip; $ipinfo=json_decode(file_get_contents($url)); if($ipinfo->code=='1'){ return false; } $city = $ipinfo->data->region.$ipinfo->data->city; return $city; } // for file_get_contents $starttime=explode(' ',microtime()); $starttime=$starttime[0] + $starttime[1]; for($i=1;$i<=10;$i++) { echo getcity("121.207.247.202")."</br>"; } $endtime = explode(' ',microtime()); $endtime = $endtime[0] + $endtime[1]; $totaltime = $endtime - $starttime; echo 'file_get_contents:'.number_format($totaltime, 10, '.', "")." seconds</br>"; //for curl $starttime2=explode(' ',microtime()); $starttime2=$starttime2[0] + $starttime2[1]; for($i=1;$i<=10;$i++) { echo getcitycurl('121.207.247.202')."</br>"; } $endtime2 = explode(' ',microtime()); $endtime2=$endtime2[0] + $endtime2[1]; $totaltime2 = $endtime2 - $starttime2; echo "curl:".number_format($totaltime2, 10, '.', "")." seconds"; ?>
测试访问
file_get_contents速度:4.2404510975 seconds
curl速度:2.8205530643 seconds
curl比file_get_contents速度快了30%左右,最重要的是服务器负载更低.
ps:php函数file_get_contents与curl效率及稳定性问题
习惯了使用方便快捷的file_get_contents函数抓取别家网站内容,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不好使:
$config['context'] = stream_context_create(array('http' => array('method' => "get",'timeout' => 5)));
'timeout' => 5//这个超时时间不稳定,经常不好使。这时候,看一下服务器的连接池,会发现一堆类似下面的错误,让你头疼万分:
file_get_contents(http://***): failed to open stream…
不得已,安装了curl库,写了一个函数替换:
function curl_get_contents($url) { $ch = curl_init(); curl_setopt($ch, curlopt_url, $url); //设置访问的url地址 //curl_setopt($ch,curlopt_header,1); //是否显示头部信息 curl_setopt($ch, curlopt_timeout, 5); //设置超时 curl_setopt($ch, curlopt_useragent, _useragent_); //用户访问代理 user-agent curl_setopt($ch, curlopt_referer,_referer_); //设置 referer curl_setopt($ch,curlopt_followlocation,1); //跟踪301 curl_setopt($ch, curlopt_returntransfer, 1); //返回结果 $r = curl_exec($ch); curl_close($ch); return $r; }
如此,除了真正的网络问题外,没再出现任何问题。
这是别人做过的关于curl和file_get_contents的测试:
file_get_contents抓取google.com需用秒数:
2.31319094
2.30374217
2.21512604
3.30553889
2.30124092
curl使用的时间:
0.68719101
0.64675593
0.64326
0.81983113
0.63956594
差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的 curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!
上一篇: Thinkphp5+uploadify实现的文件上传功能示例
下一篇: ZF框架实现发送邮件的方法
推荐阅读
-
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题
-
PHP CURL或file_get_contents获取网页标题的代码
-
PHP CURL或file_get_contents获取网页标题的代码
-
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题_PHP
-
contents获取网页标题的代码及两者效率的稳定性问题
-
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题_PHP
-
contents获取网页标题的代码及两者效率的稳定性问题
-
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题
-
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题_php实例
-
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题_php实例