curl 和 file_get_contents 抓取网页乱码的解决之道
程序员文章站
2022-03-18 08:52:31
...
今天用 curl_init 函数抓取搜狐的网页时,发现采集的网页时乱码,经过分析发现原来是服务器开启了gzip压缩功能。只要往函数 curl_setopt 添加多个选项 CURLOPT_ENCODING 解析 gzip 就可以正确解码了。
还有如果抓取的网页时 GBK 编码,但是脚本确是 utf-8 编码,还得把抓取的网页再用函数 mb_convert_encoding 转换下。
还有如果抓取的网页时 GBK 编码,但是脚本确是 utf-8 编码,还得把抓取的网页再用函数 mb_convert_encoding 转换下。
推荐阅读
-
php curl抓取网页的介绍和推广及使用CURL抓取淘宝页面集成方法
-
关于curl抓取回来的网页中中文乱码的问题!
-
php curl抓取网页的介绍和推广及使用CURL抓取淘宝页面集成方法
-
php file_get_contents抓取Gzip网页乱码的三种解决方法_PHP教程
-
关于curl抓取回来的网页中中文乱码的有关问题
-
php curl抓取网页的介绍和推广及使用CURL抓取淘宝页面集成方法_PHP
-
php file_get_contents抓取Gzip网页乱码的三种解决方法_PHP
-
关于curl抓取回来的网页中中文乱码的有关问题
-
php curl抓取网页的介绍和推广及使用CURL抓取淘宝页面集成方法
-
php file_get_contents抓取Gzip网页乱码的三种解决方法