深入php数据采集的详解
程序员文章站
2022-09-10 09:14:24
这里介绍两个php采集能用到的好工具。一个是snoopy,一个是simple_html_dom。采集还有很多方式(其实本质就2-3种,其他的都是衍生的),php自带了几个方...
这里介绍两个php采集能用到的好工具。一个是snoopy,一个是simple_html_dom。采集还有很多方式(其实本质就2-3种,其他的都是衍生的),php自带了几个方法也能直接进行采集。但是,出于把懒惰进行到底的精神。我们还是可以通过这两个工具,让采集变得更简单。
网上有不少介绍snoopy的,下面是别人翻译的snoopy的sdk
//////////////////////////////////////////////////////////////
snoopy是一个php类,用来模拟浏览器的功能,可以获取网页内容,发送表单。
snoopy的一些特点:
1抓取网页的内容 fetch
2抓取网页的文本内容 (去除html标签) fetchtext
3抓取网页的链接,表单 fetchlinks fetchform
4支持代理主机
5支持基本的用户名/密码验证
6支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
7支持浏览器重定向,并能控制重定向深度
8能把网页中的链接扩展成高质量的url(默认)
9提交数据并且获取返回值
10支持跟踪html框架
11支持重定向的时候传递cookies
要求php4以上就可以了 由于本身是php一个类 无需扩支持 服务器不支持curl时候的最好选择,
类方法:
fetch($uri)
———–
这是为了抓取网页的内容而使用的方法。
$uri参数是被抓取网页的url地址。
抓取的结果被存储在 $this->results 中。
如果你正在抓取的是一个框架,snoopy将会将每个框架追踪后存入数组中,然后存入 $this->results。
fetchtext($uri)
—————
本方法类似于fetch(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中的文字内容。
fetchform($uri)
—————
本方法类似于fetch(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中表单内容(form)。
fetchlinks($uri)
—————-
本方法类似于fetch(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的url。
submit($uri,$formvars)
———————-
本方法向$url指定的链接地址发送确认表单。$formvars是一个存储表单参数的数组。
submittext($uri,$formvars)
————————–
本方法类似于submit(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回登陆后网页中的文字内容。
submitlinks($uri)
—————-
本方法类似于submit(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的url。
类属性: (缺省值在括号里)
$host 连接的主机
$port 连接的端口
$proxy_host 使用的代理主机,如果有的话
$proxy_port 使用的代理主机端口,如果有的话
$agent 用户代理伪装 (snoopy v0.1)
$referer 来路信息,如果有的话
$cookies cookies, 如果有的话
$rawheaders 其他的头信息, 如果有的话
$maxredirs 最大重定向次数, 0=不允许 (5)
$offsiteok whether or not to allow redirects off-site. (true)
$expandlinks 是否将链接都补全为完整地址 (true)
$user 认证用户名, 如果有的话
$pass 认证用户名, 如果有的话
$accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
$error 哪里报错, 如果有的话
$response_code 从服务器返回的响应代码
$headers 从服务器返回的头信息
$maxlength 最长返回数据长度
$read_timeout 读取操作超时 (requires php 4 beta 4+)
设置为0为没有超时
$timed_out 如果一次读取操作超时了,本属性返回 true (requires php 4 beta 4+)
$maxframes 允许追踪的框架最大数量
$status 抓取的http的状态
$temp_dir 网页服务器能够写入的临时文件目录 (/tmp)
$curl_path curl binary 的目录, 如果没有curl binary就设置为 false
以下是demo
include "snoopy.class.php";
$snoopy = new snoopy;
$snoopy->proxy_host = "www.7767.cn";
$snoopy->proxy_port = "8080";
$snoopy->agent = "(compatible; msie 4.01; msn 2.5; aol 4.0; windows 98)";
$snoopy->referer = "http://www.7767.cn/";
$snoopy->cookies["sessionid"] = 238472834723489l;
$snoopy->cookies["favoritecolor"] = "red";
$snoopy->rawheaders["pragma"] = "no-cache";
$snoopy->maxredirs = 2;
$snoopy->offsiteok = false;
$snoopy->expandlinks = false;
$snoopy->user = "joe";
$snoopy->pass = "bloe";
if($snoopy->fetchtext("http://www.7767.cn"))
{
echo "<pre>".htmlspecialchars($snoopy->results)."</pre>\n";
}
else
echo "error fetching document: ".$snoopy->error."\n";
//////////////////////////////////////////////////////////////
snoopy的特点是“大”和“全”,一个fetch什么都采到了,可以作为采集的第一步。接下来就需要用simple_html_dom来细细的把想要的部分,扣出来。当然,如果你特别特别擅长正则,而且又钟爱正则,你也可以用正则去匹配抓取。
simple_html_dom其实是一个dom解析的过程。php内部也提供了一些解析的方法,但是这个simple_html_dom可以说做得比较专业,一个类,满足了很多你想要的功能。
////////////////////////////////////////////////////////////////
// 用一个url或文件名,创建一个目标文档对象 ,也就是目标网页
$html = file_get_html ('http://www.7767.cn/' );
//$html = file_get_html ('test.htm' );
//用一个字符串作为一个目标网页。你可以通过snoopy获取页面,然后再拿到这里来处理
$myhtml = str_get_html ('<html><body>hello!</body></html>' );
// 找到所有的图片,返回的是数组
foreach($html->find ('img' ) as $element)
echo $element->src . '<br>' ;
// 找到所有的链接
foreach($html->find ('a' ) as $element)
echo $element->href . '<br>' ;
find方法很好用,通常它返回的是一个包含对象的数组。查找目标元素的时候可以通过class或者id,或者其他属性获取目标字符串。
//通过目标div的class属性,查找div,find方法中第二个参数是返回的那个数组中的第几个。从0开始是第一个
$target_div = $html->find ('div.targetclass',0 );
//查看结果是否是你想要的,直接echo就可以了
echo $target_div;
//比较关键的一点是,这个采集对象创建完后,一定要销毁掉,否则php页面有可能会“卡”上30秒左右,这个取决于你服务器的那个时间限制。销毁的方法是:
$html->clear();
unset($html);
本人认为simple_html_dom比较优秀的地方就是,把采集控制得像js一样容易。在下面提供的下载包中有英文的手册
simplehtmldom_1_11/simplehtmldom/manual/manual.htm
网上有不少介绍snoopy的,下面是别人翻译的snoopy的sdk
//////////////////////////////////////////////////////////////
snoopy是一个php类,用来模拟浏览器的功能,可以获取网页内容,发送表单。
snoopy的一些特点:
1抓取网页的内容 fetch
2抓取网页的文本内容 (去除html标签) fetchtext
3抓取网页的链接,表单 fetchlinks fetchform
4支持代理主机
5支持基本的用户名/密码验证
6支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
7支持浏览器重定向,并能控制重定向深度
8能把网页中的链接扩展成高质量的url(默认)
9提交数据并且获取返回值
10支持跟踪html框架
11支持重定向的时候传递cookies
要求php4以上就可以了 由于本身是php一个类 无需扩支持 服务器不支持curl时候的最好选择,
类方法:
fetch($uri)
———–
这是为了抓取网页的内容而使用的方法。
$uri参数是被抓取网页的url地址。
抓取的结果被存储在 $this->results 中。
如果你正在抓取的是一个框架,snoopy将会将每个框架追踪后存入数组中,然后存入 $this->results。
fetchtext($uri)
—————
本方法类似于fetch(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中的文字内容。
fetchform($uri)
—————
本方法类似于fetch(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中表单内容(form)。
fetchlinks($uri)
—————-
本方法类似于fetch(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的url。
submit($uri,$formvars)
———————-
本方法向$url指定的链接地址发送确认表单。$formvars是一个存储表单参数的数组。
submittext($uri,$formvars)
————————–
本方法类似于submit(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回登陆后网页中的文字内容。
submitlinks($uri)
—————-
本方法类似于submit(),唯一不同的就是本方法会去除html标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的url。
类属性: (缺省值在括号里)
$host 连接的主机
$port 连接的端口
$proxy_host 使用的代理主机,如果有的话
$proxy_port 使用的代理主机端口,如果有的话
$agent 用户代理伪装 (snoopy v0.1)
$referer 来路信息,如果有的话
$cookies cookies, 如果有的话
$rawheaders 其他的头信息, 如果有的话
$maxredirs 最大重定向次数, 0=不允许 (5)
$offsiteok whether or not to allow redirects off-site. (true)
$expandlinks 是否将链接都补全为完整地址 (true)
$user 认证用户名, 如果有的话
$pass 认证用户名, 如果有的话
$accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
$error 哪里报错, 如果有的话
$response_code 从服务器返回的响应代码
$headers 从服务器返回的头信息
$maxlength 最长返回数据长度
$read_timeout 读取操作超时 (requires php 4 beta 4+)
设置为0为没有超时
$timed_out 如果一次读取操作超时了,本属性返回 true (requires php 4 beta 4+)
$maxframes 允许追踪的框架最大数量
$status 抓取的http的状态
$temp_dir 网页服务器能够写入的临时文件目录 (/tmp)
$curl_path curl binary 的目录, 如果没有curl binary就设置为 false
以下是demo
复制代码 代码如下:
include "snoopy.class.php";
$snoopy = new snoopy;
$snoopy->proxy_host = "www.7767.cn";
$snoopy->proxy_port = "8080";
$snoopy->agent = "(compatible; msie 4.01; msn 2.5; aol 4.0; windows 98)";
$snoopy->referer = "http://www.7767.cn/";
$snoopy->cookies["sessionid"] = 238472834723489l;
$snoopy->cookies["favoritecolor"] = "red";
$snoopy->rawheaders["pragma"] = "no-cache";
$snoopy->maxredirs = 2;
$snoopy->offsiteok = false;
$snoopy->expandlinks = false;
$snoopy->user = "joe";
$snoopy->pass = "bloe";
if($snoopy->fetchtext("http://www.7767.cn"))
{
echo "<pre>".htmlspecialchars($snoopy->results)."</pre>\n";
}
else
echo "error fetching document: ".$snoopy->error."\n";
//////////////////////////////////////////////////////////////
snoopy的特点是“大”和“全”,一个fetch什么都采到了,可以作为采集的第一步。接下来就需要用simple_html_dom来细细的把想要的部分,扣出来。当然,如果你特别特别擅长正则,而且又钟爱正则,你也可以用正则去匹配抓取。
simple_html_dom其实是一个dom解析的过程。php内部也提供了一些解析的方法,但是这个simple_html_dom可以说做得比较专业,一个类,满足了很多你想要的功能。
////////////////////////////////////////////////////////////////
// 用一个url或文件名,创建一个目标文档对象 ,也就是目标网页
$html = file_get_html ('http://www.7767.cn/' );
//$html = file_get_html ('test.htm' );
//用一个字符串作为一个目标网页。你可以通过snoopy获取页面,然后再拿到这里来处理
$myhtml = str_get_html ('<html><body>hello!</body></html>' );
// 找到所有的图片,返回的是数组
foreach($html->find ('img' ) as $element)
echo $element->src . '<br>' ;
// 找到所有的链接
foreach($html->find ('a' ) as $element)
echo $element->href . '<br>' ;
find方法很好用,通常它返回的是一个包含对象的数组。查找目标元素的时候可以通过class或者id,或者其他属性获取目标字符串。
//通过目标div的class属性,查找div,find方法中第二个参数是返回的那个数组中的第几个。从0开始是第一个
$target_div = $html->find ('div.targetclass',0 );
//查看结果是否是你想要的,直接echo就可以了
echo $target_div;
//比较关键的一点是,这个采集对象创建完后,一定要销毁掉,否则php页面有可能会“卡”上30秒左右,这个取决于你服务器的那个时间限制。销毁的方法是:
$html->clear();
unset($html);
本人认为simple_html_dom比较优秀的地方就是,把采集控制得像js一样容易。在下面提供的下载包中有英文的手册
simplehtmldom_1_11/simplehtmldom/manual/manual.htm
array $e->getallattributes () |
array $e->attr
|
string $e->getattribute ( $name ) |
string $e->attribute
|
void $e->setattribute ( $name, $value ) |
void $value = $e->attribute
|
bool $e->hasattribute ( $name ) |
bool isset($e->attribute ) |
void $e->removeattribute ( $name ) |
void $e->attribute = null |
element $e->getelementbyid ( $id ) |
mixed $e->find ( "#$id", 0 ) |
mixed $e->getelementsbyid ( $id [,$index] ) |
mixed $e->find ( "#$id" [, int $index] ) |
element $e->getelementbytagname ($name ) |
mixed $e->find ( $name, 0 ) |
mixed $e->getelementsbytagname ( $name [, $index] ) |
mixed $e->find ( $name [, int $index] ) |
element $e->parentnode () |
element $e->parent () |
mixed $e->childnodes ( [$index] ) |
mixed $e->children ( [int $index] ) |
element $e->firstchild () |
element $e->first_child () |
element $e->lastchild () |
element $e->last_child () |
element $e->nextsibling () |
element $e->next_sibling () |
element $e->previoussibling () |
element $e->prev_sibling () |
上一篇: python基础入门之字典和集合