利用C#实现网络爬虫
网络爬虫在信息检索与处理中有很大的作用,是收集网络信息的重要工具。
接下来就介绍一下爬虫的简单实现。
爬虫的工作流程如下
爬虫自指定的url地址开始下载网络资源,直到该地址和所有子地址的指定资源都下载完毕为止。
下面开始逐步分析爬虫的实现。
1. 待下载集合与已下载集合
为了保存需要下载的url,同时防止重复下载,我们需要分别用了两个集合来存放将要下载的url和已经下载的url。
因为在保存url的同时需要保存与url相关的一些其他信息,如深度,所以这里我采用了dictionary来存放这些url。
具体类型是dictionary<string, int> 其中string是url字符串,int是该url相对于基url的深度。
每次开始时都检查未下载的集合,如果已经为空,说明已经下载完毕;如果还有url,那么就取出第一个url加入到已下载的集合中,并且下载这个url的资源。
2. http请求和响应
c#已经有封装好的http请求和响应的类httpwebrequest和httpwebresponse,所以实现起来方便不少。
为了提高下载的效率,我们可以用多个请求并发的方式同时下载多个url的资源,一种简单的做法是采用异步请求的方法。
控制并发的数量可以用如下方法实现
private void dispatchwork() { if (_stop) //判断是否中止下载 { return; } for (int i = 0; i < _reqcount; i++) { if (!_reqsbusy[i]) //判断此编号的工作实例是否空闲 { requestresource(i); //让此工作实例请求资源 } } }
由于没有显式开新线程,所以用一个工作实例来表示一个逻辑工作线程
private bool[] _reqsbusy = null; //每个元素代表一个工作实例是否正在工作 private int _reqcount = 4; //工作实例的数量
每次一个工作实例完成工作,相应的_reqsbusy就设为false,并调用dispatchwork,那么dispatchwork就能给空闲的实例分配新任务了。
接下来是发送请求
private void requestresource(int index) { int depth; string url = ""; try { lock (_locker) { if (_urlsunload.count <= 0) //判断是否还有未下载的url { _workingsignals.finishworking(index); //设置工作实例的状态为finished return; } _reqsbusy[index] = true; _workingsignals.startworking(index); //设置工作状态为working depth = _urlsunload.first().value; //取出第一个未下载的url url = _urlsunload.first().key; _urlsloaded.add(url, depth); //把该url加入到已下载里 _urlsunload.remove(url); //把该url从未下载中移除 } httpwebrequest req = (httpwebrequest)webrequest.create(url); req.method = _method; //请求方法 req.accept = _accept; //接受的内容 req.useragent = _useragent; //用户代理 requeststate rs = new requeststate(req, url, depth, index); //回调方法的参数 var result = req.begingetresponse(new asynccallback(receivedresource), rs); //异步请求 threadpool.registerwaitforsingleobject(result.asyncwaithandle, //注册超时处理方法 timeoutcallback, rs, _maxtime, true); } catch (webexception we) { messagebox.show("requestresource " + we.message + url + we.status); } }
第7行为了保证多个任务并发时的同步,加上了互斥锁。_locker是一个object类型的成员变量。
第9行判断未下载集合是否为空,如果为空就把当前工作实例状态设为finished;如果非空则设为working并取出一个url开始下载。当所有工作实例都为finished的时候,说明下载已经完成。由于每次下载完一个url后都调用dispatchwork,所以可能激活其他的finished工作实例重新开始工作。
第26行的请求的额外信息在异步请求的回调方法作为参数传入,之后还会提到。
第27行开始异步请求,这里需要传入一个回调方法作为响应请求时的处理,同时传入回调方法的参数。
第28行给该异步请求注册一个超时处理方法timeoutcallback,最大等待时间是_maxtime,且只处理一次超时,并传入请求的额外信息作为回调方法的参数。
requeststate的定义是
class requeststate { private const int buffer_size = 131072; //接收数据包的空间大小 private byte[] _data = new byte[buffer_size]; //接收数据包的buffer private stringbuilder _sb = new stringbuilder(); //存放所有接收到的字符 public httpwebrequest req { get; private set; } //请求 public string url { get; private set; } //请求的url public int depth { get; private set; } //此次请求的相对深度 public int index { get; private set; } //工作实例的编号 public stream resstream { get; set; } //接收数据流 public stringbuilder html { get { return _sb; } } public byte[] data { get { return _data; } } public int buffersize { get { return buffer_size; } } public requeststate(httpwebrequest req, string url, int depth, int index) { req = req; url = url; depth = depth; index = index; } }
timeoutcallback的定义是
private void timeoutcallback(object state, bool timedout) { if (timedout) //判断是否是超时 { requeststate rs = state as requeststate; if (rs != null) { rs.req.abort(); //撤销请求 } _reqsbusy[rs.index] = false; //重置工作状态 dispatchwork(); //分配新任务 } }
接下来就是要处理请求的响应了
private void receivedresource(iasyncresult ar) { requeststate rs = (requeststate)ar.asyncstate; //得到请求时传入的参数 httpwebrequest req = rs.req; string url = rs.url; try { httpwebresponse res = (httpwebresponse)req.endgetresponse(ar); //获取响应 if (_stop) //判断是否中止下载 { res.close(); req.abort(); return; } if (res != null && res.statuscode == httpstatuscode.ok) //判断是否成功获取响应 { stream resstream = res.getresponsestream(); //得到资源流 rs.resstream = resstream; var result = resstream.beginread(rs.data, 0, rs.buffersize, //异步请求读取数据 new asynccallback(receiveddata), rs); } else //响应失败 { res.close(); rs.req.abort(); _reqsbusy[rs.index] = false; //重置工作状态 dispatchwork(); //分配新任务 } } catch (webexception we) { messagebox.show("receivedresource " + we.message + url + we.status); } }
第19行这里采用了异步的方法来读数据流是因为我们之前采用了异步的方式请求,不然的话不能够正常的接收数据。
该异步读取的方式是按包来读取的,所以一旦接收到一个包就会调用传入的回调方法receiveddata,然后在该方法中处理收到的数据。
该方法同时传入了接收数据的空间rs.data和空间的大小rs.buffersize。
接下来是接收数据和处理
private void receiveddata(iasyncresult ar) { requeststate rs = (requeststate)ar.asyncstate; //获取参数 httpwebrequest req = rs.req; stream resstream = rs.resstream; string url = rs.url; int depth = rs.depth; string html = null; int index = rs.index; int read = 0; try { read = resstream.endread(ar); //获得数据读取结果 if (_stop)//判断是否中止下载 { rs.resstream.close(); req.abort(); return; } if (read > 0) { memorystream ms = new memorystream(rs.data, 0, read); //利用获得的数据创建内存流 streamreader reader = new streamreader(ms, _encoding); string str = reader.readtoend(); //读取所有字符 rs.html.append(str); // 添加到之前的末尾 var result = resstream.beginread(rs.data, 0, rs.buffersize, //再次异步请求读取数据 new asynccallback(receiveddata), rs); return; } html = rs.html.tostring(); savecontents(html, url); //保存到本地 string[] links = getlinks(html); //获取页面中的链接 addurls(links, depth + 1); //过滤链接并添加到未下载集合中 _reqsbusy[index] = false; //重置工作状态 dispatchwork(); //分配新任务 } catch (webexception we) { messagebox.show("receiveddata web " + we.message + url + we.status); } }
第14行获得了读取的数据大小read,如果read>0说明数据可能还没有读完,所以在27行继续请求读下一个数据包;
如果read<=0说明所有数据已经接收完毕,这时rs.html中存放了完整的html数据,就可以进行下一步的处理了。
第26行把这一次得到的字符串拼接在之前保存的字符串的后面,最后就能得到完整的html字符串。
然后说一下判断所有任务完成的处理
private void startdownload() { _checktimer = new timer(new timercallback(checkfinish), null, 0, 300); dispatchwork(); } private void checkfinish(object param) { if (_workingsignals.isfinished()) //检查是否所有工作实例都为finished { _checktimer.dispose(); //停止定时器 _checktimer = null; if (downloadfinish != null && _ui != null) //判断是否注册了完成事件 { _ui.dispatcher.invoke(downloadfinish, _index); //调用事件 } } }
第3行创建了一个定时器,每过300ms调用一次checkfinish来判断是否完成任务。
第15行提供了一个完成任务时的事件,可以给客户程序注册。_index里存放了当前下载url的个数。
该事件的定义是
public delegate void downloadfinishhandler(int count); /// <summary> /// 全部链接下载分析完毕后触发 /// </summary> public event downloadfinishhandler downloadfinish = null;
3. 保存页面文件
这一部分可简单可复杂,如果只要简单地把html代码全部保存下来的话,直接存文件就行了。
private void savecontents(string html, string url) { if (string.isnullorempty(html)) //判断html字符串是否有效 { return; } string path = string.format("{0}\\{1}.txt", _path, _index++); //生成文件名 try { using (streamwriter fs = new streamwriter(path)) { fs.write(html); //写文件 } } catch (ioexception ioe) { messagebox.show("savecontents io" + ioe.message + " path=" + path); } if (contentssaved != null) { _ui.dispatcher.invoke(contentssaved, path, url); //调用保存文件事件 } }
第23行这里又出现了一个事件,是保存文件之后触发的,客户程序可以之前进行注册。
public delegate void contentssavedhandler(string path, string url); /// <summary> /// 文件被保存到本地后触发 /// </summary> public event contentssavedhandler contentssaved = null;
4. 提取页面链接
提取链接用正则表达式就能搞定了,不懂的可以上网搜。
下面的字符串就能匹配到页面中的链接
http://([\w-]+\.)+[\w-]+(/[\w- ./?%&=]*)?
详细见代码
private string[] getlinks(string html) { const string pattern = @"http://([\w-]+\.)+[\w-]+(/[\w- ./?%&=]*)?"; regex r = new regex(pattern, regexoptions.ignorecase); //新建正则模式 matchcollection m = r.matches(html); //获得匹配结果 string[] links = new string[m.count]; for (int i = 0; i < m.count; i++) { links[i] = m[i].tostring(); //提取出结果 } return links; }
5. 链接的过滤
不是所有的链接我们都需要下载,所以通过过滤,去掉我们不需要的链接
这些链接一般有:
1)、已经下载的链接
2)、深度过大的链接
3)、其他的不需要的资源,如图片、css等
//判断链接是否已经下载或者已经处于未下载集合中 private bool urlexists(string url) { bool result = _urlsunload.containskey(url); result |= _urlsloaded.containskey(url); return result; } private bool urlavailable(string url) { if (urlexists(url)) { return false; //已经存在 } if (url.contains(".jpg") || url.contains(".gif") || url.contains(".png") || url.contains(".css") || url.contains(".js")) { return false; //去掉一些图片之类的资源 } return true; } private void addurls(string[] urls, int depth) { if (depth >= _maxdepth) { return; //深度过大 } foreach (string url in urls) { string cleanurl = url.trim(); //去掉前后空格 cleanurl = cleanurl.trimend('/'); //统一去掉最后面的'/' if (urlavailable(cleanurl)) { if (cleanurl.contains(_baseurl)) { _urlsunload.add(cleanurl, depth); //是内链,直接加入未下载集合 } else { // 外链处理 } } } }
第34行的_baseurl是爬取的基地址,如http://news.sina.com.cn/,将会保存为news.sina.com.cn,当一个url包含此字符串时,说明是该基地址下的链接;否则为外链。
_baseurl的处理如下,_rooturl是第一个要下载的url
/// <summary> /// 下载根url /// </summary> public string rooturl { get { return _rooturl; } set { if (!value.contains("http://")) { _rooturl = "http://" + value; } else { _rooturl = value; } _baseurl = _rooturl.replace("www.", ""); //全站的话去掉www _baseurl = _baseurl.replace("http://", ""); //去掉协议名 _baseurl = _baseurl.trimend('/'); //去掉末尾的'/' } }
至此,基本的爬虫功能实现就介绍完了。
最后附上源代码和demo程序,爬虫的源代码在spider.cs中,demo是一个wpf的程序,test里是一个控制台的单线程版版本。
下载地址:c#实现网络爬虫demo
以上就是c#实现网络爬虫的全部过程,代码解析很详细,希望对大家的学习有所帮助。
下一篇: C#中的数组作为参数传递所引发的问题