欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

node.js爬虫框架node-crawler初体验

程序员文章站 2022-06-22 11:40:53
百度爬虫这个词语,一般出现的都是python相关的资料。py也有很多爬虫框架,比如scrapy,portia,crawley等。之前我个人更喜欢用c#做爬虫。随着对nodejs的熟悉。发现做这种事情还...

百度爬虫这个词语,一般出现的都是python相关的资料。

py也有很多爬虫框架,比如scrapy,portia,crawley等。

之前我个人更喜欢用c#做爬虫。

随着对nodejs的熟悉。发现做这种事情还是用脚本语言适合多了,至少不用写那么多的实体类。而且脚本一般使用比较简单。  

在github上搜索node+spider,排名第一的就是node-crawler 

github:

简单使用

npm 安装:

npm install crawler

new一个crawler对象

var c = new crawler({
 // 在每个请求处理完毕后将调用此回调函数
 callback : function (error, res, done) {
  if(error){
   console.log(error);
  }else{
   var $ = res.$;
   // $ 默认为 cheerio 解析器
   // 它是核心jquery的精简实现,可以按照jquery选择器语法快速提取dom元素
   console.log($("title").text());
  }
  done();
 }
});

然后往crawler队列里面不停的加url就行了,

// 将一个url加入请求队列,并使用默认回调函数
c.queue('http://www.amazon.com');

// 将多个url加入请求队列
c.queue(['http://www.google.com/','http://www.yahoo.com']);

控制并发速度

爬虫框架一般都是同时去爬多个页面,但是速度过快会触发目标网站的反爬虫机制,也同时影响别人网站的性能。

控制最大的并发数量

var c = new crawler({
 // 最大并发数默认为10
 maxconnections : 1,

 callback : function (error, res, done) {
  if(error){
   console.log(error);
  }else{
   var $ = res.$;
   console.log($("title").text());
  }
  done();
 }
});

使用慢速模式

使用参数 ratelimit 启用慢速模式,两次请求之间会闲置 ratelimit 毫秒,而 maxconnections 将被强行修改为 1 。

var c = new crawler({
 // `maxconnections` 将被强制修改为 1
 maxconnections : 10,

 // 两次请求之间将闲置1000ms
 ratelimit: 1000,

 callback : function (error, res, done) {
  if(error){
   console.log(error);
  }else{
   var $ = res.$;
   console.log($("title").text());
  }
  done();
 }
});

下载图片等静态文件

var c = new crawler({
 encoding:null,
 jquery:false,// set false to suppress warning message.
 callback:function(err, res, done){
  if(err){
   console.error(err.stack);
  }else{
   fs.createwritestream(res.options.filename).write(res.body);
  }
  
  done();
 }
});

c.queue({
 uri:"https://nodejs.org/static/images/logos/nodejs-1920x1200.png",
 filename:"nodejs-1920x1200.png"
});

以上就是node.js爬虫框架node-crawler初体验的详细内容,更多关于爬虫框架node-crawler的资料请关注其它相关文章!