欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

零基础写Java知乎爬虫之获取知乎编辑推荐内容

程序员文章站 2024-02-29 18:10:16
知乎是一个真实的网络问答社区,社区氛围友好、理性、认真,连接各行各业的精英。他们分享着彼此的专业知识、经验和见解,为中文互联网源源不断地提供高质量的信息。 首先花个三五分...

知乎是一个真实的网络问答社区,社区氛围友好、理性、认真,连接各行各业的精英。他们分享着彼此的专业知识、经验和见解,为中文互联网源源不断地提供高质量的信息。

首先花个三五分钟设计一个logo=。=作为一个程序员我一直有一颗做美工的心!

零基础写Java知乎爬虫之获取知乎编辑推荐内容

好吧做的有点小凑合,就先凑合着用咯。

接下来呢,我们开始制作知乎的爬虫。

首先,确定第一个目标:编辑推荐。

网页链接:http://www.zhihu.com/explore/recommendations

我们对上次的代码稍作修改,先实现能够获取该页面内容:

import java.io.*;
import java.net.*;
import java.util.regex.*;
public class main {
 static string sendget(string url) {
  // 定义一个字符串用来存储网页内容
  string result = "";
  // 定义一个缓冲字符输入流
  bufferedreader in = null;
  try {
   // 将string转成url对象
   url realurl = new url(url);
   // 初始化一个链接到那个url的连接
   urlconnection connection = realurl.openconnection();
   // 开始实际的连接
   connection.connect();
   // 初始化 bufferedreader输入流来读取url的响应
   in = new bufferedreader(new inputstreamreader(
     connection.getinputstream()));
   // 用来临时存储抓取到的每一行的数据
   string line;
   while ((line = in.readline()) != null) {
    // 遍历抓取到的每一行并将其存储到result里面
    result += line;
   }
  } catch (exception e) {
   system.out.println("发送get请求出现异常!" + e);
   e.printstacktrace();
  }
  // 使用finally来关闭输入流
  finally {
   try {
    if (in != null) {
     in.close();
    }
   } catch (exception e2) {
    e2.printstacktrace();
   }
  }
  return result;
 }
 static string regexstring(string targetstr, string patternstr) {
  // 定义一个样式模板,此中使用正则表达式,括号中是要抓的内容
  // 相当于埋好了陷阱匹配的地方就会掉下去
  pattern pattern = pattern.compile(patternstr);
  // 定义一个matcher用来做匹配
  matcher matcher = pattern.matcher(targetstr);
  // 如果找到了
  if (matcher.find()) {
   // 打印出结果
   return matcher.group(1);
  }
  return "nothing";
 }
 public static void main(string[] args) {
  // 定义即将访问的链接
  string url = "http://www.zhihu.com/explore/recommendations";
  // 访问链接并获取页面内容
  string result = sendget(url);
  // 使用正则匹配图片的src内容
  //string imgsrc = regexstring(result, "src=\"(.+?)\"");
  // 打印结果
  system.out.println(result);
 }
}

运行一下木有问题,接下来就是一个正则匹配的问题了。

首先我们先来获取该页面的所有的问题。

右击标题,审查元素:

零基础写Java知乎爬虫之获取知乎编辑推荐内容

啊哈,可以看到标题其实是一个a标签,也就是一个超链接,而其中能够和其他超链接区分开的,应该就是那个class了,也就是类选择器。

于是我们的正则语句就出来了:question_link.+?href=\"(.+?)\"

调用regexstring函数,并给它传参:

 public static void main(string[] args) {
  // 定义即将访问的链接
  string url = "http://www.zhihu.com/explore/recommendations";
  // 访问链接并获取页面内容
  string result = sendget(url);
  // 使用正则匹配图片的src内容
  string imgsrc = regexstring(result, "question_link.+?>(.+?)<");
  // 打印结果
  system.out.println(imgsrc);
 }

啊哈,可以看到我们成功抓到了一个标题(注意,只是一个):

零基础写Java知乎爬虫之获取知乎编辑推荐内容

等一下啊这一大堆的乱七八糟的是什么玩意?!

别紧张=。=它只是字符乱码而已。

编码问题可以参见:html字符集

一般来说,对中文支持较好的主流编码是utf-8,gb2312和gbk编码。

网页可以通过meta标签的charset来设置网页编码,譬如:

<meta charset="utf-8" />

我们右击,查看页面源代码:

零基础写Java知乎爬虫之获取知乎编辑推荐内容

可以看到,知乎采用的是utf-8编码。

在这里和大家解释一下查看页面源代码和审查元素的区别。

查看页面源代码是显示整个页面的所有代码,没有按照html的标签进行排版,相当于是直接查看源码,这种方式对于查看整个网页的信息,比如meta比较有用。

审查元素,或者有的浏览器叫查看元素,是针对你右击的元素进行查看,比如一个div或者img,比较适用于单独查看某个对象的属性和标签。

好的,我们现在知道了问题出在了编码上,接下来就是对抓取到的内容进行编码转换了。

在java中实现很简单,只需要在inputstreamreader里面指定编码方式就行:

// 初始化 bufferedreader输入流来读取url的响应
   in = new bufferedreader(new inputstreamreader(
     connection.getinputstream(),"utf-8"));

此时再运行程序,便会发现可以正常显示标题了:

零基础写Java知乎爬虫之获取知乎编辑推荐内容

好的!非常好!

但是现在才只有一个标题,我们需要的是所有的标题。

我们将正则稍加修改,把搜索到的结果存储到一个arraylist里面:

import java.io.*;
import java.net.*;
import java.util.arraylist;
import java.util.regex.*;
public class main {
 static string sendget(string url) {
  // 定义一个字符串用来存储网页内容
  string result = "";
  // 定义一个缓冲字符输入流
  bufferedreader in = null;
  try {
   // 将string转成url对象
   url realurl = new url(url);
   // 初始化一个链接到那个url的连接
   urlconnection connection = realurl.openconnection();
   // 开始实际的连接
   connection.connect();
   // 初始化 bufferedreader输入流来读取url的响应
   in = new bufferedreader(new inputstreamreader(
     connection.getinputstream(), "utf-8"));
   // 用来临时存储抓取到的每一行的数据
   string line;
   while ((line = in.readline()) != null) {
    // 遍历抓取到的每一行并将其存储到result里面
    result += line;
   }
  } catch (exception e) {
   system.out.println("发送get请求出现异常!" + e);
   e.printstacktrace();
  }
  // 使用finally来关闭输入流
  finally {
   try {
    if (in != null) {
     in.close();
    }
   } catch (exception e2) {
    e2.printstacktrace();
   }
  }
  return result;
 }
 static arraylist<string> regexstring(string targetstr, string patternstr) {
  // 预定义一个arraylist来存储结果
  arraylist<string> results = new arraylist<string>();
  // 定义一个样式模板,此中使用正则表达式,括号中是要抓的内容
  pattern pattern = pattern.compile(patternstr);
  // 定义一个matcher用来做匹配
  matcher matcher = pattern.matcher(targetstr);
  // 如果找到了
  boolean isfind = matcher.find();
  // 使用循环将句子里所有的kelvin找出并替换再将内容加到sb里
  while (isfind) {
   //添加成功匹配的结果
   results.add(matcher.group(1));
   // 继续查找下一个匹配对象
   isfind = matcher.find();
  }
  return results;
 }
 public static void main(string[] args) {
  // 定义即将访问的链接
  string url = "http://www.zhihu.com/explore/recommendations";
  // 访问链接并获取页面内容
  string result = sendget(url);
  // 使用正则匹配图片的src内容
  arraylist<string> imgsrc = regexstring(result, "question_link.+?>(.+?)<");
  // 打印结果
  system.out.println(imgsrc);
 }
}

这样就能匹配到所有的结果了(因为直接打印了arraylist所以会有一些中括号和逗号):

零基础写Java知乎爬虫之获取知乎编辑推荐内容

ok,这样就算是完成了知乎爬虫的第一步。

但是我们可以看出来,用这样的方式是没有办法抓到所有的问题和回答的。

我们需要设计一个zhihu封装类,来存储所有抓取到的对象。

zhihu.java源码:

import java.util.arraylist;
public class zhihu {
 public string question;// 问题
 public string zhihuurl;// 网页链接
 public arraylist<string> answers;// 存储所有回答的数组
 // 构造方法初始化数据
 public zhihu() {
  question = "";
  zhihuurl = "";
  answers = new arraylist<string>();
 }
 @override
 public string tostring() {
  return "问题:" + question + "\n链接:" + zhihuurl + "\n回答:" + answers + "\n";
 }
}

再新建一个spider类来存放一些爬虫常用的函数。

spider.java源码:

import java.io.bufferedreader;
import java.io.inputstreamreader;
import java.net.url;
import java.net.urlconnection;
import java.util.arraylist;
import java.util.regex.matcher;
import java.util.regex.pattern;
public class spider {
 static string sendget(string url) {
  // 定义一个字符串用来存储网页内容
  string result = "";
  // 定义一个缓冲字符输入流
  bufferedreader in = null;
  try {
   // 将string转成url对象
   url realurl = new url(url);
   // 初始化一个链接到那个url的连接
   urlconnection connection = realurl.openconnection();
   // 开始实际的连接
   connection.connect();
   // 初始化 bufferedreader输入流来读取url的响应
   in = new bufferedreader(new inputstreamreader(
     connection.getinputstream(), "utf-8"));
   // 用来临时存储抓取到的每一行的数据
   string line;
   while ((line = in.readline()) != null) {
    // 遍历抓取到的每一行并将其存储到result里面
    result += line;
   }
  } catch (exception e) {
   system.out.println("发送get请求出现异常!" + e);
   e.printstacktrace();
  }
  // 使用finally来关闭输入流
  finally {
   try {
    if (in != null) {
     in.close();
    }
   } catch (exception e2) {
    e2.printstacktrace();
   }
  }
  return result;
 }
 static arraylist<zhihu> getzhihu(string content) {
  // 预定义一个arraylist来存储结果
  arraylist<zhihu> results = new arraylist<zhihu>();
  // 用来匹配标题
  pattern questionpattern = pattern.compile("question_link.+?>(.+?)<");
  matcher questionmatcher = questionpattern.matcher(content);
  // 用来匹配url,也就是问题的链接
  pattern urlpattern = pattern.compile("question_link.+?href=\"(.+?)\"");
  matcher urlmatcher = urlpattern.matcher(content);
  // 问题和链接要均能匹配到
  boolean isfind = questionmatcher.find() && urlmatcher.find();
  while (isfind) {
   // 定义一个知乎对象来存储抓取到的信息
   zhihu zhuhutemp = new zhihu();
   zhuhutemp.question = questionmatcher.group(1);
   zhuhutemp.zhihuurl = "http://www.zhihu.com" + urlmatcher.group(1);
   // 添加成功匹配的结果
   results.add(zhuhutemp);
   // 继续查找下一个匹配对象
   isfind = questionmatcher.find() && urlmatcher.find();
  }
  return results;
 }
}

最后一个main方法负责调用。

import java.util.arraylist;
public class main {
 public static void main(string[] args) {
  // 定义即将访问的链接
  string url = "http://www.zhihu.com/explore/recommendations";
  // 访问链接并获取页面内容
  string content = spider.sendget(url);
  // 获取该页面的所有的知乎对象
  arraylist<zhihu> myzhihu = spider.getzhihu(content);
  // 打印结果
  system.out.println(myzhihu);
 }
}


ok这样就算搞定了。运行一下看看结果:

零基础写Java知乎爬虫之获取知乎编辑推荐内容

好的效果不错。

接下来就是访问链接然后获取到所有的答案了。

下一回我们再介绍。

好了,以上就是简单的介绍了如何使用java来抓取知乎的编辑推荐的内容的全部过程了,非常详尽,也很简单易懂,对吧,有需要的小伙伴可以参考下,*扩展也没问题哈