欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

我和爬虫有个约会(java)

程序员文章站 2022-03-07 19:52:24
...

                                     我理解的爬虫就是通过技术手段拿到网页的源代码(java)

 

    方法很多种,可以通过代码发起http请求,拿到网页源代码。也可以用封装好的工具如httpclient,htmlunit。或者上大杀器phantomjs(貌似有点淘汰了)和selenium来获得源代码。。。。。

 

  简单的网站直接发起请求就能够拿到网页源代码,如博客园。有些网站需要一些简单的请求信息,如request-header里面的User-Agent。有些网站需要cookie验证信息。  有些丧心病狂的网站技术大多是动态加载的。拿过你不想分析他的ajax请求来艰难度日的话。可以试试selenium。

接下来讲讲每个技术的具体实现方法。有点晚了,先睡了。明天继续写。

---------------------------------------------------------------------------------------------------------------------------------------------------

 

写了一大半蓝屏了 win10  气炸了。

 

继续开工

 

第一种,通过java自己的代码发起http请求,获得链接。能做很多功能,但是太多了,可以被使用封装好的httpClient工具。

URL url = new URL("https://www.cnblogs.com/"); 
		URLConnection openConnection = url.openConnection();
		HttpURLConnection httpConnection = (HttpURLConnection) openConnection;
		int responseCode = httpConnection.getResponseCode();
		System.out.println(responseCode);
		InputStream inputStream = httpConnection.getInputStream();
         String html = IOUtils.toString(inputStream); //org.apache.commons.io.IOUtils;
         System.out.println(html);

 

第二种 使用简单的封装工具如ioutils或者jsoup获得获得源代码,适合简单的网页,没有cookie或者user-agent之类限制的网页。jsoup还可以用来解析html文档,免得写正则或则xpath之类的表达式。

String html = IOUtils.toString(new URL("https://www.cnblogs.com/"), "utf-8");//org.apache.commons.io.IOUtils;
		System.out.println(html);


	Document htmlDocument = Jsoup.parse(new URL("https://www.cnblogs.com/"), 5*1000);//org.jsoup.Jsoup;
		String text = htmlDocument.toString();
		System.out.println(text);

第三种  使用专业的http工具,如httpclient。可以设置发起的参数和获得返会的参数信息。但是解析ajax动态生成的网页就难受了

	 CloseableHttpClient httpClient = HttpClients.createDefault();
		 HttpGet get = new HttpGet("https://www.cnblogs.com/");
		 get.addHeader("user-agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36");
		
		 
		 CloseableHttpResponse response = httpClient.execute(get);
		 System.out.println(response.getStatusLine().getStatusCode());
		 String html =  EntityUtils.toString(response.getEntity());// 获得网页源代码
		 System.out.println(html);
		 Header[] allHeaders = response.getAllHeaders();//获得返回的response信息
         for (Header header : allHeaders) {
			System.out.println(header);
		}		 
		 response.close();
		 httpClient.close();

 

第四种  htmlunit  能够处理简单的ajax生成的网页。但是因为该技术使用的浏览器内核不是主流浏览器。所以解析存在一些兼容性问题。  创建对象,按需求设置一些true,false参数。设置一个后台运行等待时间之类的。再发起请求。获得源码。大致如下。没有深入研究过

 WebClient  webClient = new WebClient(BrowserVersion.CHROME);
		  webClient.getCookieManager().setCookiesEnabled(true);
		  webClient.getOptions().setUseInsecureSSL(true);//支持https
	      webClient.getOptions().setJavaScriptEnabled(true); // 启用JS解释器,默认为true
	      webClient.getOptions().setCssEnabled(true); // css支持
		  webClient.setAjaxController(new NicelyResynchronizingAjaxController());
		  webClient.setJavaScriptTimeout(10000);//设置js运行超时时间
		  webClient.waitForBackgroundJavaScript(10000);
		  webClient.getOptions().setThrowExceptionOnScriptError(false);  
		  webClient.getOptions().setUseInsecureSSL(true);
		  webClient.getOptions().setRedirectEnabled(true);  
		  webClient.getOptions().setThrowExceptionOnFailingStatusCode(false);
		  URL url = new URL("https://www.cnblogs.com/");
          HtmlPage htmlpage = webClient.getPage(url);
          webClient.waitForBackgroundJavaScript(10000);
		  System.out.println(htmlpage.asXml());
		  webClient.close();

 

 

第五种   selenuim+chrome 浏览器   通过代码打开浏览器,模拟人的输入,点击等事件。获得源代码

(windos版本)需要安装新版的chrome浏览器,也可以用其他浏览器。这里我用chrome浏览器。 再在chrome浏览器的启动文件夹下加上chromedriver(网上下载  下载chromedirver地址)驱动。如下图。

我和爬虫有个约会(java)

 

 System.setProperty("webdriver.chrome.driver", "C:\\Program Files (x86)\\Google\\Chrome\\Application\\chromedriver.exe");

Map<String, Object> prefs = new HashMap<String, Object>();  
prefs.put("profile.default_content_setting_values.notifications", 2);  
ChromeOptions options = new ChromeOptions();  
options.setExperimentalOption("prefs", prefs);  
//  options.addArguments("--headless","--no-sandbox","--disable-dev-shm-usage","--disable-gpu");   //这个配置意思是不开启界面,不加载gpu渲染界面。linux server运行需要次配置
options.setExperimentalOption("useAutomationExtension", false);
	        
WebDriver driver = new ChromeDriver(options);  

//到此获得了driver对象。可通过次对象 控制浏览器

通过  driver.get("https://www.xxxx.com"); 访问网站
 driver.getPageSource()   获得网页源代码


//关闭浏览器和进程 

driver.close();
driver.quit();

还可以控制输入框的清空和输入,按钮的点击之类的。

 

顺便说一句 ,如果部署在linux server 上,没有界面的linux 上面也是可以的。不过需要先安装chrome浏览器。然后把linux对应的驱动上传上去。代码里面指定好chromedriver的路径。

 

over

 

这排版有点不太会用呀

 

 

相关标签: 爬虫