JSP抓取网页代码的程序
程序员文章站
2024-02-24 15:27:04
<%@ page contenttype="text/html;charset=gb2312"%><% stri...
<%@ page contenttype="text/html;charset=gb2312"%>
<%
string scurrentline;
string stotalstring;
scurrentline="";
stotalstring="";
java.io.inputstream l_urlstream;
java.net.url l_url = new java.net.url("http://www.163.net/");
java.net.httpurlconnection l_connection = (java.net.httpurlconnection) l_url.openconnection();
l_connection.connect();
l_urlstream = l_connection.getinputstream();
java.io.bufferedreader l_reader = new java.io.bufferedreader(new java.io.inputstreamreader(l_urlstream));
while ((scurrentline = l_reader.readline()) != null)
{
stotalstring+=scurrentline;
}
out.println(stotalstring);
%>
后记
虽然代码比较简单,但是,我认为根据这个,可以实现“网络爬虫”的功能,比如从页面找href连接,然后再得到那个连接,然后再“抓”,不停止地(当然可以限定层数),这样,可以实现“网页搜索”功能。
<%
string scurrentline;
string stotalstring;
scurrentline="";
stotalstring="";
java.io.inputstream l_urlstream;
java.net.url l_url = new java.net.url("http://www.163.net/");
java.net.httpurlconnection l_connection = (java.net.httpurlconnection) l_url.openconnection();
l_connection.connect();
l_urlstream = l_connection.getinputstream();
java.io.bufferedreader l_reader = new java.io.bufferedreader(new java.io.inputstreamreader(l_urlstream));
while ((scurrentline = l_reader.readline()) != null)
{
stotalstring+=scurrentline;
}
out.println(stotalstring);
%>
后记
虽然代码比较简单,但是,我认为根据这个,可以实现“网络爬虫”的功能,比如从页面找href连接,然后再得到那个连接,然后再“抓”,不停止地(当然可以限定层数),这样,可以实现“网页搜索”功能。