利用selenium爬虫抓取数据的基础教程
程序员文章站
2023-11-12 21:29:28
写在前面
本来这篇文章该几个月前写的,后来忙着忙着就给忘记了。
ps:事多有时候反倒会耽误事。
几个月前,记得群里一朋友说想用selenium去爬数据,关...
写在前面
本来这篇文章该几个月前写的,后来忙着忙着就给忘记了。
ps:事多有时候反倒会耽误事。
几个月前,记得群里一朋友说想用selenium去爬数据,关于爬数据,一般是模拟访问某些固定网站,将自己关注的信息进行爬取,然后再将爬出的数据进行处理。
他的需求是将文章直接导入到富文本编辑器去发布,其实这也是爬虫中的一种。
其实这也并不难,就是ui自动化的过程,下面让我们开始吧。
准备工具/原料
1、java语言
2、idea开发工具
3、jdk1.8
4、selenium-server-standalone(3.0以上版本)
步骤
1、分解需求:
需求重点主要是要保证原文格式样式都保留:
将要爬取文章,全选并复制
将复制后的文本,粘贴到富文本编辑器中即可
2、代码实现思路:
键盘事件模拟ctrl+a全选
键盘事件模拟ctrl+c复制
键盘事件模拟ctrl+v粘贴
3、实例代码
import org.junit.afterclass; import org.junit.beforeclass; import org.junit.test; import org.openqa.selenium.by; import org.openqa.selenium.webdriver; import org.openqa.selenium.chrome.chromedriver; import java.awt.*; import java.awt.event.keyevent; import java.util.concurrent.timeunit; /** * @author rongrong * selenium模拟访问网站爬虫操作代码示例 */ public class demo { private static webdriver driver; static final int max_timeout_in_seconds = 5; @beforeclass public static void setupbeforeclass() throws exception { driver = new chromedriver(); string url = "https://temai.snssdk.com/article/feed/index?id=6675245569071383053&subscribe=5501679303&source_type=28&content_type=1&create_user_id=34013&adid=__aid__&tt_group_id=6675245569071383053"; driver.manage().window().maximize(); driver.manage().timeouts().implicitlywait(max_timeout_in_seconds, timeunit.seconds); driver.get(url); } @afterclass public static void teardownafterclass() throws exception { if (driver != null) { system.out.println("运行结束!"); driver.quit(); } } @test public void test() throws interruptedexception { robot robot = null; try { robot = new robot(); } catch (awtexception e1) { e1.printstacktrace(); } robot.keypress(keyevent.vk_control); robot.keypress(keyevent.vk_a); robot.keyrelease(keyevent.vk_a); thread.sleep(2000); robot.keypress(keyevent.vk_c); robot.keyrelease(keyevent.vk_c); robot.keyrelease(keyevent.vk_control); driver.get("https://ueditor.baidu.com/website/onlinedemo.html"); thread.sleep(2000); driver.switchto().frame(0); driver.findelement(by.tagname("body")).click(); robot.keypress(keyevent.vk_control); robot.keypress(keyevent.vk_v); robot.keyrelease(keyevent.vk_v); robot.keyrelease(keyevent.vk_control); thread.sleep(2000); } }
写在后面
笔者并不是特别建议使用selenium做爬虫,原因如下:
速度慢:
每次运行爬虫都要打开一个浏览器,初始化还需要加载图片、js渲染等等一大堆东西;
占用资源太多:
有人说,把换成无头浏览器,原理都是一样的,都是打开浏览器,而且很多网站会验证参数,如果对方看到你恶意请求访问,会办了你的请求,然后你又要考虑更换请求头的事情,事情复杂程度不知道多了多少,还得去改代码,麻烦死了。
对网络的要求会更高:
加载了很多可能对您没有价值的补充文件(如css,js和图像文件)。 与真正需要的资源(使用单独的http请求)相比,这可能会产生更多的流量。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。
推荐阅读
-
利用selenium爬虫抓取数据的基础教程
-
Python爬虫抓取手机APP的传输数据
-
[遥感]利用python爬虫获取美国冰雪数据中心的数据
-
【爬虫学习四】 Python大型爬虫案例: 抓取某电商网站的商品数据 (1)
-
python实现scrapy爬虫每天定时抓取数据的示例代码
-
荐 python3 爬虫第二步Selenium 使用简单的方式抓取复杂的页面信息
-
Python数据抓取(2) —简单网络爬虫的撰写
-
c# Selenium爬取数据时防止webdriver封爬虫的方法
-
selenium和casperjs2种数据抓取方式(进来的朋友请留言,共同探讨
-
Python爬虫抓取手机APP的传输数据