Python爬虫入门教程 18-100 煎蛋网XXOO图片抓取
程序员文章站
2022-07-10 12:31:48
写在前面 很高兴我这系列的文章写道第18篇了,今天写一个爬虫爱好者特别喜欢的网站煎蛋网 ,这个网站其实还是有点意思的,网站很多人写了N多的教程了,各种方式的都有,当然网站本身在爬虫爱好者的不断进攻下,也在不断的完善,反爬措施也很多,今天我用 在揍他一波。 整体看上去,煎蛋网的妹子图质量还是可以的,不 ......
写在前面
很高兴我这系列的文章写道第18篇了,今天写一个爬虫爱好者特别喜欢的网站煎蛋网http://jandan.net/ooxx
,这个网站其实还是有点意思的,网站很多人写了n多的教程了,各种方式的都有,当然网站本身在爬虫爱好者的不断进攻下,也在不断的完善,反爬措施也很多,今天我用selenium
在揍他一波。
整体看上去,煎蛋网的妹子图质量还是可以的,不是很多,但是还蛮有味道的,这可能也是爬虫er,一批一批的奔赴上去的原因。
1. 网站分析
这个网站如果用 selenium
爬取,其实也没什么要分析的,模拟访问就行,导入必备的模块。
from selenium import webdriver from selenium.webdriver.common.by import by from selenium.webdriver.support.ui import webdriverwait from selenium.webdriver.support import expected_conditions as ec from lxml import etree import requests import time
我使用的是phantomjs
去加载浏览器,关于这个phantomjs
,去互联网搜索一下吧,资料大把,会看的很爽的,总之呢,它可以模拟一个真实的浏览器做任何事情,得到你想要的数据。
browser = webdriver.phantomjs() browser.set_window_size(1366, 768) # 这个地方需要设置一下浏览器的尺寸 wait = webdriverwait(browser,10) browser.get("http://jandan.net/ooxx")
2. 分析数据
程序获取到数据之后就可以对数据进行处理了,编写一个get_content函数,用来处理网页源码。
def get_content(): try: wait.until( ec.presence_of_element_located((by.xpath,'//*[@id="comments"]/ol')) ) # print("正在爬取{}".format(browser.current_url)) page_source = browser.page_source # 获取网页源码 html = etree.html(page_source) # 解析源码 imgs = html.xpath("//li[contains(@id,'comment')]//img/@src") # 匹配图片 download(imgs) except exception as e: print("错误") print(e) finally: browser.close()
图片获取到之后,在上面的代码中,注意有一个地方调用了一个 download
函数,这个函数就是用来下载图片的
def download(imgs): path = "./xxoo/{}" # 路径我写死了 for img in imgs: try: res = requests.get(img) content = res.content except exception as e: print(e) continue file_name = img.split("/")[-1] # 获取文件名 with open(path.format(file_name),"wb") as f: f.write(content) print(file_name,"成功下载文件") time.sleep(0.3) # 循环下载完毕,进行翻页操作 previous-comment-page next = wait.until( ec.presence_of_element_located((by.xpath, '//*[@id="comments"]//a[@class="previous-comment-page"]')) ) next.click() return get_content() # 继续调用上面的网页源码分析流程
ok,运行一下。
上一篇: AI怎么识别外部颜色CMYK的值?