使用selenium抓取淘宝的商品信息实例
程序员文章站
2022-07-09 18:16:22
淘宝的页面大量使用了js加载数据,所以采用selenium来进行爬取更为简单,selenum作为一个测试工具,主要配合无窗口浏览器phantomjs来使用。
im...
淘宝的页面大量使用了js加载数据,所以采用selenium来进行爬取更为简单,selenum作为一个测试工具,主要配合无窗口浏览器phantomjs来使用。
import re from selenium import webdriver from selenium.common.exceptions import timeoutexception from selenium.webdriver.common.by import by from selenium.webdriver.support.ui import webdriverwait from selenium.webdriver.support import expected_conditions as ec from pyquery import pyquery as pq ''' wait.until()语句是selenum里面的显示等待,wait是一个webdriverwait对象,它设置了等待时间,如果页面在等待时间内 没有在 dom中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常,也可以说程序每隔xx秒看一眼,如果条件 成立了,则执行下一步,否则继续等待,直到超过设置的最长时间,然后抛出timeoutexception 1.presence_of_element_located 元素加载出,传入定位元组,如(by.id, 'p') 2.element_to_be_clickable 元素可点击 3.text_to_be_present_in_element 某个元素文本包含某文字 ''' # 定义一个*面的浏览器 browser = webdriver.phantomjs( service_args=[ '--load-images=false', '--disk-cache=true']) # 10s无响应就down掉 wait = webdriverwait(browser, 10) #虽然*面但是必须要定义窗口 browser.set_window_size(1400, 900) def search(): ''' 此函数的作用为完成首页点击搜索的功能,替换标签可用于其他网页使用 :return: ''' print('正在搜索') try: #访问页面 browser.get('https://www.taobao.com') # 选择到淘宝首页的输入框 input = wait.until( ec.presence_of_element_located((by.css_selector, '#q')) ) #搜索的那个按钮 submit = wait.until(ec.element_to_be_clickable( (by.css_selector, '#j_tsearchform > div.search-button > button'))) #send_key作为写到input的内容 input.send_keys('面条') #执行点击搜索的操作 submit.click() #查看到当前的页码一共是多少页 total = wait.until(ec.presence_of_element_located( (by.css_selector, '#mainsrp-pager > div > div > div > div.total'))) #获取所有的商品 get_products() #返回总页数 return total.text except timeoutexception: return search() def next_page(page_number): ''' 翻页函数, :param page_number: :return: ''' print('正在翻页', page_number) try: #这个是我们跳转页的输入框 input = wait.until(ec.presence_of_element_located( (by.css_selector, '#mainsrp-pager > div > div > div > div.form > input'))) #跳转时的确定按钮 submit = wait.until( ec.element_to_be_clickable( (by.css_selector, '#mainsrp-pager > div > div > div > div.form > span.j_submit'))) #清除里面的数字 input.clear() #重新输入数字 input.send_keys(page_number) #选择并点击 submit.click() #判断当前页是不是我们要现实的页 wait.until( ec.text_to_be_present_in_element( (by.css_selector, '#mainsrp-pager > div > div > div > ul > li.item.active > span'), str(page_number))) #调用函数获取商品信息 get_products() #捕捉超时,重新进入翻页的函数 except timeoutexception: next_page(page_number) def get_products(): ''' 搜到页面信息在此函数在爬取我们需要的信息 :return: ''' #每一个商品标签,这里是加载出来以后才会拿网页源代码 wait.until(ec.presence_of_element_located( (by.css_selector, '#mainsrp-itemlist .items .item'))) #这里拿到的是整个网页源代码 html = browser.page_source #pq解析网页源代码 doc = pq(html) items = doc('#mainsrp-itemlist .items .item').items() for item in items: # print(item) product = { 'image': item.find('.pic .img').attr('src'), 'price': item.find('.price').text(), 'deal': item.find('.deal-cnt').text()[:-3], 'title': item.find('.title').text(), 'shop': item.find('.shop').text(), 'location': item.find('.location').text() } print(product) def main(): try: #第一步搜索 total = search() #int类型刚才找到的总页数标签,作为跳出循环的条件 total = int(re.compile('(\d+)').search(total).group(1)) #只要后面还有就继续爬,继续翻页 for i in range(2, total + 1): next_page(i) except exception: print('出错啦') finally: #关闭浏览器 browser.close() if __name__ == '__main__': main()
以上这篇使用selenium抓取淘宝的商品信息实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
推荐阅读
-
Python使用urllib2模块抓取HTML页面资源的实例分享
-
Python使用Selenium爬取淘宝异步加载的数据方法
-
Python使用Selenium模块实现模拟浏览器抓取淘宝商品美食信息功能示例
-
php curl抓取网页的介绍和推广及使用CURL抓取淘宝页面集成方法
-
Scrapy基于selenium结合爬取淘宝的实例讲解
-
python编程使用selenium模拟登陆淘宝实例代码
-
Python使用urllib2模块抓取HTML页面资源的实例分享
-
Selenium Webdriver重新使用已打开的浏览器实例(IE 版)
-
使用selenium抓取淘宝的商品信息实例
-
荐 python3 爬虫第二步Selenium 使用简单的方式抓取复杂的页面信息