欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Python3爬虫小程序——爬取各类天气信息(4)

程序员文章站 2022-05-17 10:33:16
...

【爬取动态页面的数据】

更新:已上传到我的GitHub上,点击打开链接

上一次讲到用工具对动态页面进行数据爬取,但是感觉难度不小,而且运行效率简直低下。。。

于是乎从网上查资料,有好多说可以通过获取网站的json数据来进行动态页面爬取,然后我就找到气象数据权威——*气象台的官网(http://www.nmc.cn/),开始数据的爬取。

然后怎么去找这个json数据呢?在后台开着抓包软件Fiddler的情况下,我打开了北京的天气的页面(http://www.nmc.cn/publish/forecast/ABJ/beijing.html)。。。后台抓包如下图:

Python3爬虫小程序——爬取各类天气信息(4)

然后发现json文件还不少。。突然点开了第二个,就是那个/f/rest/real/54511?_=149...的,发现了真相……

Python3爬虫小程序——爬取各类天气信息(4)

我天,数据都在这里啊,第一个是数据更新时间,第二个是城市信息,第三个是预警信息(没有的话都是9999),第四个是天气信息,第五个是风的信息。

然后根据这个的url开始试验,发现主要变化的是/f/rest/real/54511的54511,当城市变化的时候这串数也会变,且跟问好后面的好像没什么太大关系,把全部url(http://www.nmc.cn/f/rest/real/54511)复制粘贴到浏览器中访问。也可以得到数据。好了,确定url就是它了。然后改变后面的数字串就可以了。

代码就跟以前的类似了,根据json数据分别得到数据更新时间、天气、风向、风速、温度、湿度,然后写到文本文件中(当然也可以写到数据库里)。别忘了异常处理。

代码放上:

#coding=utf-8
import json
import urllib.request
import time
import traceback
#模拟成浏览器
headers={"Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
         "Accept-Encoding":"gbk,utf-8,gb2312",
         "Accept-Language":"zh-CN,zh;q=0.8",
         "User-Agent":"Mozilla/5.0(Windows NT 10.0; WOW64) AppleWebKit/537.36(KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36",
         "Connection":"keep-alive"}
opener=urllib.request.build_opener()
headall=[]
for key,value in headers.items():
    item=(key,value)
    headall.append(item)
opener.addheaders=headall
#将opener安装为全局
urllib.request.install_opener(opener)
#构造数据,城市分别是北京、天津、石家庄、太原、济南、沈阳、呼和浩特、郑州
city_id = ['54511','54517','53698','53772','54823','54342','53463','57083']
def getcityid(city):
    if city == 'beijing':
        return city_id[0]
    elif city == 'tianjin':
        return city_id[1]
    elif city == 'shijiazhuang':
        return city_id[2]
    elif city == 'taiyuan':
        return city_id[3]
    elif city == 'jinan':
        return city_id[4]
    elif city == 'shenyang':
        return city_id[5]
    elif city == 'huhehaote':
        return city_id[6]
    else:
        return city_id[7]
def getweather(city):
    try:
        url = "http://www.nmc.cn/f/rest/real/"+getcityid(city)
        stdout = urllib.request.urlopen(url)
        weatherInfo = stdout.read().decode('utf-8')
        jsonData = json.loads(weatherInfo)
        weatherlist = []
        # 读取JSON数据,添加到列表中
        szDate = jsonData["publish_time"]
        weatherlist.append(szDate)
        szCity = jsonData["station"]["city"]
        print("城市: "+str(szCity))
        szWeather = jsonData["weather"]["info"]
        weatherlist.append(szWeather)
        szdirect = jsonData["wind"]["direct"]
        weatherlist.append(szdirect)
        szspeed = str(jsonData["wind"]["speed"]) + "m/s"
        weatherlist.append(szspeed)
        szTemp = str(jsonData["weather"]["temperature"]) + "℃"
        weatherlist.append(szTemp)
        szhumidity = str(int(jsonData["weather"]["humidity"])) + "%"
        weatherlist.append(szhumidity)
        print("数据更新时间,天气,风向,风速,实时温度,相对湿度:")
        print(weatherlist)
        writefiles_weather(city,weatherlist)
    except urllib.error.URLError as e:
        print("获取天气状况数据出现URLERROR!一分钟后重试……")
        if hasattr(e, "code"):
            print(e.code)
        if hasattr(e, "reason"):
            print(e.reason)
        time.sleep(60)
        # 出现异常则过一段时间重新执行此部分
        getweather(city)
    except Exception as e:
        print("获取天气状况数据出现EXCEPTION!十秒钟后重试……")
        print("Exception:" + str(e))
        traceback.print_exc()  # 获得错误行数
        time.sleep(10)
        # 出现异常则过一段时间重新执行此部分
        getweather(city)
def writefiles_weather(filename,weatherlist):
    try:
        #将获取的数据写入文件中,数据分别为数据更新时间,天气,风向,风速(m/s),实时温度(℃),相对湿度(%)。
        with open("D:\mydata\data_weather\data_weather_"+filename+".txt","a",errors="ignore") as f:
            for weather in weatherlist:
                f.write(str(weather))
                f.write(",")
            f.write("\n")
        print("该条天气数据已添加到文件中!")
    except Exception as e:
        print("天气状况数据写入文件函数出现异常!将跳过此部分……")
        print("Exception:"+str(e))
        traceback.print_exc()  #获得错误行数
        pass
if __name__ == '__main__':
    while(True):
        print("==========开始工作==========")
        getweather("beijing")
        getweather("tianjin")
        getweather("shijiazhuang")
        getweather("taiyuan")
        getweather("jinan")
        getweather("shenyang")
        getweather("huhehaote")
        getweather("zhengzhou")
        #休息一小时
        print("【休息中……】")
        time.sleep(3600)

pycharm运行结果:

Python3爬虫小程序——爬取各类天气信息(4)


【总结】对于我这种急性子来说,通过这种方式获取数据终于可以马上获得数据了,不用再一个一个等了(还容易出异常……)!!