虾米音乐爬虫
虾米音乐爬虫
这是本次我爬取的网站
这是前后端分析的网站,这种类型的web其实很好的,只要找对了api,成功发生请求,那么想要的数据就直接获取到了
这里就拿绿色这首歌为例子:https://www.xiami.com/song/mtrnqf7d590,分析她的评论的api接口
-
请求分析,主要知道api的地址,请求的参数,请求的方式,还有就是请求头需要携带什么参数。
这是本次访问携带的参数数据
_q: {"objectid":"mtrnqf7d590","objecttype":"song","pagingvo":{"page":1,"pagesize":20}} _s: a05126e10a02e9702e790e47c27d2002 开始分析吧(_s的值和你们的不一样,这是正常的) _q:一个明文,数据都能找到 objectid就是url中的一个数据,不难拿到,objecttype这里是固定为song的,pagingvo就是页数和每一页多少条数据,_q就是很容易的。 _s:它是一个32为的随机字符串,第一时间应该想到md5生成的32位的数据,_s很有可能就是md5加密过后的,至于加密数据是什么?以后台开发来说,md5它是无法可逆的,后端拿到这个md5加密串不能反解密出来,所以只能根据前端传来的数据,将数据通过md5加密,再和前端传来的md5字符串进行比较,比较成功的说明这次请求是通过web网页来的(理想状况,排除别人知道你的加密方法)。不同的歌曲,不同的评论页数页数_s是不一样的,那么这个md5加密的数据肯定有标识(指不一样的数据)。很多后台会拿时间戳作为加密数据之一,去生成md5加密字符串,不过前端要将这个时间戳传到后台。这里呢,并没有传时间戳到后台,那么猜测加密的数据很有可能就是_q的值
_q: {"objectid":"mtrnqf7d590","objecttype":"song","pagingvo":{"page":1,"pagesize":20}} _s: a05126e10a02e9702e790e47c27d2002
不管你刷新多少次,请求参数是一样的,时间是一直再变的,
_s
的值依旧没有变化,所以直接排除时间戳作为加密数据的可能,_q
的值一直没变,_s
的值也没有变化,那么_q
的值是_s
的加密参数的可能性变大。上面我们一直看的是本首歌曲的第一页的评论信息,我们试试看第二页评论的信息,看看请求参数有何变化,翻到页面最下面,点击更多评论,我们继续找到评论的接口
_q: {"objectid":"mtrnqf7d590","objecttype":"song","pagingvo":{"page":2,"pagesize":20}} _s: f82616e410172d3e76b9b48561a0d257
_q
的值发生了变化,_s
的值相应的发生了变化,我们可以确定的是_q
就是_s
的加密数据之一(可能还有其他的加密数据) -
_s
的加密方式破解找js加密的位置是有一定难度的,你访问一个web页面,请求的js文件有很多,单个js文件的内容有大,还有就是js文件又是混淆的,以a,b,c,d,e...这些名字命名,你都不知道代表什么意思。
我找位置的方式就是:先看本次请求是哪个js文件,js文件的哪个位置发送的,再顺着往上慢慢找。这只是一个思路。
还有一种就是思路就是,通过search搜索关键字,通过关键字的位置,找到加密位置。
这里,最终我通过搜索关键字
_q
,找到了加密位置。位置找到了,通过chrome的开发者工具进行js断点调试。我就讲下这段js大概。_q的值需要我们自己按照需要自己生成相应的字符串 _s的指就是这行代码:a.split("_")[0] + "_xmmain_" + e._url + "_" + t a:就是cookie中xm_sg_tk对应的value值 e._url:比如评论请求的url地址为 https://www.xiami.com/api/comment/getcommentlist 那么e._url就是/api/comment/getcommentlist t:就是_q的值 最终将它他们拼接成字符串,最终通过md5的方式加密,这就是_s的值
注意:
关于上面的a,也就是cookie是xm_sg_tk的value的获取。在你发送api请求之前,先去请求下主页,拿到对应cookie的值。
_q
很明显就是json字符串,通过json.dumps字典生成,但是注意,字典是无序的,json.dumps出来的字符串顺序会不一样。 成功请求之后,就会拿到响应的数据
这里我就分析了评论这一个api,其他api的加密方式也是一样。只是_q
的值和对应的url地址不一样。需要爬取其他数据相应改下就是。
import requests, pprint from fake_useragent import useragent from hashlib import md5 class xiami: ua = useragent() domain = "https://www.xiami.com" # 各个api接口地址 # 每日音乐推荐 apidailysongs = "/api/recommend/getdailysongs" # 排行榜音乐 apibillboarddetail = "/api/billboard/getbillboarddetail" # 所有排行榜 apibillboardall = "/api/billboard/getbillboards" # 歌曲详情信息 apisongdetails = "/api/song/getplayinfo" def __init__(self): self.session = requests.session() self.headers = { "user-agent": self.ua.random } self.session.get(self.domain) def _get_api_url(self, api): return self.domain + api # 获取每日推荐的30首歌曲 def get_daily_songs(self): url = self._get_api_url(self.apidailysongs) params = { "_s": self._get_params__s(self.apidailysongs) } result = self.session.get(url=url, params=params).json() self._dispose(result) # 获取虾米音乐的音乐排行榜 def get_billboard_song(self, billboard_id: int = 0): ''' :param billboard_id: 各类型的排行榜 :return: 排行榜音乐数据 ''' if not hasattr(self, "billboard_dict"): self._get_billboard_dict_map() assert hasattr(self, "billboard_dict"), "billboard_dict获取失败" pprint.pprint(self.billboard_dict) if billboard_id == 0: billboard_id = input("输入对应id,获取排行榜信息") assert billboard_id in self.billboard_dict, "billboard_id错误" url = self._get_api_url(self.apibillboarddetail) _q = '{\"billboardid\":\"%s\"}' % billboard_id params = { "_q": _q, "_s": self._get_params__s(self.apibillboarddetail, _q) } result = self.session.get(url=url, params=params).json() self._dispose(result) # 生成一个排行榜对应的字典映射 def _get_billboard_dict_map(self): billboard_dict = {} billboards_info = self.get_billboard_all() try: if billboards_info["code"] == "success": xiamibillboards_list = billboards_info["result"]["data"]["xiamibillboards"] for xiamibillboards in xiamibillboards_list: for xiamibillboard in xiamibillboards: id = xiamibillboard["billboardid"] name = xiamibillboard["name"] billboard_dict[id] = name self.billboard_dict = billboard_dict except exception: pass # 获取所有的排行榜信息 def get_billboard_all(self): url = self._get_api_url(self.apibillboardall) params = { "_s": self._get_params__s(self.apibillboardall) } result = self.session.get(url=url, params=params).json() self._dispose(result) # 获取歌曲详情信息 def get_song_details(self, *song_ids) -> dict: ''' :param song_ids: 歌曲的id,可以为多个 :return: 歌曲的详情信息 ''' assert len(song_ids) != 0, "参数不能为空" for song_id in song_ids: if not isinstance(song_id, int): raise exception("每个参数必须为整型") url = self._get_api_url(self.apisongdetails) _q = "{\"songids\":%s}" % list(song_ids) params = { "_q": _q, "_s": self._get_params__s(self.apisongdetails, _q) } result = self.session.get(url=url, params=params).json() return self._dispose(result) # 获取歌曲的下载地址 def get_song_download_url(self, *song_ids): download_url_dict = {} song_details = self.get_song_details(*song_ids) songplayinfos = song_details["result"]["data"]["songplayinfos"] for songplayinfo in songplayinfos: song_download_url = songplayinfo["playinfos"][0]["listenfile"] or songplayinfo["playinfos"][1]["listenfile"] song_id = songplayinfo["songid"] download_url_dict[song_id] = song_download_url print("歌曲下载地址为:", download_url_dict) # 处理爬虫获取到的数据,这里我就输出值 def _dispose(self, data): pprint.pprint(data) return data # 获取加密字符串_s def _get_params__s(self, api: str, _q: str = "") -> str: ''' :param api: url的地址 :param _q: 需要加密的参数 :return: 加密字符串 ''' xm_sg_tk = self._get_xm_sg_tk() data = xm_sg_tk + "_xmmain_" + api + "_" + _q return md5(bytes(data, encoding="utf-8")).hexdigest() # 获取xm_sg_tk的值,用于对数据加密的参数 def _get_xm_sg_tk(self) -> str: xm_sg_tk = self.session.cookies.get("xm_sg_tk", none) assert xm_sg_tk is not none, "xm_sg_tk获取失败" return xm_sg_tk.split("_")[0] def test(self): # self.get_daily_songs() # self._get_xm_sg_tk() # self.get_billboard_song(332) # self.get_billboard_all() # self.get_song_details(1813243760) # self.get_song_download_url(1813243760) pass if __name__ == '__main__': xm = xiami() xm.test()
上一篇: 自动化测试中执行JS脚本方法封装
下一篇: Python笔记:模板方法模式