scrapy 中 Request 的 url 补全
程序员文章站
2022-05-11 18:13:55
...
scrapy 中 Request 的 url 补全
如果是片段url
在python3中
from urllib import parse
在python2中
import urlparse
response.url
Request(url=parse.urljoin(response.url, post_url), callback=self.parse_detail)
只是初始化,如何交给scrapy 下载?使用yield
。
yield Request(url=parse.urljoin(response.url, post_url), callback=self.parse_detail)
当需要用到两个class来定位一个节点时,
比如
<a class="next page-numbers" href="http://blog.jobbole.com/all-posts/page/3/">下一页 »</a>
这个时候,就是把.next
和.page-numbers
连在一起写。
next_url = response.css(".next.page-numbers::attr(href) ").extract_first()
上一篇: TensorFlow中的name有什么用
下一篇: 传感技术应用领域盘点
推荐阅读
-
spring boot中controller的使用及url参数的获取方法
-
浅析Python的web.py框架中url的设定方法
-
浅谈SpringBoot处理url中的参数的注解
-
C#中Request.Cookies 和 Response.Cookies 的区别分析
-
C#中Request.Cookies 和 Response.Cookies 的区别分析
-
Servlet获取AJAX POST请求中参数以form data和request payload形式传输的方法
-
Python中Django框架利用url来控制登录的方法
-
spring boot中controller的使用及url参数的获取方法
-
Symfony实现行为和模板中取得request参数的方法
-
ASP.NET中URL Routing和IIS上URL Rewriting的区别