欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

记录一次自己爬虫的案例

程序员文章站 2022-04-28 15:37:29
...

简单来讲

简单来讲,爬虫就是一个探测机器,它的基本操作就是模拟人的行为去各个网站溜达,点点按钮,查查数据,或者把看到的信息背回来。就像一只虫子在一幢楼里不知疲倦地爬来爬去。

你可以简单地想象:每个爬虫都是你的「分身」。就像孙悟空拔了一撮汗毛,吹出一堆猴子一样。

你每天使用的百度,其实就是利用了这种爬虫技术:每天放出无数爬虫到各个网站,把他们的信息抓回来,然后化好淡妆排着小队等你来检索。
抢票软件,就相当于撒出去无数个分身,每一个分身都帮助你不断刷新 12306 网站的火车余票。一旦发现有票,就马上拍下来,然后对你喊:土豪快来付款。
废话不多说,上菜!

安装爬虫工具----Scrapy官方指南

博主之前先提前安装的Anaconda3官方最新下载地址

然后shell中执行下载scrapy最新版,我下载的2.2(这里使用的清华源)

pip install scrapy -i https://pypi.tuna.tsinghua.edu.cn/simple

查看版本

pip list | grep Scrapy

记录一次自己爬虫的案例
在相应的目录中创建scrapy项目

scrapy startproject 项目名(spider_ekgc)

具体代码下次补充


然后打开idea编写代码
注意:python代码可能不会提示,所以对代码需要一定掌握能力