Python 二.基础知识(分布式爬虫打造搜索引擎)
1.技术选型
scrapy vs requests+beautifulsoup
requests和bs都是库,Scrapy是框架。
scrapy框架可以加入requests和bs。
scrapy是基于twisted,性能是最大的优势。
scrapy方便扩展,提供了很多内置的功能。
scrapy内置的css和xpath selector非常方便,bs最大的缺点就是慢
2.网页分类
静态网页
动态网页
webservice(restapi)
3.爬虫能做什么?
搜索引擎—-百度、google、垂直领域搜索引擎
推荐引擎—-今日头条、一点资讯
机器学习的数据样本
数据分析(如金融数据分析)、舆情分析。
4.正则表达式
^ 开头 '^b.*'----以b开头的任意字符
$ 结尾 '^b.*3$'----以b开头,3结尾的任意字符
* 任意长度(次数),≥0
? 非贪婪模式,非贪婪模式尽可能少的匹配所搜索的字符串 '.*?(b.*?b).*'----从左至右第一个b和的二个b之间的内容(包含b)
+ 一次或多次
{2} 指定出现次数2次
{2,} 出现次数≥2次
{2,5} 出现次数2≤x≤5
| 或 例如,“z|food”能匹配“z”或“food”(此处请谨慎)。“[z|f]ood”则匹配“zood”或“food”或"zood"。
[] 中括号中任意一个符合即可(中括号里面没有分转义字符) '[abc]ooby123'----只要开头符合[]中任意一个即可
[^] 只要不出现[]的即可
[a-Z] 从小a到大Z '1[48357][0-9]{9}'----电话号码
. 任意字符
\s 匹配不可见字符 \n \t '你\s好'----可以匹配‘你 好’
\S 匹配可见字符,即普通字符
\w 匹配下划线在内的任何单词字符
\W 和上一个相反
[\u4E00-\u9FA5] 只能匹配汉字
() 要取出的信息就用括号括起来
\d 数字
5.深度优先和广度优先
网站的树结构
深度优先算法和实现—-递归
广度优先算法和实现—-队列
6.爬虫去重策略
将访问过的url保存到数据库中。
将访问过的url保存到set中,只要o(1)【这是常数阶时间复杂度】的代价就可以查询url
100000000x2bytex50个字符/1024/1024/1024≈9G 一亿条数据,一条50字符
url经过md5等方法哈希后保存到set中(比较常用)
……..
7.字符串编码
计算机只能识别数字,文本转换为数字才能处理。计算机中8个bit作为一个字节,所以一个字节能表示最大的数字就是255.
计算机是美国人发明的,所以一个字节可以表示所有字符了,所以ASCII(一个字节)编码就成为美国人标准编码。
但是ASCII处理中文明显是不够的,中文不止255个汉字,所以中国制定了GB2312编码,用两个字节表示一个汉字。GB2312还把ASCII包含进去了,同理,日文,韩文等等上百个国家为了解决这个问题就都发展了一套字节的编码,标准就越来越多,如果出现多种语言混合就一定会出现乱码。
于是unicode出现了,将所有语言统一到一套编码里。
ASCII和unicode编码:
(1)字母A用ASCII编码十进制65,二进制01000001
(2)汉字‘中’已超多ASCII编码的范围,用unicode编码是20013,二进制01001110 00101101
(3)A用unicode编码中只需要前面补0,二进制是 00000000 01000001
乱码问题解决可,但是如果内容全是英文,unicode编码比ASCII需要多一倍的存储空间,同时如果传输需要多一倍的传输。
所以出现了可变长的编码“utf-8”,把英文变长一个字节,汉字3个字节。特别生僻的变成4-6字节。如果传输大量的英文,utf-8作用就很明显。
下一篇: Vue2.0组件实现动态搜索引擎(二)
推荐阅读
-
Scrapy分布式爬虫打造搜索引擎 - (一)基础知识
-
Scrapy分布式爬虫打造搜索引擎-(八)elasticsearch结合django搭建搜索引擎
-
python分布式爬虫搜索引擎实战-4-scrapy框架初体验
-
python分布式爬虫搜索引擎实战-5-右键即可的爬虫利器xpath爬取伯乐在线实例
-
Scrapy分布式爬虫打造搜索引擎-(六)scrapy进阶开发
-
学习python-day003---转自Python分布式爬虫打造搜索引擎Scrapy精讲
-
Scrapy分布式爬虫打造搜索引擎-(七)scrapy-redis 分布式爬虫
-
Scrapy分布式爬虫打造搜索引擎 - (三)知乎网问题和答案爬取
-
python分布式爬虫搜索引擎实战-1-正则表达式
-
Python分布式爬虫Scrapy打造搜索引擎2020