scrapy的日志logging的使用
程序员文章站
2022-05-12 10:35:26
...
scrapy的日志logging的使用
1、 意义 :
为了方便在调试。在scrapy运行中可能停不下来, 关闭就没有记录了。因此把日志保存在文本中方便看信息。
2 、使用:
1) 在settings中增加:
# log config
import datetime
Today=datetime.datetime.now()#取得现在的时间
Log_file_path='scrapy_{}_{}_{}.log'.format(Today.year,Today.month,Today.day)#以时间为文件名
LOG_LEVEL="WARNING"#级别,则高于或者等于该等级的信息就能输出到我的日志中,低于该级别的信息则输出不到我的日志信息中
#logging.warning
LOG_FILE =Log_file_path
#Log_file_path='log/scrapy_{}_{}_{}.log'.format(Today.year,Today.month,Today.day) 则在目标下增加log文件夹
Scrapy提供5层logging级别:
CRITICAL - 严重错误
ERROR - 一般错误
WARNING - 警告信息
INFO - 一般信息
DEBUG - 调试信息
logging设置
通过在setting.py中进行以下设置可以被用来配置logging:
LOG_ENABLED 默认: True,启用logging
LOG_ENCODING 默认: ‘utf-8’,logging使用的编码
LOG_FILE 默认: None,在当前目录里创建logging输出文件的文件名
LOG_LEVEL 默认: ‘DEBUG’,log的最低级别
2)具体的使用:
import logging
logging.warning (“日志信息”)
上一篇: scrapy的logging设置