这是一个创建于 4132 天前的主题,其中的信息可能已经有所发展或是发生改变。
scrapy可以将日志存到一个文件当中,不过好像不太方便分析,因为有许多错误原因是相同的,然后反复往里面写,看起来比较累,我想直接写到数据库中方便分析一些
我试了一下,在pipelines.py中直接写数据库语言好像不起作用
开发环境是win7,python最新版32位,scrapy最新版
2 条回复 • 2014-10-31 11:51:18 +08:00
 |
|
1
Codist 2014 年 10 月 8 日
没有碰见过直接入库的日志模块,日志入库一般是写脚本扫描日志文件吧,日志文件分析蛮方便的。不知道在win下是什么感受。这种需求重新实现scrapy的log模块么。
|
 |
|
2
Melodic 2014 年 10 月 31 日
可以考虑自己写个Middleware来处理,log也在middleware中记录
|