这是一个创建于 3991 天前的主题,其中的信息可能已经有所发展或是发生改变。
scrapy可以将日志存到一个文件当中,不过好像不太方便分析,因为有许多错误原因是相同的,然后反复往里面写,看起来比较累,我想直接写到数据库中方便分析一些
我试了一下,在pipelines.py中直接写数据库语言好像不起作用
开发环境是win7,python最新版32位,scrapy最新版
2 条回复 • 2014-10-31 11:51:18 +08:00
 |
|
1
Codist 2014-10-08 13:40:26 +08:00
没有碰见过直接入库的日志模块,日志入库一般是写脚本扫描日志文件吧,日志文件分析蛮方便的。不知道在win下是什么感受。这种需求重新实现scrapy的log模块么。
|
 |
|
2
Melodic 2014-10-31 11:51:18 +08:00
可以考虑自己写个Middleware来处理,log也在middleware中记录
|