python - 网页更新数据之后无法再次抓取
问题描述
我抓取的网页今天更新了一条信息,然后爬虫运行了却没有抓取到.
from pyspider.libs.base_handler import *from pyspider.database.mysql.mysqldb import SQLclass Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self):self.crawl(’http://www.yxztb.net/yxweb/zypd/012001/012001001/’, callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response):for each in response.doc(’.tdmoreinfosub a’).items(): self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2) def detail_page(self, response):return {'address':'宜兴市','url':response.url,'title':response.doc(’font span’).text(),'date' :response.doc(’#tdTitle > .webfont’).text()[8:17], }def on_result(self, result):print resultif not result or not result[’title’]: returnsql = SQL()sql.replace(’zhaobiao’,**result)

希望大佬们能讲的具体点然后多交流交流
问题解答
回答1:@config (age)参数设定直接忽略了index.page的执行
回答2:既然 on_start 的 @every 是一天,那么self.crawl 中设置 age=12 * 60 * 60 半天是比较合适的,保证每次 every 肯定不会被 age 所限制。另外 @config(age=10 * 24 * 60 * 60),这是10天内不要再爬的意思啊。
相关文章:
1. 在windows下安装docker Toolbox 启动Docker Quickstart Terminal 失败!2. web - nginx location 搜索算法问题!?3. docker-machine添加一个已有的docker主机问题4. 关于docker下的nginx压力测试5. Docker for Mac 创建的dnsmasq容器连不上/不工作的问题6. angular.js - angular内容过长展开收起效果7. debian - docker依赖的aufs-tools源码哪里可以找到啊?8. docker - 如何修改运行中容器的配置9. docker安装后出现Cannot connect to the Docker daemon.10. docker - 各位电脑上有多少个容器啊?容器一多,自己都搞混了,咋办呢?

网公网安备