python - scrapy爬虫不能循环运行?
问题描述
scrapy只能爬取一个页面上的链接,不能持续运行爬完全站,以下是代码,初学求指导。
class DbbookSpider(scrapy.Spider): name = 'imufe' allowed_domains = [’http://www.imufe.edu.cn/’] start_urls=(’http://www.imufe.edu.cn/main/dtxw/201704/t20170414_127035.html’) def parse(self, response):item = DoubanbookItem()selector = scrapy.Selector(response)print(selector)books = selector.xpath(’//a/@href’).extract()link=[]for each in books: each=urljoin(response.url,each) link.append(each)for each in link: item[’link’] = each yield itemi = random.randint(0,len(link)-1)nextPage = link[i]yield scrapy.http.Request(nextPage,callback=self.parse)
问题解答
回答1:是不是爬得太快让封了
相关文章:
1. javascript - node.js promise没用2. node.js - nodejs如何发送请求excel文件并下载3. docker-machine添加一个已有的docker主机问题4. golang - 用IDE看docker源码时的小问题5. docker - 各位电脑上有多少个容器啊?容器一多,自己都搞混了,咋办呢?6. angular.js - 为什么给 Angular 指令绑定事件无法生效7. 为什么我ping不通我的docker容器呢???8. java - 我在用Struts2上传文件时,报以下错误怎么回事?9. android 如何实现如图中的键盘上的公式及edittext的内容展示呢10. MySQL如何实现表中再嵌套一个表?
