文章详情页
python - scrapy 再次请求的问题
浏览:194日期:2022-08-17 18:54:48
问题描述
如:item[’url’]=response.xpath(’a/@href’)分析出一个链接,然后想从这个链接里的网页再获取一些元素,放入item[’other’]。应该怎么写,谢谢。
问题解答
回答1:def parse_page1(self, response): for url in urls:item = MyItem()item[’url’] = urlrequest = scrapy.Request(url,callback=self.parse_page2)# request = scrapy.Request('http://www.example.com/some_page.html',dont_filter=True,callback=self.parse_page2)request.meta[’item’] = itemyield requestdef parse_page2(self, response): item = response.meta[’item’] item[’other’] = response.xpath(’/other’) yield item
最后附上官方文档https://doc.scrapy.org/en/lat...中文翻译版http://scrapy-chs.readthedocs...
相关文章:
1. docker绑定了nginx端口 外部访问不到2. Docker for Mac 创建的dnsmasq容器连不上/不工作的问题3. docker-compose 为何找不到配置文件?4. boot2docker无法启动5. dockerfile - [docker build image失败- npm install]6. docker网络端口映射,没有方便点的操作方法么?7. docker-compose中volumes的问题8. angular.js使用$resource服务把数据存入mongodb的问题。9. mac连接阿里云docker集群,已经卡了2天了,求问?10. dockerfile - 我用docker build的时候出现下边问题 麻烦帮我看一下
排行榜

网公网安备