文章详情页
python - scrapy运行爬虫一打开就关闭了没有爬取到数据是什么原因
浏览:132日期:2022-08-05 15:09:38
问题描述

爬虫运行遇到如此问题要怎么解决
问题解答
回答1:很可能是你的爬取规则出错,也就是说你的spider代码里面的xpath(或者其他解析工具)的规则错误。导致没爬取到。你可以把网址print出来,看看是不是[]
相关文章:
1. vim - docker中新的ubuntu12.04镜像,运行vi提示,找不到命名.2. 为什么redis中incr一个“0” 会报错?3. docker容器呢SSH为什么连不通呢?4. docker - 各位电脑上有多少个容器啊?容器一多,自己都搞混了,咋办呢?5. android - 优酷的安卓及苹果app还在使用flash技术吗?6. docker不显示端口映射呢?7. docker api 开发的端口怎么获取?8. nginx - 关于vue项目部署到ngnix后出现的问题9. 前端 - Safari:select下拉框的字体不能居中。10. HTML表单操作标签调用父相对URL
排行榜

网公网安备