文章详情页
python - scrapy运行爬虫一打开就关闭了没有爬取到数据是什么原因
浏览:101日期:2022-08-05 15:09:38
问题描述

爬虫运行遇到如此问题要怎么解决
问题解答
回答1:很可能是你的爬取规则出错,也就是说你的spider代码里面的xpath(或者其他解析工具)的规则错误。导致没爬取到。你可以把网址print出来,看看是不是[]
相关文章:
1. 这是什么情况???2. Ant design vue中的联动选择取消操作3. mysql-配置 - MySQL错误,时不时自动挂掉,无法启动4. javascript - 如何获取未来元素的父元素在页面中所有相同元素中是第几个?5. 关于layuiadmin中表格按钮提交问题求解!!!!6. composer包时报错7. Java IO流-InputStream是抽象类,也能调方法?(如图)8. node.js - session怎么存到cookie,然后服务器重启后还能获取。数据库不用mongodb或redis,数据库是mysql9. transform - CSS3的3D变换多次变换如何保持坐标轴不动,或者有矩阵算法可以实现否10. android - 键盘遮挡RecyclerView
排行榜

网公网安备