文章详情页
python - scrapy运行爬虫一打开就关闭了没有爬取到数据是什么原因
浏览:77日期:2022-08-05 15:09:38
问题描述
爬虫运行遇到如此问题要怎么解决
问题解答
回答1:很可能是你的爬取规则出错,也就是说你的spider代码里面的xpath(或者其他解析工具)的规则错误。导致没爬取到。你可以把网址print出来,看看是不是[]
相关文章:
1. windows误人子弟啊2. mysql优化 - MySQL如何为配置表建立索引?3. 实现bing搜索工具urlAPI提交4. 关于mysql联合查询一对多的显示结果问题5. 数据库 - Mysql的存储过程真的是个坑!求助下面的存储过程哪里错啦,实在是找不到哪里的问题了。6. 我在网址中输入localhost/abc.php显示的是not found是为什么呢?7. 如何用笔记本上的apache做微信开发的服务器8. python - linux怎么在每天的凌晨2点执行一次这个log.py文件9. MySQL主键冲突时的更新操作和替换操作在功能上有什么差别(如图)10. 冒昧问一下,我这php代码哪里出错了???
排行榜
