文章详情页
python - 在编写scrapy爬虫的时候rules中allow的书写问题
浏览:104日期:2022-08-01 16:58:44
问题描述
在编写爬取58同城二手手机出售的信息的时候,rules里的allow应该怎么写?它里面给出的下一页或者第二页第三页等等的链接给出的都是缩减的链接,那么rules里的allow应该要怎么写呢?有哪位高手可以指点一二嘛?谢谢~
问题解答
回答1:缩减的链接可以用urljoin()组合啊
相关文章:
1. javascript - 如何获取未来元素的父元素在页面中所有相同元素中是第几个?2. docker镜像push报错3. linux运维 - python远程控制windows如何实现4. javascript - js判断一个数组是否重复5. node.js - node express 中ajax post请求参数接收不到?6. javascript - 后端传过来的数据格式是这样,如何使用?7. 百度地图api - Android百度地图SDK,MapView上层按钮可见却不可触,怎么解决?8. html5 - 怎么用npm下载react3版本的路由呢。9. java - tomcat服务经常晚上会挂,求解?10. python - django models 为生成的html元素添加样式。
排行榜
