博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
scrapy 爬虫踩过的坑(II)
阅读量:4310 次
发布时间:2019-06-06

本文共 318 字,大约阅读时间需要 1 分钟。

同事写了个爬虫,逻辑上看着没什么问题,但是一直报错:Request url must be str or unicode……

打印了一下url 和url 的类型,确实是 unicode 懵逼……

打印url 时,突然发现url 的域名和 爬虫设置的 allowed_domains 参数并不相同。

按正常来说,如果url 不在allowed_domains 范围内,他应该是会被禁止的。但是当用Request 对指定 的url 发送请求时,他竟然抛出了这么一个错误……

改了一下allowed domains ,爬虫就正常爬去了……

 

转载于:https://www.cnblogs.com/taoyoung/p/8746474.html

你可能感兴趣的文章
袖珍C库
查看>>
深入理解JavaScript系列(10):JavaScript核心(晋级高手必读篇)
查看>>
Angularjs演示Service功能
查看>>
Unable to launch the IIS Express Web server
查看>>
黑客与画家 第七章
查看>>
Tomcat实践
查看>>
第二次冲刺计划周第四天
查看>>
leetcode 120. Triangle
查看>>
边缘网关协议(BGP)
查看>>
github和gitlab并存
查看>>
表单日期点击输入时显示日历表
查看>>
Css中position、float和clear整理
查看>>
JavaScript表单验证
查看>>
Vijos p1123 均分纸牌
查看>>
关于NSDateFormatter的格式-dd是月天,DD是年天
查看>>
各路传奇排序
查看>>
像心跳的方向走
查看>>
收集JavaScript中常用的方法函数
查看>>
2. cgi 结构目录
查看>>
Abp框架下 Area中新建Layout报错的问题
查看>>