python - 爬虫内容保存成文本文件 编码问题
问题描述
测试一个非常简单的爬虫,把一个非常简约风格的网页的文本内容保存到本地的电脑上。最后出现错误:
UnicodeEncodeErrorTraceback (most recent call last)<ipython-input-35-ead5570b2e15> in <module>() 7 filename=str(i)+’.txt’ 8 with open(filename,’w’)as f:----> 9 f.write(content) 10 print(’当前小说第{}章已经下载完成’.format(i)) 11 f.close()UnicodeEncodeError: ’gbk’ codec can’t encode character ’xa0’ in position 7: illegal multibyte sequence
代码如下:
In [1]: import requestsIn [2]: from bs4 import BeautifulSoupIn [3]: re=requests.get(’http://www.qu.la/book/168/’)In [4]: html=re.textIn [5]: soup=BeautifulSoup(html,’html.parser’)In [6]: list=soup.find(id='list')In [9]: link_list=list.find_all(’a’)In [14]: mylist=[] ...: for link in link_list: ...: mylist.append(’http://www.qu.la’+link.get(’href’)) ...: ...:#遍历每个链接,下载文本内容到 本地文本文件i=0 ...: for url in mylist1: ...: re1=requests.get(url) ...: html2=re1.text ...: soup=BeautifulSoup(html2,'html.parser') ...: content=soup.find(id='content').text.replace(’chaptererror();’, ’’) ...: filename=str(i)+’.txt’ ...: with open(filename,’w’)as f: ...: f.write(content) ...: print(’当前小说第{}章已经下载完成’.format(i)) ...: f.close() ...: i=i+1
问题解答
回答1:f.write(content.encode(’utf-8’))
或者
import codecswith codecs.open(filename, ’w’, ’utf-8’) as f: f.write(content)
相关文章:
1. apache - 怎么给localhost后面默认加上8080端口2. html - 移动端radio无法选中3. css - 关于伪类背景问题4. 正则表达式 - python pandas的sep参数问题5. mysql - 数据库建字段,默认值空和empty string有什么区别 1106. mysql - 数据库JOIN查询7. python - 管道符和ssh传文件8. 关于Navicat连接到mysql,我改了root的密码后,Navicat连接报错1862?9. windows-7 - Win7中Vmware Workstatoin与Xampp中Apache服务器端口冲突?10. python - 用scrapy-splash爬取网站 为啥iframe下的内容没有被返回
