【python爬虫】反爬解决方案
2021/12/5 1:16:59
本文主要是介绍【python爬虫】反爬解决方案,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
最近因工程需要,需要爬取大量数据,期间遇到一系列问题,特此记录
问题一:ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接
解决方案:
import requests if __name__ =="__main__": try: # 请求的api query = ("...") # timeout (读取时间 连接时间) r = requests.get(query,timeout=(100,300)).json() except requests.exceptions.RequestException as e: print(e) print('失败') #继续接下来的操作 假如在不停记录数据的话可以记录一个None值
简单来说就是用try except包围起来。
对于需要爬取批量的数据来说,这是一个很好的解决方案。只是需要注意except中写入遇到错误时的方案,然后在后续处理数据的时候再对缺失值处理即可。
问题二:urllib.error.URLError: <urlopen error [Errno 11001] getaddrinfo failed>
解决方案:
#ua_list是个User-Agent的集合 ua_list = ['Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1', 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0', 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; InfoPath.3)' ] headers = {'User-Agent': random.choice(ua_list)} # timeout (读取时间 连接时间) #query为你要爬取的api query = ("...") r = requests.get(query,timeout=(200,300),headers=headers).json()
通过更换User-Agent来避免被反爬
这篇关于【python爬虫】反爬解决方案的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2025-01-03用FastAPI掌握Python异步IO:轻松实现高并发网络请求处理
- 2025-01-02封装学习:Python面向对象编程基础教程
- 2024-12-28Python编程基础教程
- 2024-12-27Python编程入门指南
- 2024-12-27Python编程基础
- 2024-12-27Python编程基础教程
- 2024-12-27Python编程基础指南
- 2024-12-24Python编程入门指南
- 2024-12-24Python编程基础入门
- 2024-12-24Python编程基础:变量与数据类型