Python爬虫:解决SSL证书验证问题
2022/2/22 14:53:41
本文主要是介绍Python爬虫:解决SSL证书验证问题,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
如果目标网站没有设置好HTTPS证书,又或者网站的HTTPS证书不被CA机构认可,用浏览器访问的话,就可能会出现SSL证书错误的提示。
用requests库来请求这类网站的话,会直接抛出SSLError错误。
requests.exceptions.SSLError: HTTPSConnectionPool(host='ssr2.scrape.center', port=443): Max retries exceeded with url: / (Caused by SSLError(SSLCertVerificationError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate (_ssl.c:1129)')))
这时候可以加入verify参数来关闭验证有效性的功能(verify默认值为True)
import requests r = requests.get('https://ssr2.scrape.center/', verify=False) print(r.status_code)
C:\Users\batman\AppData\Roaming\Python\Python39\site-packages\urllib3\connectionpool.py:1013: InsecureRequestWarning: Unverified HTTPS request is being made to host 'ssr2.scrape.center'. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/1.26.x/advanced-usage.html#ssl-warnings
warnings.warn(
200
不过,返回的结果还是会带上一个丑了吧唧的警告(建议给它指定证书),如果想眼不见为净的话,有三个选择:
1.直接设置忽略警告
import requests from requests.packages import urllib3 urllib3.disable_warnings() r = requests.get('https://ssr2.scrape.center/', verify=False) print(r.status_code)
2.通过捕获警告到日志的方式来忽略警告
import requests import logging logging.captureWarnings(True) r = requests.get('https://ssr2.scrape.center/', verify=False) print(r.status_code)
3.也可以指定一个本地证书用作客户端证书(这可以是单个文件,也可以是一个包含两个文件路径的元组)
import requests r = requests.get('https://ssr2.scrape.center/', verify=False, cert=('/path/server.crt', '/path/server.key')) print(r.status_code)
<完>
这篇关于Python爬虫:解决SSL证书验证问题的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-21Python编程基础教程
- 2024-11-20Python编程基础与实践
- 2024-11-20Python编程基础与高级应用
- 2024-11-19Python 基础编程教程
- 2024-11-19Python基础入门教程
- 2024-11-17在FastAPI项目中添加一个生产级别的数据库——本地环境搭建指南
- 2024-11-16`PyMuPDF4LLM`:提取PDF数据的神器
- 2024-11-16四种数据科学Web界面框架快速对比:Rio、Reflex、Streamlit和Plotly Dash
- 2024-11-14获取参数学习:Python编程入门教程
- 2024-11-14Python编程基础入门