python爬虫:urllib库的简单使用
2021/5/3 22:57:56
本文主要是介绍python爬虫:urllib库的简单使用,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
1 import urllib.request 2 #获取一个get请求 3 response = urllib.request.urlopen("http://www.baidu.com") 打开网页并返回网页内容给response print(response.read().decode('utf-8')) #对获取到的网页进行utf-8解码
用于测试HTTP/HTTPS请求的网站
1 #获取一个post请求 2 3 import urllib.parse 4 data = bytes(urllib.parse.urlencode({"hello":"world"}),encoding="utf-8") 5 response = urllib.request.urlopen("http://httpbin.org/post",data= data) 6 print(response.read().decode("utf-8"))
#获取一个get请求 import urllib.parse response = urllib.request.urlopen("http://httpbin.org/get") print(response.read().decode("utf-8"))
如果访问超时,或者对方网页不予返回信息,(防止程序卡死)应该如何处理。
#超时处理 try: response = urllib.request.urlopen("http://httpbin.org/get", timeout=10) print(response.read().decode("utf-8")) #对网页信息进行utf-8解码 except urllib.error.URLError as e: print("time out!")
简单解析网页信息
response = urllib.request.urlopen("http://www.baidu.com") print(response.status) #查看状态信息(200/404/500/418) print(response.getheaders())#查看Response Headers中的信息 print(response.getheader("Server"))#查看Response Headers中的Server属性值(查看单一属性值)
将爬虫伪装成浏览器,以避免被网站识破,返回418信息。
这篇关于python爬虫:urllib库的简单使用的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-24Python编程基础详解
- 2024-11-21Python编程基础教程
- 2024-11-20Python编程基础与实践
- 2024-11-20Python编程基础与高级应用
- 2024-11-19Python 基础编程教程
- 2024-11-19Python基础入门教程
- 2024-11-17在FastAPI项目中添加一个生产级别的数据库——本地环境搭建指南
- 2024-11-16`PyMuPDF4LLM`:提取PDF数据的神器
- 2024-11-16四种数据科学Web界面框架快速对比:Rio、Reflex、Streamlit和Plotly Dash
- 2024-11-14获取参数学习:Python编程入门教程