Python爬虫(一)
2021/7/18 17:08:29
本文主要是介绍Python爬虫(一),对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
什么是爬虫?
爬虫是什么呢,就是地上爬的小虫子,就是爬虫咯。呵呵,开个玩笑,一般说的爬虫都是网络爬虫。那什么是网络爬虫呢,百度百科的解释是这样子的:
网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
额,这一大坨,总结来说就一句话,就是从某个网站上获取某些你想要数据,然后保存起来。
爬虫能干嘛?
爬虫可以帮你爬到你想要的东西,比如说你想下载某个网站上面的图片、小视频、文章、文件,或者说你们公司想获取到对手公司网站上的一些数据用来分析市场,或者想要获取某一类网站用户的行为,用来分析用户的以后的走向,都可以用爬虫来获取到数据。再比如说你要做个什么内容类的app,类似今日头条的,那它里面的这些内容从哪里来的,它就是用爬虫,爬各种网站上热点新闻、八卦信息等等,再经过自己的加工放给用户去看。
爬虫的原理和实质
咱们要从一个网站下载一个图片的话怎么办,要浏览器里面打开这个网站, 然后右键保存图片到本地。
那爬虫呢,就是写代码把上面的这个过程自动化,自动帮咱们做这个操作,不需要咱们再手动点了。这就是爬虫的原理。
爬虫的实质呢,就是写代码发http请求(浏览器里面打开发送的都是http请求),然后获取到response,咱们再从response里面找到想要的数据,存储到本地。
什么是爬虫协议?
爬虫协议就是你想用爬虫爬我的网站,那么你得听我的,哪些你能爬,哪些你不能爬。
怎么查看一个网站的爬虫协议呢,就在这个网站的域名后面加上robots.txt
比如说下面有:jd、百度、淘宝的爬虫协议
jd:https://www.jd.com/robots.txt
淘宝的:https://www.taobao.com/robots.txt
百度的:https://www.baidu.com/robots.txt
如果你要爬的网站域名加上robots.txt是404,那你就可以随心所欲的爬了。
不过就算爬虫协议里面写了,你也可以不遵守,但是也得注意一下,有的公司发现的话,会起诉的。比如说前几年著名的百度控诉360爬虫违反爬虫协议,赔偿70w。
爬虫协议里面有这么几个字段:
User-agent:* 这个字段的意思是允许哪个引擎的爬虫获取数据 * 代表所有类型的爬虫都可以 Disallow:/admin/ 这个字段代表爬虫不允许爬哪个路径下面的数据,如果是/的话,就代表所有的路径下面的数据都不能爬。什么是反爬虫?
因为会有一些恶意的人,恶意的去用爬虫爬咱们的系统,获取一些数据用来做一些不好的事情,这样就会咱们的网站造成危害。
反爬虫就是干这个事的,网站后台有程序专门检测发这个请求是爬虫发的,还是用户的正常请求(发请求就是打开一个页面),如果是爬虫发的话,那么就不给它返回数据,这就是反爬虫。
当然有反爬虫那就有针对反爬虫的策略,就是看谁技术高低的问题了~
爬虫框架Scrapy是python开发的一个爬虫框架,如果你要学习它的话,可能第一步在安装的时候,就会遇到很多问题,因为Scrapy很多模块都是基于linux下的,可能你在mac上或者linux上面安装的时候,不会有什么问题,但是Windows上面安装的话,可能会有各种各样的问题。
这里我就把遇到的问题整理下,怎么解决。
1、直接安装 pip install scrapy
2、安装的时候scrapy它要依赖很多其他的模块,一般都是其他的模块安装的时候会报错,因为pip安装的版本和实际的操作系统需要的版本对应不上,比如说twisted
3、在pip安装scrapy的时候,他会自动安装其他依赖的模块,安装到哪个模块报错了,它会停止安装,看下面的图,就在安装twisted的时候报错了
4、打开https://www.lfd.uci.edu/~gohlke/pythonlibs/,找到安装报错的模块,手动下载对应操作系统的安装包,手动安装。
https://www.lfd.uci.edu/~gohlke/pythonlibs/这个网站是美国一个医科大学的网站,他这个里面有很多python第三方模块的安装包,打开这个网站之后,咱们要装twisted,就直接搜twisted就可以了,可以看到有好几个安装包,根据自己的python版本和操作系统版本下载就好了,看下面的图。
6、下载之后它是一个whl的文件,也是直接用pip安装就行了
1 | pip install C:\Users\bjniuhanyang\Downloads\Twisted-17.9.0-cp35-cp35m-win_amd64.whl |
7、重复第一步
基本上安装scrapy出现的错误,都是因为单个依赖包有问题导致的,用此方法可以解决大部分问题
这篇关于Python爬虫(一)的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-14Python编程入门指南
- 2024-11-13Python基础教程
- 2024-11-12Python编程基础指南
- 2024-11-12Python基础编程教程
- 2024-11-08Python编程基础与实践示例
- 2024-11-07Python编程基础指南
- 2024-11-06Python编程基础入门指南
- 2024-11-06怎么使用python 计算两个GPS的距离功能-icode9专业技术文章分享
- 2024-11-06Python 基础编程入门教程
- 2024-11-05Python编程基础:变量与类型