python3爬虫-4.正则表达式爬取当当网TOP500书籍
2021/8/24 11:05:40
本文主要是介绍python3爬虫-4.正则表达式爬取当当网TOP500书籍,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
初步探查
打开网站
http://bang.dangdang.com/books/fivestars/1-1
一共25页,每一页最后面的值会发生改变
我们打算获得 排名 书名 图片地址 作者 推荐指数 五星评分 次数价格
逐步实现
主要思路:
- 使用 page 变量来实现翻页
- 我们使用 requests 请求当当网
- 然后将返回的 HTML 进行正则解析
- 所以解析完之后就把内容存到文件中
def main(page): url = 'http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-' + str(page) html = request_dandan(url) items = parse_result(html) # 解析过滤我们想要的信息 for item in items: write_item_to_file(item)
请求当当网 当我们请求成功之后 拿到源代码
def request_dandan(url): try: response = requests.get(url) if response.status_code == 200: return response.text except requests.RequestException: return None
拿到源代码了就要对其解析 使用正则表达式获取我们想要的关键信息
获取到了之后我们封装一下数据
def parse_result(html): # pattern=re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?class="name".*?title="(.*?)"/>.*?class="star">.*?class="tuijian">(.*?)</span>.*?class="publisher_info">.*?target="_blank">(.*?)</a>.*?class="biaosheng>.*?<span>(.*?)</span></div>.*?<p><span>\sclass="price_n">¥(.*?)</span>.*?</li>',re.S) pattern = re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?' 'class="name".*?title="(.*?)">.*?class="star">.*?' 'class="tuijian">(.*?)</span>.*?class="publisher_info">.*?' 'target="_blank">(.*?)</a>.*?class="biaosheng">.*?<span>(.*?)</span></div>.*?' '<p><span\sclass="price_n">¥(.*?)</span>.*?</li>',re.S) items=re.findall(pattern,html) for item in items: yield{ "range":item[0], "image":item[1], "title":item[2], "recommend":item[3], "author":item[4], "items":item[5], "price":item[6], }
写到文件里面
def write_item_to_file(item): print('开始写入数据 ====> ' + str(item)) with open('book.txt', 'a', encoding='UTF-8') as f: f.write(json.dumps(item, ensure_ascii=False) + '\n') f.close()
完整代码
import json import requests import re def main(page): url='http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-'+str(page) html=request_dandan(url) items=parse_result(html)# 解析过滤我们想要的信息 for item in items: write_item_to_file(item) def request_dandan(url): try: response=requests.get(url) if response.status_code==200: return response.text except requests.RequestException: return None #使用正则表达式获取我们想要的关键信息 获取到了之后我们封装一下数据 def parse_result(html): # pattern=re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?class="name".*?title="(.*?)"/>.*?class="star">.*?class="tuijian">(.*?)</span>.*?class="publisher_info">.*?target="_blank">(.*?)</a>.*?class="biaosheng>.*?<span>(.*?)</span></div>.*?<p><span>\sclass="price_n">¥(.*?)</span>.*?</li>',re.S) pattern = re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?' 'class="name".*?title="(.*?)">.*?class="star">.*?' 'class="tuijian">(.*?)</span>.*?class="publisher_info">.*?' 'target="_blank">(.*?)</a>.*?class="biaosheng">.*?<span>(.*?)</span></div>.*?' '<p><span\sclass="price_n">¥(.*?)</span>.*?</li>',re.S) items=re.findall(pattern,html) for item in items: yield{ "range":item[0], "image":item[1], "title":item[2], "recommend":item[3], "author":item[4], "items":item[5], "price":item[6], } #写入文件 def write_item_to_file(item): print('开始写入数据 ====> ' + str(item)) with open('book.txt', 'a', encoding='UTF-8') as f: f.write(json.dumps(item, ensure_ascii=False) + '\n') f.close() if __name__=="__main__": for i in range(1,26): main(i)
最终的效果如下:
这篇关于python3爬虫-4.正则表达式爬取当当网TOP500书籍的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-28Python编程基础教程
- 2024-12-27Python编程入门指南
- 2024-12-27Python编程基础
- 2024-12-27Python编程基础教程
- 2024-12-27Python编程基础指南
- 2024-12-24Python编程入门指南
- 2024-12-24Python编程基础入门
- 2024-12-24Python编程基础:变量与数据类型
- 2024-12-23使用python部署一个usdt合约,部署自己的usdt稳定币
- 2024-12-20Python编程入门指南