Python爬虫学习总结(二)之LXML使用心得
2021/11/7 22:09:52
本文主要是介绍Python爬虫学习总结(二)之LXML使用心得,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
解析模块的使用都是大同小异的。都是创建解析对象,定义解析规则,保存解析后的文件。
感觉LXML的优点最大的优点就是可以在Chrome按F12直接审查页面元素。右键复制为XPATH。
然后再进行修改就可以了。如注释后面的语句#'string(//*[@id="content"])'需要解析哪些地方的语句就复制哪里的,然后修改子节点就行了。
具体的语法查看官方文档就可以了。
def parse_html(self,html): parse_html = etree.HTML(html) xpath_bds = '//*[@id="content"]/p/text()'#'string(//*[@id="content"])' r_list = parse_html.xpath(xpath_bds) return r_list
保存方式有俩种,一种是字符串的string(),解析语句放在括号中间。
一种是列表的解析语句放在text()前。
总结:不如re好用。
这篇关于Python爬虫学习总结(二)之LXML使用心得的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2025-01-03用FastAPI掌握Python异步IO:轻松实现高并发网络请求处理
- 2025-01-02封装学习:Python面向对象编程基础教程
- 2024-12-28Python编程基础教程
- 2024-12-27Python编程入门指南
- 2024-12-27Python编程基础
- 2024-12-27Python编程基础教程
- 2024-12-27Python编程基础指南
- 2024-12-24Python编程入门指南
- 2024-12-24Python编程基础入门
- 2024-12-24Python编程基础:变量与数据类型