## 数据采集和解析 通过上一个章节,我们已经了解到了开发一个爬虫需要做的工作以及一些常见的问题,至此我们可以对爬虫开发需要做的工作以及相关的技术做一个简单的汇总,可能有些库我们之前并没有使用过,不过别担心,这些内容我们都会讲到的。 1. 下载数据 - urllib / requests / aiohttp。 2. 解析数据 - re / lxml / beautifulsoup4(bs4)/ pyquery。 3. 持久化 - pymysql / redis / sqlalchemy / pymongo。 4. 调度器 - 进程 / 线程 / 协程。 ### HTML页面分析 ```HTML 首页

Hello, world!

这是一个神奇的网站!


这是一个例子程序

静夜思

床前明月光

疑似地上霜

举头望明月

低头思故乡

腾讯网 美女 凯蒂猫 美女
姓名 上场时间 得分 篮板 助攻
``` 如果你对上面的代码并不感到陌生,那么你一定知道HTML页面通常由三部分构成,分别是:用来承载内容的Tag(标签)、负责渲染页面的CSS(层叠样式表)以及控制交互式行为的JavaScript。通常,我们可以在浏览器的右键菜单中通过“查看网页源代码”的方式获取网页的代码并了解页面的结构;当然,我们也可以通过浏览器提供的开发人员工具来了解网页更多的信息。 #### 使用requests获取页面 1. GET请求和POST请求。 2. URL参数和请求头。 3. 复杂的POST请求(文件上传)。 4. 操作Cookie。 ### 三种采集方式 #### 三种采集方式的比较 | 抓取方法 | 速度 | 使用难度 | 备注 | | ---------- | --------------------- | -------- | ------------------------------------------ | | 正则表达式 | 快 | 困难 | 常用正则表达式
在线正则表达式测试 | | lxml | 快 | 一般 | 需要安装C语言依赖库
唯一支持XML的解析器 | | Beautiful | 快/慢(取决于解析器) | 简单 | | > 说明:Beautiful的解析器包括:Python标准库(html.parser)、lxml的HTML解析器、lxml的XML解析器和html5lib。 #### BeautifulSoup的使用 1. 遍历文档树。 2. 五种过滤器:字符串、正则表达式、列表、True、方法。