更新了第67天和第68天文档

pull/778/head
jackfrued 2021-04-30 22:55:16 +08:00
parent 5f1641cd0d
commit d2c6ce9c46
2 changed files with 328 additions and 63 deletions

View File

@ -1431,3 +1431,4 @@ np.linalg.solve(a, b)
```
array([2., 3.])
```

View File

@ -80,7 +80,7 @@ Pandas库中的`Series`对象可以用来表示一维数据结构,跟数组非
> **提示**:如果要使用负向索引,必须在创建`Series`对象时通过`index`属性指定非数值类型的标签。
- 使用自己设置的标签索引
- 使用自定义的标签索引
代码:
@ -199,7 +199,9 @@ Series对象的常用属性如下表所示。
`Series`对象的方法很多,我们通过下面的代码为大家介绍一些常用的方法。
- 统计相关方法
- 统计相关的方法
`Series`对象支持各种获取描述性统计信息的方法。
代码:
@ -257,9 +259,9 @@ Series对象的常用属性如下表所示。
dtype: float64
```
> **提示**:因为`describe()`返回的也是一个`Series`对象,所以可以用`ser2.describe()['mean']`来获取平均值。
> **提示**:因为`describe()`返回的也是一个`Series`对象,所以可以用`ser2.describe()['mean']`来获取平均值。
如果`Series`对象的数据中有重复元素,我们可以使用`unique()`方法获得去重之后的`Series`对象,如果想要统计重复元素重复的次数,可以使用`value_counts()`方法,这个方法会返回一个`Series`对象,它的索引就是原来的`Series`对象中的元素,而每个元素出现的次数就是返回的`Series`对象中的数据,在默认情况下会按照元素出现次数做降序排列。
如果`Series`对象有重复的值,我们可以使用`unique()`方法获得去重之后的`Series`对象;如果想要统计每个值重复的次数,可以使用`value_counts()`方法,这个方法会返回一个`Series`对象,它的索引就是原来的`Series`对象中的值,而每个值出现的次数就是返回的`Series`对象中的数据,在默认情况下会按照出现次数做降序排列。
代码:
@ -278,7 +280,7 @@ Series对象的常用属性如下表所示。
dtype: int64
```
- 数据处理方法
- 数据处理方法
`Series`对象的`dropna`和`fillna`方法分别用来删除空值和填充空值,具体的用法如下所示。
@ -286,7 +288,7 @@ Series对象的常用属性如下表所示。
```Python
ser4 = pd.Series(data=[10, 20, np.NaN, 30, np.NaN])
ser4.dropna()
ser4.dropna()
```
输出:
@ -295,14 +297,14 @@ ser4.dropna()
0 10.0
1 20.0
3 30.0
dtype: float64
dtype: float64
```
代码:
```Python
# 将空值填充为40
ser4.fillna(value=40)
ser4.fillna(value=40)
```
输出:
@ -313,7 +315,7 @@ ser4.fillna(value=40)
2 40.0
3 30.0
4 40.0
dtype: float64
dtype: float64
```
代码:
@ -321,7 +323,7 @@ dtype: float64
```Python
# backfill或bfill表示用后一个元素的值填充空值
# ffill或pad表示用前一个元素的值填充空值
ser4.fillna(method='ffill')
ser4.fillna(method='ffill')
```
输出:
@ -332,7 +334,7 @@ ser4.fillna(method='ffill')
2 20.0
3 30.0
4 30.0
dtype: float64
dtype: float64
```
需要提醒大家注意的是,`dropna`和`fillna`方法都有一个名为`inplace`的参数,它的默认值是`False`,表示删除空值或填充空值不会修改原来的`Series`对象,而是返回一个新的`Series`对象来表示删除或填充空值后的数据系列,如果将`inplace`参数的值修改为`True`,那么删除或填充空值会就地操作,直接修改原来的`Series`对象,那么方法的返回值是`None`。后面我们会接触到的很多方法,包括`DataFrame`对象的很多方法都会有这个参数,它们的意义跟这里是一样的。
@ -391,7 +393,7 @@ dtype: float64
dtype: int64
```
`Series`对象的`apply`和`map`方法可以用于对数据进行处理,代码如下所示
`Series`对象的`apply`和`map`方法非常重要,它们可以用于数据处理,把数据映射或转换成我们期望的样子,这个操作在数据分析的数据准备阶段非常重要
代码:
@ -488,7 +490,84 @@ dtype: float64
dtype: int64
```
`Series`对象的`sort_index`和`sort_values`方法可以用于对索引和数据的排序,排序方法有一个名为`ascending`的布尔类型参数,该参数用于控制排序的结果是升序还是降序;而名为`kind`的参数则用来控制排序使用的算法,默认使用了`quicksort`,也可以选择`mergesort`或`heapsort`;如果存在空值,那么可以用`na_position`参数空值放在最前还是最后,默认是`last`。
- 排序和取头部值的方法
`Series`对象的`sort_index`和`sort_values`方法可以用于对索引和数据的排序,排序方法有一个名为`ascending`的布尔类型参数,该参数用于控制排序的结果是升序还是降序;而名为`kind`的参数则用来控制排序使用的算法,默认使用了`quicksort`,也可以选择`mergesort`或`heapsort`;如果存在空值,那么可以用`na_position`参数空值放在最前还是最后,默认是`last`,代码如下所示。
代码:
```Python
ser8 = pd.Series(
data=[35, 96, 12, 57, 25, 89],
index=['grape', 'banana', 'pitaya', 'apple', 'peach', 'orange']
)
# 按值从小到大排序
ser8.sort_values()
```
输出:
```
pitaya 12
peach 25
grape 35
apple 57
orange 89
banana 96
dtype: int64
```
代码:
```Python
# 按索引从大到小排序
ser8.sort_index(ascending=False)
```
输出:
```
pitaya 12
peach 25
orange 89
grape 35
banana 96
apple 57
dtype: int64
```
如果要从`Series`对象中找出元素中最大或最小的“Top-N”实际上是不需要对所有的值进行排序的可以使用`nlargest`和`nsmallest`方法来完成,如下所示。
代码:
```Python
# 值最大的3个
ser8.nlargest(3)
```
输出:
```
banana 96
orange 89
apple 57
dtype: int64
```
代码:
```Python
# 值最小的2个
ser8.nsmallest(2)
```
输出:
```
pitaya 12
peach 25
dtype: int64
```
#### 绘制图表
@ -508,14 +587,14 @@ plt.rcParams['axes.unicode_minus'] = False
创建`Series`对象并绘制对应的柱状图。
```Python
ser8 = pd.Series({'一季度': 400, '二季度': 520, '三季度': 180, '四季度': 380})
ser9 = pd.Series({'一季度': 400, '二季度': 520, '三季度': 180, '四季度': 380})
# 通过Series对象的plot方法绘图kind='bar'表示绘制柱状图)
ser8.plot(kind='bar', color=['r', 'g', 'b', 'y'])
ser9.plot(kind='bar', color=['r', 'g', 'b', 'y'])
# x轴的坐标旋转到0度中文水平显示
plt.xticks(rotation=0)
# 在柱状图的柱子上绘制数字
for i in range(4):
plt.text(i, ser8[i] + 5, ser8[i], ha='center')
plt.text(i, ser9[i] + 5, ser9[i], ha='center')
# 显示图像
plt.show()
```
@ -526,7 +605,7 @@ plt.show()
```Python
# autopct参数可以配置在饼图上显示每块饼的占比
ser8.plot(kind='pie', autopct='%.1f%%')
ser9.plot(kind='pie', autopct='%.1f%%')
# 设置y轴的标签显示在饼图左侧的文字
plt.ylabel('各季度占比')
plt.show()
@ -538,11 +617,196 @@ plt.show()
#### 创建DataFrame对象
1. 通过二维数组创建`DataFrame`对象。
代码:
```Python
scores = np.random.randint(60, 101, (5, 3))
courses = ['语文', '数学', '英语']
ids = [1001, 1002, 1003, 1004, 1005]
df1 = pd.DataFrame(data=scores, columns=courses, index=ids)
df1
```
输出:
```
语文 数学 英语
1001 69 80 79
1002 71 60 100
1003 94 81 93
1004 88 88 67
1005 82 66 60
```
2. 通过字典创建`DataFrame`对象。
代码:
```Python
scores = {
'语文': [62, 72, 93, 88, 93],
'数学': [95, 65, 86, 66, 87],
'英语': [66, 75, 82, 69, 82],
}
ids = [1001, 1002, 1003, 1004, 1005]
df2 = pd.DataFrame(data=scores, index=ids)
df2
```
输出:
```
语文 数学 英语
1001 69 80 79
1002 71 60 100
1003 94 81 93
1004 88 88 67
1005 82 66 60
```
3. 读取CSV文件创建`DataFrame`对象。
可以通过`pandas` 模块的`read_csv`函数来读取CSV文件`read_csv`函数的参数非常多,下面接受几个比较重要的参数。
- `sep` / `delimiter`:分隔符,默认是`,`。
- `header`:表头(列索引)的位置,默认值是`infer`,用第一行的内容作为表头(列索引)。
- `index_col`:用作行索引(标签)的列。
- `usecols`:需要加载的列,可以使用序号或者列名。
- `true_values` / `false_values`:哪些值被视为布尔值`True` / `False`
- `skiprows`:通过行号、索引或函数指定需要跳过的行。
- `skipfooter`:要跳过的末尾行数。
- `nrows`:需要读取的行数。
- `na_values`:哪些值被视为空值。
代码:
```Python
df3 = pd.read_csv('2018年北京积分落户数据.csv', index_col='id')
df3
```
输出:
```
name birthday company score
id
1 杨效丰 1972-12 北京利德华福电气技术有限公司 122.59
2 纪丰伟 1974-12 北京航天数据股份有限公司 121.25
3 王永 1974-05 品牌联盟(北京)咨询股份公司 118.96
4 杨静 1975-07 中科专利商标代理有限责任公司 118.21
5 张凯江 1974-11 北京阿里巴巴云计算技术有限公司 117.79
... ... ... ... ...
6015 孙宏波 1978-08 华为海洋网络有限公司北京科技分公司 90.75
6016 刘丽香 1976-11 福斯(上海)流体设备有限公司北京分公司 90.75
6017 周崧 1977-10 赢创德固赛(中国)投资有限公司 90.75
6018 赵妍 1979-07 澳科利耳医疗器械(北京)有限公司 90.75
6019 贺锐 1981-06 北京宝洁技术有限公司 90.75
6019 rows × 4 columns
```
> **说明**如果需要上面例子中的CSV文件可以通过下面的百度云盘地址进行获取。
>
> 链接https://pan.baidu.com/s/1rQujl5RQn9R7PadB2Z5g_g提取码e7b4。
4. 读取Excel文件创建`DataFrame`对象。
可以通过`pandas` 模块的`read_excel`函数来读取Excel文件该函数与上面的`read_csv`非常相近,多了一个`sheet_name`参数来指定数据表的名称但是不同于CSV文件没有`sep`或`delimiter`这样的参数。
代码:
```Python
import random
# 读取Excel文件并随机获取其中约5%的数据
df4 = pd.read_excel(
io='某视频网站运营数据.xlsx',
skiprows=lambda x: x > 0 and random.random() > 0.05
)
```
5. 通过SQL从数据库读取数据创建`DataFrame`对象。
代码:
```Python
import pymysql
# 创建一个MySQL数据库的连接对象
conn = pymysql.connect(
host='47.104.31.138', port=3306, user='guest',
password='Guest.618', database='hrs', charset='utf8mb4'
)
# 通过SQL从数据库读取数据创建DataFrame
df5 = pd.read_sql('select * from tb_emp', conn, index_col='eno')
df5
```
> **提示**:执行上面的代码需要先安装`pymysql`库如果尚未安装可以先在Notebook的单元格中先执行`!pip install pymysql`然后再运行上面的代码。上面的代码连接的是我部署在阿里云上的MySQL数据库公网IP地址`47.104.31.138`,用户名:`guest`,密码:`Guest.618`。
输出:
```
ename job mgr sal comm dno
eno
1359 胡一刀 销售员 3344 1800 200 30
2056 乔峰 分析师 7800 5000 1500 20
3088 李莫愁 设计师 2056 3500 800 20
3211 张无忌 程序员 2056 3200 NaN 20
3233 丘处机 程序员 2056 3400 NaN 20
3244 欧阳锋 程序员 3088 3200 NaN 20
3251 张翠山 程序员 2056 4000 NaN 20
3344 黄蓉 销售主管 7800 3000 800 30
3577 杨过 会计 5566 2200 NaN 10
3588 朱九真 会计 5566 2500 NaN 10
4466 苗人凤 销售员 3344 2500 NaN 30
5234 郭靖 出纳 5566 2000 NaN 10
5566 宋远桥 会计师 7800 4000 1000 10
7800 张三丰 总裁 NaN 9000 1200 20
```
#### 基本属性和方法
`DataFrame`对象的属性如下表所示。
| 属性名 | 说明 |
| -------------- | ----------------------------------- |
| `at` / `iat` | 通过标签获取`DataFrame`中的单个值。 |
| `columns` | `DataFrame`对象列的索引 |
| `dtypes` | `DataFrame`对象每一列的数据类型 |
| `empty` | `DataFrame`对象是否为空 |
| `loc` / `iloc` | 通过标签获取`DataFrame`中的一组值。 |
| `ndim` | `DataFrame`对象的维度 |
| `shape` | `DataFrame`对象的形状(行数和列数) |
| `size` | `DataFrame`对象中元素的个数 |
| `values` | `DataFrame`对象的数据对应的二维数组 |
关于`DataFrame`的方法,首先需要了解的是`info()`方法,它可以帮助我们了解`DataFrame`的相关信息,如下所示。
代码:
```Python
df5.info()
```
输出:
```
<class 'pandas.core.frame.DataFrame'>
Int64Index: 14 entries, 1359 to 7800
Data columns (total 6 columns):
# Column Non-Null Count Dtype
--- ------ -------------- -----
0 ename 14 non-null object
1 job 14 non-null object
2 mgr 13 non-null float64
3 sal 14 non-null int64
4 comm 6 non-null float64
5 dno 14 non-null int64
dtypes: float64(2), int64(2), object(2)
memory usage: 1.3+ KB
```
#### 获取数据