笨办法学分析[05]pandas常用操作(二)

22.缺失值判断: s.isnull()

isnull()方法可以对缺失值NaN值进行判断,返回对Series或DataFrame的每个元素的判定结果,存在缺失值。但不能识别空值,空格等。
notnull()是isnull()的否定式。

In [2]: s=pd.Series(['a','b','c','',' ',np.nan,None])

In [3]: s
Out[3]: 
0       a
1       b
2       c
3        
4        
5     NaN
6    None
dtype: object

In [4]: s.isnull()
Out[4]: 
0    False
1    False
2    False
3    False
4    False
5     True
6     True
dtype: bool

#对dataframe进行判断
In [5]: df=pd.DataFrame([['a','b','c','',' ',np.nan,None],
   ...:                  ['E','F',np.nan,'H','I',3,6]],index=['a1','a2']).T

In [6]: df
Out[6]: 
    a1   a2
0    a    E
1    b    F
2    c  NaN
3         H
4         I
5  NaN    3
6  NaN    6

In [7]: df.isnull()
Out[7]: 
      a1     a2
0  False  False
1  False  False
2  False   True
3  False  False
4  False  False
5   True  False
6   True  False
23.删除缺失值: s.dropna() / df.dropna()
  • dropna()默认会删除含有缺失值的行或列。对于DataFrame,可以通过how='all'来调节只删除所有数据均缺失的行列(默认how='any')。
  • 还可以通过调节axis=1参数来删除列。
  • 也可以通过thresh参数来选取最少non-NA值个数的行选出来(即对每行或列的缺失值进行统计,thresh等于几就删除缺失值最多的这几行或几列)。
In [8]: s
Out[8]: 
0       a
1       b
2       c
3        
4        
5     NaN
6    None
dtype: object

In [9]: s.dropna()
Out[9]: 
0    a
1    b
2    c
3     
4     
dtype: object

#对于DataFrame,dropna还有可选参数
In [10]: df2=pd.DataFrame([['a','b','c','',' ',np.nan,None],
    ...:                  ['E','F',np.nan,'H','I',3,np.nan]],index=['a1','a2']).T

In [11]: df2
Out[11]: 
    a1   a2
0    a    E
1    b    F
2    c  NaN
3         H
4         I
5  NaN    3
6  NaN  NaN

In [12]: df2.dropna()
Out[12]: 
  a1 a2
0  a  E
1  b  F
3     H
4     I

In [13]: df2.dropna(how='all')
Out[13]: 
    a1   a2
0    a    E
1    b    F
2    c  NaN
3         H
4         I
5  NaN    3
24.填充缺失值: s.fillna() / df.fillna()
  • 通过value来给缺失值赋值想要的值
  • 通过method参数来选择填充方法,ffill或pad表示向前填充(即用前面的一个非缺失值填充),backfill或bfill表示向后填充。
  • 还可以利用计算数据进行填充,如平均值或中位数等(df.mean()、df.median())
In [14]: df2
Out[14]: 
    a1   a2
0    a    E
1    b    F
2    c  NaN
3         H
4         I
5  NaN    3
6  NaN  NaN

#直接填充值
In [15]: df2.fillna(888)
Out[15]: 
    a1   a2
0    a    E
1    b    F
2    c  888
3         H
4         I
5  888    3
6  888  888

#使用method参数
In [16]: df2.fillna(method='ffill')
Out[16]: 
  a1 a2
0  a  E
1  b  F
2  c  F
3     H
4     I
5     3
6     3

#可以使用计算值填充数据
In [17]: df2.fillna(df.count())
Out[17]: 
  a1 a2
0  a  E
1  b  F
2  c  6
3     H
4     I
5  5  3
6  5  6
25.重复值判定: s.duplicated() / df.duplicated()
  • duplicated()会返回一个布尔系列,来判定此行/列在之前是否出现过
In [24]: s2=pd.Series(['A','A','B','b'])

In [25]: s2
Out[25]: 
0    A
1    A
2    B
3    b
dtype: object

In [26]: s2.duplicated()
Out[26]: 
0    False
1     True
2    False
3    False
dtype: bool

In [27]: df4=pd.DataFrame([['A','A','B','b'],
    ...:                   ['A','C','b','b'],
    ...:                   ['e','d','f','b'],
    ...:                   ['e','d','f','b']],columns=['a1','a2','a3','a4'])

In [28]: df4
Out[28]: 
  a1 a2 a3 a4
0  A  A  B  b
1  A  C  b  b
2  e  d  f  b
3  e  d  f  b

In [29]: df4.duplicated()
Out[29]: 
0    False
1    False
2    False
3     True
dtype: bool
26.删除重复值: s.drop_duplicates() / df.drop_duplicates()
  • drop_duplicates()可以删除重复出现的数据
  • 通过参数keep调节保留的数据,keep='first'保留重复的第一个数据,keep='last'保留最后一个数据,keep=False删除所有重复数据(只保留没有重复的数据)
  • 通过subset参数可以指定部分列进行重复判断,默认为判断所有列,指定subset=['colname1','colname2']
  • 通过参数inplace=True可以对数据进行原地修改
In [30]: s2
Out[30]: 
0    A
1    A
2    B
3    b
dtype: object

In [31]: s2.drop_duplicates()
Out[31]: 
0    A
2    B
3    b
dtype: object

In [32]: df4
Out[32]: 
  a1 a2 a3 a4
0  A  A  B  b
1  A  C  b  b
2  e  d  f  b
3  e  d  f  b

In [33]: df4.drop_duplicates()
Out[33]: 
  a1 a2 a3 a4
0  A  A  B  b
1  A  C  b  b
2  e  d  f  b
In [34]: df4.drop_duplicates(keep=False)
Out[34]: 
  a1 a2 a3 a4
0  A  A  B  b
1  A  C  b  b

#指定列进行重复判断
In [62]: df4.drop_duplicates(subset=['a1','a4'])
Out[62]: 
  a1 a2 a3 a4
0  A  A  B  b
2  e  d  f  b
27.数据分类(映射): s.map(dict)

使用map()可以利用字典完成对数据序列的映射,在很多工作中会用到,例如对商品进行归类、把代号转换成文字内容等。

In [13]: df=pd.DataFrame([list('abcdefgh'),
    ...:                  [15,24,33,13,53,21,31,91],
    ...:                  [1,2,3,4,1,2,2,2]],index=['name','age','city']).T

In [14]: df
Out[14]: 
  name age city
0    a  15    1
1    b  24    2
2    c  33    3
3    d  13    4
4    e  53    1
5    f  21    2
6    g  31    2
7    h  91    2

#通过字典完成对用户名单的性别映射
In [15]: sex={'a':'男',
    ...:      'b':'女',
    ...:      'c':'男',
    ...:      'd':'男',
    ...:      'e':'女',
    ...:      'f':'男',
    ...:      'g':'未知',
    ...:      'h':'男',}

In [16]: df['sex']=df['name'].map(sex)

In [17]: df
Out[17]: 
  name age city sex
0    a  15    1   男
1    b  24    2   女
2    c  33    3   男
3    d  13    4   男
4    e  53    1   女
5    f  21    2   男
6    g  31    2  未知
7    h  91    2   男
28.替换值: s.replace() / df.replace()
  • 可以针对单一值进行替换,如s.replace(oldvalue,newvalue)
  • 也可以将多个值替换为同一个值,如s.replace([oldvalue1,oldvalue2],newvalue)。也可以传入两个列表,新旧值一一对应进行替换
  • 对df执行replace操作时应特别注意,它会替换掉df中所有符合条件的数据,保险的做法是df['col']=df['col'].replace([oldlist],[newlist])
In [19]: df
Out[19]: 
  name age city sex
0    a  15    1   男
1    b  24    2   女
2    c  33    3   男
3    d  13    4   男
4    e  53    1   女
5    f  21    2   男
6    g  31    2  未知
7    h  91    2   男

#将city的代号对应到城市名称
In [20]: df['city']=df['city'].replace([1,2,3,4],['北京','上海','广州','重庆'])
In [21]: df
Out[21]: 
  name age city sex
0    a  15   北京   男
1    b  24   上海   女
2    c  33   广州   男
3    d  13   重庆   男
4    e  53   北京   女
5    f  21   上海   男
6    g  31   上海  未知
7    h  91   上海   男
29.离散化和面元划分(数据分段): pd.cut(s,bins,labels)
  • s:待分段数据
  • bins:分段标准
  • labels:分段标签
  • 分段区间默认为左开右闭,可以通过参数right=False,修改区间段为左闭右开区间。
  • 如果cut传入的不是面元边界,而是面元数量,则会根据数据的最大最小值计算等长面元,precision参数控制面元划分的小数位数。
  • qcut,可以根据样本分位数对数据进行面元划分。
In [13]: ages = [20, 22, 25, 27, 21, 23, 37, 31, 61, 45, 41, 32]
    ...: bins=[10,18,25,45,70,100]
    ...: labels=['少年','青年','壮年','中年','老年']
    ...: cats=pd.cut(ages,bins,labels=labels)

In [14]: cats
Out[14]: 
[青年, 青年, 青年, 壮年, 青年, ..., 壮年, 中年, 壮年, 壮年, 壮年]
Length: 12
Categories (5, object): [少年 < 青年 < 壮年 < 中年 < 老年]

In [15]: pd.value_counts(cats)
Out[15]: 
壮年    6
青年    5
中年    1
老年    0
少年    0
dtype: int64
30.异常值检测和过滤(替换异常值)
  • np.sign(data)可以根据data的正负符号,生成1和-1
In [17]: data=pd.DataFrame(np.random.randn(1000,4))

In [18]: data.describe()
Out[18]: 
                 0            1            2            3
count  1000.000000  1000.000000  1000.000000  1000.000000
mean      0.004810    -0.027545    -0.045605    -0.016705
std       1.004290     1.021424     0.994457     0.949196
min      -3.206029    -3.584745    -3.558081    -2.728175
25%      -0.687393    -0.756027    -0.701376    -0.646029
50%       0.052037    -0.061157    -0.062893     0.005118
75%       0.658388     0.672714     0.608198     0.631999
max       3.658853     3.077312     3.619713     2.838411

In [19]: data[(np.abs(data)>3).any(axis=1)]
Out[19]: 
            0         1         2         3
30  -0.338671  1.377560 -3.052083  1.129186
180 -1.553646 -3.200527  0.753505  1.962077
192 -0.412346 -2.276327 -3.558081  0.434918
254  1.161989 -3.584745 -0.370215  0.353072
321 -0.936188 -1.618777  3.619713  0.517175
338 -0.458360  3.077312 -0.195628 -0.476386
404 -1.335868 -3.073252  0.484003  0.013251
447 -3.116901  1.428209  0.042362  1.424448
518 -0.978763 -0.343995 -3.084647  0.379374
644  3.042225 -1.468389  0.261914 -0.663178
696  3.658853 -1.206324 -0.810575 -1.672725
711 -3.206029  0.454197 -0.214890  0.118297
717 -0.749071  3.075002  0.774330 -0.593757

#将绝对值大于3的数据限制在3以内
In [20]: data[np.abs(data)>3]=np.sign(data)*3

In [21]: data.describe()
Out[21]: 
                 0            1            2            3
count  1000.000000  1000.000000  1000.000000  1000.000000
mean      0.004432    -0.026839    -0.045529    -0.016705
std       1.000979     1.018271     0.990127     0.949196
min      -3.000000    -3.000000    -3.000000    -2.728175
25%      -0.687393    -0.756027    -0.701376    -0.646029
50%       0.052037    -0.061157    -0.062893     0.005118
75%       0.658388     0.672714     0.608198     0.631999
max       3.000000     3.000000     3.000000     2.838411

31.计算指标/哑变量(选项的二分法转换): pd.get_dummies()
  • df某列包含有k个不同的值,则可以派生出一个k*len(df)的矩阵,每一行由0,1构成,如果该行包含k中的值,则对应的列为1,其余列对应值为0。
  • 二分法的概念:针对一个英语题,答案直接记录为D,则称之为分类法记录。如果将ABCD答案列为表头,分别在下面记录[0,0,0,1],表示D选项被选中,即为二分法。
  • prefix参数可以为指标加上前缀,方便和其他数据结合。
In [22]: df = pd.DataFrame({'key': ['b', 'b', 'a', 'c', 'a', 'b'],
    ...:     'data1': [1,2,3,4,5,5]})

In [23]: df
Out[23]: 
  key  data1
0   b      1
1   b      2
2   a      3
3   c      4
4   a      5
5   b      5

In [24]: pd.get_dummies(df['key'])
Out[24]: 
   a  b  c
0  0  1  0
1  0  1  0
2  1  0  0
3  0  0  1
4  1  0  0
5  0  1  0

#使用prefix添加前缀,并合并其他数据
In [25]: dummies = pd.get_dummies(df['key'], prefix='key')
    ...: df[['data1']].join(dummies)
Out[25]: 
   data1  key_a  key_b  key_c
0      1      0      1      0
1      2      0      1      0
2      3      1      0      0
3      4      0      0      1
4      5      1      0      0
5      5      0      1      0
32.字符串操作方法
  • val.count('keywords')可以统计val中keywords出现的次数。
  • ".".join([x,y,z]),可以用用.将xyz连接


    字符串操作方法
33.DataFrame的索引操作
  • df.unstack()可以将层次化索引重新安排到DataFrame中(类似透视表),stack()是其逆操作。
  • 针对Series进行unstack操作是将两个索引列转换成二维表的形式(透视表),Series没有stack操作
  • 针对单一索引的DataFrame:进行unstack操作是将DataFrame的index和columns转化为索引,优先使用columns作为第一索引。而stack操作则是优先使用index作为第一索引。
  • 针对多重索引的DataFrame:进行unstack操作会将index只保留第一索引,其余层级索引均转化为columns。而stack操作则会将所有columns转化为index。
>>> frame = pd.DataFrame({'a': range(7), 'b': range(7, 0, -1),
...     'c': ['one', 'one', 'one', 'two', 'two','two', 'two'],
...     'd': [0, 1, 2, 0, 1, 2, 3]})
>>> frame
   a  b    c  d
0  0  7  one  0
1  1  6  one  1
2  2  5  one  2
3  3  4  two  0
4  4  3  two  1
5  5  2  two  2
6  6  1  two  3
>>> frame.unstack()
a  0      0
   1      1
   2      2
   3      3
   4      4
   5      5
   6      6
b  0      7
   1      6
   2      5
   3      4
   4      3
   5      2
   6      1
c  0    one
   1    one
   2    one
   3    two
   4    two
   5    two
   6    two
d  0      0
   1      1
   2      2
   3      0
   4      1
   5      2
   6      3
dtype: object
>>> frame.stack()
0  a      0
   b      7
   c    one
   d      0
1  a      1
   b      6
   c    one
   d      1
2  a      2
   b      5
   c    one
   d      2
3  a      3
   b      4
   c    two
   d      0
4  a      4
   b      3
   c    two
   d      1
5  a      5
   b      2
   c    two
   d      2
6  a      6
   b      1
   c    two
   d      3
dtype: object
34.索引级别调整:df.swaplevel()
In [15]: data = pd.DataFrame(np.random.randn(18).reshape((2,9)),
    ...:     columns=[['a', 'a', 'a', 'b', 'b', 'c', 'c', 'd', 'd'],
    ...:     [1, 2, 3, 1, 3, 1, 2, 2, 3]],index=[['s1','s2'],['x1','x2']]).T

In [16]: data
Out[16]:
           s1        s2
           x1        x2
a 1 -0.489175  1.989853
  2 -0.803715  0.516374
  3  0.275984  0.204901
b 1  0.443108 -2.054270
  3  0.773189  0.396446
c 1 -0.298805  0.809908
  2  0.143118 -0.703121
d 2 -1.865267 -0.570579
  3  0.297032 -0.144984

In [17]: data.index.names=['key1','key2']
    ...: data.columns.names=['col1','col2']

In [18]: data
Out[18]:
col1             s1        s2
col2             x1        x2
key1 key2
a    1    -0.489175  1.989853
     2    -0.803715  0.516374
     3     0.275984  0.204901
b    1     0.443108 -2.054270
     3     0.773189  0.396446
c    1    -0.298805  0.809908
     2     0.143118 -0.703121
d    2    -1.865267 -0.570579
     3     0.297032 -0.144984

In [19]: data.swaplevel('key1','key2')

Out[19]:
col1             s1        s2
col2             x1        x2
key2 key1
1    a    -0.489175  1.989853
2    a    -0.803715  0.516374
3    a     0.275984  0.204901
1    b     0.443108 -2.054270
3    b     0.773189  0.396446
1    c    -0.298805  0.809908
2    c     0.143118 -0.703121
     d    -1.865267 -0.570579
3    d     0.297032 -0.144984
35.根据级别汇总
In [20]: data
Out[20]:
col1             s1        s2
col2             x1        x2
key1 key2
a    1    -0.489175  1.989853
     2    -0.803715  0.516374
     3     0.275984  0.204901
b    1     0.443108 -2.054270
     3     0.773189  0.396446
c    1    -0.298805  0.809908
     2     0.143118 -0.703121
d    2    -1.865267 -0.570579
     3     0.297032 -0.144984

In [21]: data.sum(level='key2')
Out[21]:
col1        s1        s2
col2        x1        x2
key2
1    -0.344872  0.745490
2    -2.525864 -0.757326
3     1.346206  0.456363
36.将列转换为索引: df.set_index()

被转化为索引的列,默认会被删除,可以添加参数drop=False来保留转化为索引的列。

In [7]: frame = pd.DataFrame({'a': range(7), 'b': range(7, 0, -1),
   ...:     'c': ['one', 'one', 'one', 'two', 'two','two', 'two'],
   ...:     'd': [0, 1, 2, 0, 1, 2, 3]})

In [8]: frame
Out[8]: 
   a  b    c  d
0  0  7  one  0
1  1  6  one  1
2  2  5  one  2
3  3  4  two  0
4  4  3  two  1
5  5  2  two  2
6  6  1  two  3

In [9]: frame.set_index(['c','d'])
Out[9]: 
       a  b
c   d      
one 0  0  7
    1  1  6
    2  2  5
two 0  3  4
    1  4  3
    2  5  2
    3  6  1
37.数据合并: pd.merge()、df1.join(df2)、pd.concat()
  • pd.merge():可根据一个或多个键将不同DataFrame中的行连接起来。与SQL风格一致。语法:pd.merge(df1,df2,how='inner',left_on='key1',right_ont='key2',on=['key1','key2'])。
    • how参数:有inner/left/right/outer,分别和sql的join方式对应。
    • on参数:两个DataFrame的关联列名,相当于sql的on。
    • left_on/right_on参数:不和on同时使用,当两个DataFrame的关联列名不一致时使用。
    • left_index=True或right_index=True:当连接键在索引中时使用。
  • df1.join(df2):DataFrame还有一个便捷的join实例方法,它能更为方便地实现按索引合并。它还可用于合并多个带有相同或相似索引的DataFrame对象,但要求没有重叠的列。
  • 数据合并的方法
    • SQL方式的关联:使用pd.merge()或者df1.join(df2)
    • 添加列:对于单列,可以使用df['columnname']=data的方式。对于添加多列,数据长度、顺序一致的情况下,可以使用索引连接的方式,添加参数left_index=True和right_index=True。
      -添加行:df1.append(df2,ignore_index=True),数据的列名必须相同,否则append会进行数据对齐操作。还可以使用pd.concat([df1,df2])进行列追加,也需要保证列名相同;通过添加keys参数,用以添加层次化索引区分来源表,如keys=['df1','df2']
In [1]: import pandas as pd
   ...: import numpy as np

In [2]: frame1 = pd.DataFrame({'a': range(7), 'b': range(7, 0, -1),
   ...:     'c': ['one', 'one', 'one', 'two', 'two','two', 'two'],
   ...:     'd': [0, 1, 2, 0, 1, 2, 3]})
   ...: frame2=pd.DataFrame([[1,2,3],[4,5,6]],columns=['one','two','three'],index=['a','d']).T

In [3]: frame1
Out[3]: 
   a  b    c  d
0  0  7  one  0
1  1  6  one  1
2  2  5  one  2
3  3  4  two  0
4  4  3  two  1
5  5  2  two  2
6  6  1  two  3

In [4]: frame2
Out[4]: 
       a  d
one    1  4
two    2  5
three  3  6

In [5]: f3=pd.merge(frame1,frame2,how='outer',left_on=['c'],right_index=True,suffixes=('_left','_right'))

In [6]: f3
Out[6]: 
   a_left    b      c  d_left  a_right  d_right
0     0.0  7.0    one     0.0        1        4
1     1.0  6.0    one     1.0        1        4
2     2.0  5.0    one     2.0        1        4
3     3.0  4.0    two     0.0        2        5
4     4.0  3.0    two     1.0        2        5
5     5.0  2.0    two     2.0        2        5
6     6.0  1.0    two     3.0        2        5
6     NaN  NaN  three     NaN        3        6

#添加行(数据追加)
In [9]: df1 = pd.DataFrame({'a': range(7), 'b': range(7, 0 , -1),
   ...:  'c': ['one', 'one', 'one',
   ...:  'two', 'two','two', 'two'],
   ...: 'd': [0, 1, 2, 0, 1, 2, 3]
   ...: })

   ...: df2 = pd.DataFrame([10,20,'xx1',30],index=list('abcd')).T


In [10]: df1
Out[10]:
   a  b    c  d
0  0  7  one  0
1  1  6  one  1
2  2  5  one  2
3  3  4  two  0
4  4  3  two  1
5  5  2  two  2
6  6  1  two  3

In [11]: df2
Out[11]:
    a   b    c   d
0  10  20  xx1  30

#使用append进行数据追加(添加行)
In [12]: df1.append(df2)
Out[12]:
    a   b    c   d
0   0   7  one   0
1   1   6  one   1
2   2   5  one   2
3   3   4  two   0
4   4   3  two   1
5   5   2  two   2
6   6   1  two   3
0  10  20  xx1  30

#通常情况下index并没有太大用处,使用ignore_index=True重新建立索引,方便后期数据处理。
In [13]: df1.append(df2,ignore_index=True)
Out[13]:
    a   b    c   d
0   0   7  one   0
1   1   6  one   1
2   2   5  one   2
3   3   4  two   0
4   4   3  two   1
5   5   2  two   2
6   6   1  two   3
7  10  20  xx1  30

#也可以使用concat添加列,并添加keys来区分来源表。
In [28]: pd.concat([df1,df2],keys=['df1','df2'])
Out[28]:
        a   b    c   d
df1 0   0   7  one   0
    1   1   6  one   1
    2   2   5  one   2
    3   3   4  two   0
    4   4   3  two   1
    5   5   2  two   2
    6   6   1  two   3
df2 0  10  20  xx1  30

38.数据长宽格式的转换(透视表)
  • 宽格式转长格式(堆叠):df.unstack()或者pd.melt(df,[keyslist]),可以通过指定id_vars,value_vars选择堆叠的列和数据。
  • 长格式转宽格式:df.pivot()
#宽格式转长格式
In [73]: data=pd.DataFrame([range(10,18),[15,24,33,13,53,21,31,91],
    ...:   [1,2,3,4,1,2,2,2]],index=['val1','val2','val3 '],columns=list('abcdefgh')).T
    ...: data2=data.unstack().reset_index()
    ...: data2.columns=['item','name','value']

In [74]: data
Out[74]:
   val1  val2  val3
a    10    15     1
b    11    24     2
c    12    33     3
d    13    13     4
e    14    53     1
f    15    21     2
g    16    31     2
h    17    91     2

In [75]: data2
Out[75]:
    item name  value
0   val1    a     10
1   val1    b     11
2   val1    c     12
3   val1    d     13
4   val1    e     14
5   val1    f     15
6   val1    g     16
7   val1    h     17
8   val2    a     15
9   val2    b     24
10  val2    c     33
11  val2    d     13
12  val2    e     53
13  val2    f     21
14  val2    g     31
15  val2    h     91
16  val3    a      1
17  val3    b      2
18  val3    c      3
19  val3    d      4
20  val3    e      1
21  val3    f      2
22  val3    g      2
23  val3    h      2

In [83]: pd.melt(data)
Out[83]:
   variable  value
0      val1     10
1      val1     11
2      val1     12
3      val1     13
4      val1     14
5      val1     15
6      val1     16
7      val1     17
8      val2     15
9      val2     24
10     val2     33
11     val2     13
12     val2     53
13     val2     21
14     val2     31
15     val2     91
16     val3      1
17     val3      2
18     val3      3
19     val3      4
20     val3      1
21     val3      2
22     val3      2
23     val3      2

In [87]: data2.pivot('item','name')
Out[87]:
     value
name     a   b   c   d   e   f   g   h
item
val1    10  11  12  13  14  15  16  17
val2    15  24  33  13  53  21  31  91
val3     1   2   3   4   1   2   2   2

以上内容根据《利用Python进行数据分析·第2版》进行整理。
参考链接:https://www.jianshu.com/p/161364dd0acf

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,736评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,167评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,442评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,902评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,302评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,573评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,847评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,562评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,260评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,531评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,021评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,367评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,016评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,068评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,827评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,610评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,514评论 2 269

推荐阅读更多精彩内容