《SVDNet for Pedestrian Retrieval》翻译理解

Abstract:

这篇文章提出了一个用于检索问题的SVDNet,聚焦于在行人再识别上的应用。我们查看卷积神经网络中全连接层的每一个权重向量,发现它们往往都高度相关。这导致了每个全连接描述中个体之间的相关性,在基于欧几里得距离时会影响检索性能。为了解决这个问题,这篇论文使用了SVD来优化深层表达学习。通过严厉和放松的迭代(RPI)训练框架,我们可以在CNN训练中迭代地整合正交性约束,生成所谓的SVDNet。我们在Market-1501,CUHK03和DukeMTMC-reID数据集上做了评估,证明了RPI可以有效的产生更具区分力的FC描述并显著提高re-ID正确率。在Market-1501数据集上,基于CaffeNet时将rank-1准确率从55.3%提升到80.5%,基于ResNet-50时则从73.8%提升到82.3%。

  1. Introduction

这篇论文考虑的问题是行人检索,也称为行人再识别。它目的是检索出有包含所查询人物的图片。

行人再识别不同于图片分类,因为训练集和测试集上包含不同的类别。所以流行的re-ID深度学习方法包含以下几步:1)在训练集上训练深度分类模型,2)使用全连接层提取query与gallery图片的描述3)使用欧几里得距离计算相似度返回一个经过排序的列表。

通过观察训练后的分类模型我们发现全连接层的权重向量往往高度相关由此受到启发。这个问题主要有两个原因。第一个原因与训练样本的non-uniform分布有关。此问题在最后一个FC层尤为明显。FC层的每个单元的输出代表了输入图片与类别的相似度。训练之后对于相似人物(如身穿红色与紫色衣服的人)学习到了高度相关的权重向量,如图1所示。第二个原因是CNN训练时很少有正交化约束。其实学习到的权重向量或许就是自然相关的。

[图片上传失败...(image-b29668-1515226349508)]

使用欧几里得距离处理检索问题时FC层的权重向量相关度会影响性能。实际上使用欧几里得距离作为检索的判断时,特征向量中每个个体应该尽可能独立。然而,当权重向量相关时,FC层描述——前面CNN层输出在这些权重向量上的投影——会拥有相关性。这最终会导致一些记录在欧几里得距离中起主要作用,造成不良的排序结果。举例来说,测试时两个不同人物的图片通过网络传输产生如上图1所示的绿色和黑色虚线,然后投影到红色,粉红色,蓝色这几个权重向量来组成描述。投影值在红色与粉色向量上很接近,这使得两个描述表现出相似性,而忽略了它们在蓝色向量上投影的差异。总结来说,要想在欧几里得距离下工作,解决FC描述中的冗余是一个重要的问题。

为了解决这个问题,我们提出了SVD-Net,它的特点是FC层包含不相关的权重向量。我们还提出了一种三步训练框架。在第一步,权重矩阵经过SVD分解,由左酉矩阵和奇异值矩阵的乘积替换。第二步,我们保持正交的权重矩阵固定,只训练余下的层。第三步,权重矩阵不再固定,网络整体优化。这三步迭代进行,来约束权重矩阵的正交性。在大型的re-ID数据集上的结果表现出了在baseline网络上的显著提升,我们的结果也是先进水平。

  1. Related Work

Deep learning for person re-ID:在行人再识别任务上的深度学习方法可以分为两类:相似度学习和表达学习。也被称为深度度量学习,论文[25,24,1,13,5,19]都使用了图片对或者是triplet的网络输入。在两个早期的工作中,Yi等人在[29]和Li等人在[13]中使用了图片对,并且在学习过程中加入了部分的先验知识。之后Varior等人在论文[25]中加入了LSTMs模块。LSTMs连续处理图片部分,所以能够记住空间连接来提升对于深度特征的区分力。[24]中Varior等人在每个卷积层之后插入了一个门限函数来捕获图片对之间有效的精细模式。上面提到的这些方法在一定程度上都能够有效地学习图片相似性,但是或许在大规模的gallery上会有有效性问题。

第二种基于CNN的行人再识别方法关注于特征学习,它将训练样本划分成预定义的类别,并使用FC描述来做检索。在[33,34]中,使用一个CNN分类模型对视频帧或图片标注框进行学习。Xiao等人在论文[26]中从多个re-ID数据集联合学习到通用的特征表达。Zheng等人在[31]中提出了类似于pictorial的PoseBox结构学习姿态不变的特征来解决空间的不对齐。为了结合特征学习与相似度学习的优点,Zheng等人在[35]和Geng等人在[10]中结合了contrastive loss和identification loss来提高对于学习特征的区分能力。我们这篇论文采用了分类模型,在不失有效性潜能的同时表现出了有竞争力的准确率。

PCANet and truncated SVD for CNN:我们澄清了SVDNet与几个“外观相似”的工作之间的区别。PCANet被提出用于图片分类。它的特点是级联的PCA过滤器。PCANet与SVDNet相同的地方是它们都学习正交的投影方向。SVDNet与PCANet在两个主要方面有所不同。首先,SVDNet是在CNN的权重矩阵上施加SVD,PCANet是在原始输入和特征上施加PCA。第二个不同是,PCANet中的滤波器是用无监督方式学习的。它不像SVDNet那种依赖于后向传播。实际上,SVDNet建立了CNN与SVD之间的联系。SVDNet的参数是通过后向传播与使用SVD分解进行学习。

Truncated SVD被广泛应用于CNN模型压缩。SVDNet与它们有两点不同。首先,Truncated SVD用来分解FC层的权重然后用几个重要的向量进行重建,SVDNet不去重建权重矩阵,但是将其替换为左酉矩阵和奇异值矩阵。第二,Truncated SVD在可以接受的预测损失下减少了模型大小和测试时间,但是SVDNet显著的提高了检索准确率,没有对模型大小产生影响。

Orthogonality in the weight matrix:我们注意论文[27]的目的是使CNN滤波器正交化,但是我们的网络不同。在论文[27]中,正交化的正则化效果有益于深层网络的后向传播,从而提高分类准确率。论文[27]中提出的正则化也许并不会直接有益于特征学习过程。但这篇论文中,正交化可以用于产生适用于检索的不相关描述。我们的网络或许不适合提高分类效果。

  1. Proposed Method

这一部分描述了SVDNet的结构,训练方法以及工作机制。

3.1. Architecture

SVDNet往往接在主要网络后,例如CaffeNet和ResNet-50。主要的差别是SVDNet使用Eigenlayer作为倒数第二个FC层,如下图2所示。Eigenlayer包含一个正交的权重矩阵,是一个不包含偏差的线性层。不使用偏差是因为偏差会干扰到学习到的正交性。实际上,我们的初步实验表明了加上ReLU激活层和偏差会对re-ID表现造成损失,所以我们选择使用线性层来实现Eigenlayer。选择将Eigenlayer放在倒数第二个FC层而不是倒数第一个FC层是因为对最后一个FC层施加正则化模型不会收敛,这或许是因为最后一个FC层的权重相关性是由训练样本的分布决定的。训练过程中,来自前面层的特征传递到Eigenlayer层作为输入。它们与Eigenlayer层权重的内积组成输出特征,与最后一个c维度的层形成全连接,这里的c是训练类别的个数。

[图片上传失败...(image-e231a5-1515226349507)]

测试时,我们提取query与gallery图片学习到的嵌入。这一步,我们能够使用Eigenlayer的输入或者输出作为特征表达,如上图2所示。我们的实验表明了这两个特征拥有类似的表现,说明Eigenlayer不仅提高了输出的表现还提高了输入的表现。原因有点不明确,我们认为这来源于CNN的后向传播训练,在此期间,带有Eigenlayer的权重矩阵的正交性会直接影响到输入特征的特性。

3.2.Training SVDNet

训练SVDNet的过程如下图所示。我们首先简要介绍第0步,然后再描述严格和放松的迭代策略(RPI),(第1,2,3步)。

Step 0.我们首先向网络中添加了一个线性层。然后微调网络直到收敛。注意到第0步之后的权重向量还是高度相关的。实验中,我们展示了CNN模型在第0步之后的re-ID表现,将对线性层的各种输出维度进行评估。

[图片上传失败...(image-cae8e1-1515226349507)]

Restraint and Relaxation Iteration(RPI):这是训练SVDNet的关键步骤,包含三步。

·Decorrelation:我们按[图片上传失败...(image-ce34c-1515226349502)] 来施加SVD。这里W是线性层的权重向量,U是左酉矩阵,S是奇异值矩阵,V是右酉矩阵。经过分解,我们将W替换成US。然后线性层使用[图片上传失败...(image-bee30d-1515226349502)] 的所有特征向量作为权重向量并命名为Eigenlayer。

·Restraint:主干网络一直训练直到收敛,但是Eigenlayer层被固定。

·Relaxation:Eigenlayer层不固定,微调继续进行。

经过步骤1和2,权重向量是正交的,但是步骤3是放松训练。W不再是固定状态。所以训练进入另一个关于”restraint and relaxation”的迭代t(t=1,...,T)。

虽然简单,但是这种方法背后的机制很有趣。我们尝试在章节3.3深入研究这种机制。所有涉及到的分析中都是使用在ImageNet上进行预训练的CaffeNet作为主干网络。

3.3 Mechanism Study

Why is SVD employed?我们的想法是在CNN已经学习到的内容上找出一系列正交的投影方向。对于线性层,W空间的一组基是一个可能的解(例如由W列向量组成的线性子空间)。事实上存在了很多的正交基。所以我们决定使用W的奇异向量作为一个新的投影方向并且使用对应的奇异值来加权投影结果。所以我们将[图片上传失败...(image-d89d2f-1515226349502)] 替换成US。经过这一步特征表达在整个样本空间的区分能力会保持不变。数学证明如下:

给出两幅图片<a name="OLE_LINK1"></a>[图片上传失败...(image-7e0c62-1515226349502)] ,我们定义[图片上传失败...(image-4614d0-1515226349502)] 为Eigenlayer层前面对应的特征,[图片上传失败...(image-8cc8-1515226349502)] 分别是Eigenlayer输出的特征。[图片上传失败...(image-7a1852-1515226349501)] 之间的欧几里得距离[图片上传失败...(image-e7a6e3-1515226349501)] 计算如下:

[图片上传失败...(image-49cfe6-1515226349506)]

上式的U,S,V如前面所定义的。因为V是一个单位正交阵,所以等式2又等于:

[图片上传失败...(image-8915d8-1515226349506)]

等式3表明了将[图片上传失败...(image-65e71a-1515226349501)] 替换成US,[图片上传失败...(image-77f4c8-1515226349501)] 还是不变的。因此,算法流程中的第1步使得微调之后的CNN模型的区分能力是百分百保留的。

下面有一些其他的分解方法作为SVD的补充。但是这些方法都没有保留住CNN模型的区分能力。为了证明这一点,我们将SVD与以下几种做对比。

  1. 使用原始的W(定义为Orig)

  2. 将W替换为US(定义为US)

  3. 将W替换成U(定义为U)

  4. 将W替换成[图片上传失败...(image-36c353-1515226349501)] (定义为[图片上传失败...(image-cec18-1515226349501)] )

  5. 将W=QR(Q-R分解)替换成QD,这里的D是从上三角阵中提取的对角阵(定义为QD)

在Market-1501上的对比见下表1.我们将FC层替换成1024维的线性层并微调网络直到收敛(算法1中的第0步)。之后我们使用方法2-5来替代微调后的W。这四种方法都是将W更新为一个正交矩阵,但是表1指出,只有将W替换成US才能保持re-ID的准确率,其他的方法都会使准确率下降。

[图片上传失败...(image-93aeeb-1515226349505)]

When does performance improvement happen?如上证明所示,Alg.1中的第一步将[图片上传失败...(image-4ff2a6-1515226349500)] 替换成US并没有立刻带来准确率提升,但是保证了不变。不仅如此,经过这一步操作,模型偏离了原始的微调结果,训练样本上的loss会在一定范围内增大。但是ALg.1中第二步和第三步会解决这个问题。这两步的主要的效果是提高Eigenlayer输入特征和输出特征的区分能力。一方面,约束步骤学习Eigenlayer层的上游和下游层,它依然保持了正交特性。我们在图5中展示了这一步提高了准确率。另一方面,relaxation步将会使模型再次偏移正交状态,但是会更接近收敛。这一步,如图5所示,表现变差。但是使用RPI,整体的效果会提升。有趣的是教育孩子时,也鼓励一种交替的relaxation和restraint策略。

Correlation diagnosing:目前为止,我们还没有提出一种度量来评估向量相关。实际上,向量间相关度可以使用相关系数来估计。但是据我们所知,它无法评估向量集整体之间的相关度。在这篇论文中,我们提出下面的策略来估计总体相关度。给出一个权重向量:

[图片上传失败...(image-95ceab-1515226349505)]

k是W中权重向量的个数(CaffeNet FC7层的k=4096),[图片上传失败...(image-955fb0-1515226349500)] 是W中的权重向量。给出W,我们定义于运算[图片上传失败...(image-84eda1-1515226349500)] 来度量W所有列向量的相关度:

[图片上传失败...(image-eeaf09-1515226349505)]

从等式5,我们可以看到S(W)的值落在[图片上传失败...(image-4b77f5-1515226349500)] 。当W为正交阵时S(W)的值为1,当所有的权重向量都相同时S(W)获得最小值[图片上传失败...(image-505c9a-1515226349500)] 。所以当S(W)接近[图片上传失败...(image-7ee4e6-1515226349500)] 或者很小时,权重向量有高的相关度。比如,在我们的baseline中直接使用微调后的CaffeNet,[图片上传失败...(image-b1b82-1515226349500)] =0.0072。表明FC7层的权重向量高度相关。我们会在章节4.5中展示,S可以有效地指示SVDNet训练地收敛。

Convergence Criteria for RPI:实际应用中什么时候停止RPI是一个很重要的问题。我们使用等式5来评估经过relaxation步W的正交性,发现随着迭代的进行,S(W)的值增加。这表示W中权重向量的相关度经过RPI一步步减小。所以当S(W)变得稳定时,模型就收敛了,RPI也就结束。详细的如下图5所示。

[图片上传失败...(image-44940a-1515226349505)]

  1. Experiment

4.1.Datasets and Settings

Datasets:这篇论文使用Market-1501,CUHK03,DukeMTMC-reID这3个数据集来评估。Market-1501数据集包含1501个个体,由6个相机捕捉的19732张gallery图片和12936张训练图像组成。所有的标注框由DPM检测器生成。大多数相关实验都是在Market-1501数据集上进行的。CUHK03数据集包含1467个个体的13164张图片。每一个个体都是使用2个相机观察到的。CUHK03同时提出了手动标注的和DPM检测的标注框,在这篇论文中我们使用后者。对CUHK03进行了20次随机的训练测试集划分,最后给出平均结果。DukeMTMC-reID数据集由8个相机捕捉,用于跨相机追踪。我们采用了论文[37]的结果作为re-ID基准。它包含1404个个体(一半用来训练,一半用来测试),16522张训练图片,228张query图片和17661张gallery图片。对于Market-1501与DukeMTMC-reID我们分别使用论文[32]和[37]中提供的评估包。

在三个数据集上我们都使用了CMC与mAP进行表现评估。

Backbones:我们主要使用了两种在ImageNet上预训练的模型作为主干网络,分别是CaffeNet和ResNet-50。在使用CaffeNet时,我们直接将原始的FC7层替换成Eigenlayer,这是为了以免认为效果提升来自于更深的结构。当使用ResNet-50作为主干网络时,我们在最后一个FC层前插入Eigenlayer,因为ResNet没有隐藏的FC层,而且在50层结构中增加一层的影响可以忽略。在Market-1501上的一些实验,我们还使用了VGGNet和Tiny CaffeNet作为主干网络来展示SVDNet在不同结构上的效果。Tiny CaffeNet就是将CaffeNet的FC6层与FC7层的维度分别减小到1024和512。

4.2.Implementation Details

Baseline:下面是论文[33]的操作,baseline使用的是经过微调后的CaffeNet与ResNet-50。使用的都是默认配置,除了最后的FC层输出的维度改为了训练个体数。CaffeNet baseline使用0.001的学习率训练了60个epoch,然后又使用0.0001的学习率训练了20个epoch。ResNet baseline训练了60个epoch。开始的学习率是0.001,在25和50个epoch时减小了10倍。在测试时,CaffeNet的FC6或FC7层与ResNet-50的Pool5层或FC层用作特征表达。

在Market-1501上,CaffeNet和ResNet-50使用FC6(Pool5)达到的rank-1准确率为55.3(73.8%),这与论文[33]中的结果一致。

Detailed setting:使用CaffeNet作为主干的SVDNet通过25个RPI达到最终的收敛。除最后一轮restraint与relaxation外,每一轮RPI我们都使用0.001的学习率迭代了2000次。对于最后的restraint训练我们使用了5000次迭代(学习率为0.001)+3000次迭代(学习率为0.0001)。Batch size设置为64。使用ResNet作为主干网络的SVDNet通过7个RPI达到最终收敛,我们使用了8000次迭代,并在5000轮后将学习率减小10倍。1到3轮RPI的初始学习率为0.001,后面的RPI的的初始学习率为0.0001。Batch size大小设置为32。

所有模型中Eigenlayer的输出维度设置为1024。将在章节4.4中分析超参数的影响。章节4.5会说明为什么使用不同的主干网络时会设置不同的RPI次数。

4.3.Performance Evaluation

The effectiveness of SVDNet:我们在三个re-ID基准上做了测试。整体结果如下表2。

[图片上传失败...(image-a4821a-1515226349504)]

每种主干网络的提升都是显著的:当使用CaffeNet作为主干网络时,在Market-1501上rank-1准确率从55.3%提升到80.5%,mAP从30.4%上升到55.9%。在CUHK03(DukeMTMC-reID)数据集上,rank-1准确率提升了26.3%(20.7%),mAP上升了24.7%(17.5%)。当使用ResNet作为主干网络时,rank-1准确率在Market-1501,CUHK03,DukeMTMC-reID上分别上升了8.4%,15.6%,11.2%。对应的mAP上升了14.2%,13.7%和12.7%。一些Market-1501上的检索例子如下图3。

[图片上传失败...(image-e84378-1515226349504)]

Comparison with state of the art:我们将SVDNet与最先进的方法对比。表3列出了在Market-1501与CUHK03上的比较结果。与目前已经发表的论文相比,SVDNet取得了有竞争力的表现。我们在Market-1501上达到的rank-1=82.3%,mAP=62.1%,在CUHK03上的rank-1=81.8%,mAP=84.8%。论文[38]中的re-ranking方法在Market-1501上的mAP比我们高,因为re-ranking利用了gallery图像之间的关系。我们推测,在re-ranking方法上使用SVDNet也会带来效果提升。与一些未发表的Arxiv论文相比,我们的一些数字比论文[10]和论文[35]稍低。论文[10]和论文[35]都使用了verification与classification loss的结合,我们会进一步将这一策略运用到SVDNet中。

不仅如此,SVDNet在相对简单CNN网络上的表现是惊人的。在Market-1501上,使用CaffeNet作为主干网络的SVDNet达到了80.5%的rank-1与55.9%的mAP,这远远超出了其他基于CaffeNet的方法。另外,使用VGGNet与Tiny CaffeNet作为主干网络分别达到了79.7%与77.4%的rank-1准确率。在CUHK03上,使用CaffeNet作为主干网络的SVDNet甚至超过了一些基于ResNet的方法(除了DLCE(R))。这个现象说明我们的方法可以通过高效计算获得一个可接受的结果。

在表4中,使用论文[38]提出的新的训练/测试策略(称为CUHK03-NP)对DukeMTMC-reID和CUHK03进行了比较总结。因为DukeMTMC和CUHK03-NP最近才成为基准所以只有相对较少的结果。在DukeMTMC-reID上,这篇文章的rank-1=76.7%,mAP=56.8%,这高于一些有竞争力的方法,甚至是最近的GAN。在CUHK03-NP上,这篇文章的rank-1=41.5%,mAP=37.3%,也高于大部分方法。

[图片上传失败...(image-1a3398-1515226349504)]

4.4. Imapact of Output Dimension

我们改变Eigenlayer输出层的维度。图4画出了在CaffeNet和ResNet-50上的结果。

当不使用RPI训练时,这个网络与baseline模型没有本质区别。可以看到倒数第二层的输出维度显著影响了表现。当输出维度增加,re-ID结果先增加,然后到达一个平台期再快速下降。在这种方案中,我们发现使用低维更加有益,可能是因为减少了FC层滤波器的冗余。

[图片上传失败...(image-e5b2df-1515226349504)]

输出维度对SVDNet最终效果的影响还展示了另一种趋势。当输出维度增加,效果会逐渐提升到一个稳定的水平,这表明我们的模型可以对有害的冗余免疫。

4.5.RPI Boosting Procedure

这个实验揭示了每个restraint步与relaxation步如何改变re-ID表现以及SVDNet如何一步步达到一个稳定的结果。在我们的实验中,每个RPI中都使用了25个restraint phase与relaxation phase。Eigenlayer的输出维度设置为2048。我们测试了所有CNN模型的re-ID表现与S(W)的值。我们也增加了baseline模型的训练epoch,使其与SVDNet的训练相同,比较没有RPI训练的模型的S(W)的值。结果如下图5所示,可以由此得出四个结论。

[图片上传失败...(image-552484-1515226349504)]

第一,每次RPI,rank-1正确率有一个“上升和下降”的过程来响应restraint和relaxation步骤:restraint训练时W保持正交性,表现提升,表明学习到的特征的区分能力增加。第二,随着RPI的进行,整体的准确率提升,当模型收敛时达到一个稳定值。第三,使用S(W)来判断正交性作为RPI的收敛条件是很有效的。RPI训练时,S(W)逐渐增加直到达到稳定,没有RPI时,S(W)会在一个相对低的值范围波动,表明了权重向量之间的高度相关。第四,使用ResNet作为主干网络的SVDNet相对CaffeNet的仅需要很少的RPI次数达到收敛。

4.6. Comparison of Decorrelation Methods

在章节3.3中,介绍了一些分解方法。我们证明了只有将W替换成US才能保持Eigenlayer输出特征的区分能力,其他三种方法都只会在一定程度上导致表现下降。这里我们给出使用RPI训练时的最终表现。

Market-1501数据集上的结果如表5所示。可以看到将W替换成US这种分解方法达到了最高的表现,接着就是”U”,”QD”和“[图片上传失败...(image-b365eb-1515226349499)] ”。事实上与原始“Orig”相比,“[图片上传失败...(image-7cfd47-1515226349499)] ”并没有带来可见的提升。这个实验说明了不仅仅是正交本身,分解方法对于SVDNet也很重要。

[图片上传失败...(image-84013e-1515226349503)]

  1. Conclusions

在这篇论文中,提出了SVDNet作为行人检索或ReID的表达学习。在全连接层的权重矩阵的投影方向上施加去相关。通过restraint和relaxation的迭代,向量相关度逐渐下降。在这种策略下,re-ID表现经过反复的增加和降低,最终达到一个稳定水平。由于权重向量之间的关联减小,学习到的特征更适合应用到使用欧几里得距离的检索任务中。在Market-1501,CuHK03和DukeMTMC-reID数据集上都得到了显著的提升,re-ID准确率也接近最先进的表现。

未来我们会进一步研究SVDNet以更多地了解其工作原理。我们也会将SVDNet运用到一般的实例检索问题中。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,835评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,598评论 1 295
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,569评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,159评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,533评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,710评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,923评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,674评论 0 203
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,421评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,622评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,115评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,428评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,114评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,097评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,875评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,753评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,649评论 2 271

推荐阅读更多精彩内容