kubernetes学习笔记

docker实现了更便捷的单机容器虚拟化的管理, docker的位置处于操作系统层与应用层之间;

  • 相对传统虚拟化(KVM,XEN):

    docker可以更加灵活的去实现一些应用层功能, 同时对资源的利用率也更高

  • 相对应用:

    docker可以把应用更操作系统(镜像)做更好的结合, 降低部署与维护的的成本

处于这样一个位置在单机使用docker进行业务部署是可以感觉到质的提升; 但是针对跨机器, 大规模, 需要对业务质量进行保证的时候, docker本身又有些不足, 而传统的运维自动化工具无论是在docker内部部署还是用来管理docker都显得有些不伦不类.

Kubernetes则实现了大规模,分布式, 并且确保高可用的docker集群的管理.

1: 理解Kubernets

理念:

可以把kuberntes理解为容器级别的自动化运维工具, 之前的针对操作系统(linux, windows)的自动化运维工具比如puppet, saltstack, chef所做的工作是确保代码状态的正确, 配置文件状态的正确, 进程状态的正确, 本质是状态本身的维护; 而kubernetes实际上也是状态的维护, 只不过是容器级别的状态维护; 不过kubernetes在容器级别要做到不仅仅状态的维护, 还需要docker跨机器之间通信的问题.

相关概念

  • 1: pod

  • pod是容器的集合, 每个pod可以包含一个或者多个容器; 为了便于管理一般情况下同一个pod里运行相同业务的容器

  • 同一个pod的容器共享相同的系统栈(网络,存储)

  • 同一个pod只能运行在同一个机器上

  • 2: Replicateion controller

  • 由于这个名字实在是太长了, 以下均用rc代替(kubernetes也知道这个名字比较长, 也是用rc代替)

  • rc是管理pod的, rc负责集群中在任何时候都有一定数量的pod在运行, 多了自动杀, 少了自动加;

  • rc会用预先定义好的pod模版来创建pod; 创建成功后正在运行的pod实例不会随着模版的改变而改变;

  • rc通过SELECTOR(一种系统label)与pod对应起来

  • 当rc中定义的pod数量改变是, rc会自动是运行中的pod数量与定义的数量一致

  • rc还有一种神奇的机制:

    • rolling updates; 比如现在某个服务有5个正在运行的pod, 现在pod本身的业务要更新了, 可以以逐个替换的机制来实现整个rc的更新
  • 3: service

  • services即服务, 真正提供服务的接口,将pod提供的服务暴力到外网, 每个服务后端可以有一个或者多个pod

  • 4: lable

  • label就是标签, kubernetes在pod, service, rc上打了很多个标签(K/V形式的键值对); lable的存储在etcd(一个分布式的高性能,持久化缓存)中; kubernetes用etcd一下子解决了传统服务中的服务之间通信(消息服务)与数据存储(数据库)的问题
架构实现

整个架构大体分为控制节点和计算节点; 控制节点发命令, 计算节点干活.

架构图

首先试图从图本身试图对架构做一些理解

  • 1: 真正提供服务的是node(计算节点), 计算节点的服务通过proxy,在通过防火墙后出去
  • 2: 控制节点和计算节点通过REST的API通信
  • 3: 用户的命令需要授权后调用服务端的API发送到系统
  • 4: 计算节点主要进程为kubelet与proxy
  • 5: 控制节点负责调度, 状态维护

2: Kubernetes部署

主机环境

  • 192.168.56.110
    • etcd
    • kubernetes master
  • 192.168.56.111
    • etcd
    • kubernetes master
  • 192.168.56.112
    • kubernetes master
      操作系统: centos7

110和111部署etcd, 110作为kubenetes的控制节点, 111和112作为计算节点

环境准备:

  • 安装epel源:
    <pre>
    yum install epel-release
    </pre>
  • 关闭防火墙
    <pre>
    systemctl stop firewalld
    systemctl disable firewalld
    </pre>
1: etcd

etcd是一个分布式, 高性能, 高可用的键值存储系统,由CoreOS开发并维护的,灵感来自于 ZooKeeper 和 Doozer,它使用Go语言编写,并通过Raft一致性算法处理日志复制以保证强一致性。

  • 简单: curl可访问的用户的API(HTTP+JSON)

  • 安全: 可选的SSL客户端证书认证

  • 快速: 单实例每秒 1000 次写操作

  • 可靠: 使用Raft保证一致性

  • 1: 安装包:
    <pre>
    yum install etcd -y
    </pre>

  • 2: 编辑配置: /etc/etcd/etcd.conf

    <pre>
    # [member]
    ETCD_NAME=192.168.56.110 #member节点名字 要与后面的ETCD_INITIAL_CLUSTER对应
    ETCD_DATA_DIR="/var/lib/etcd/default.etcd" #数据存储目录
    #ETCD_SNAPSHOT_COUNTER="10000"
    #ETCD_HEARTBEAT_INTERVAL="100"
    #ETCD_ELECTION_TIMEOUT="1000"
    ETCD_LISTEN_PEER_URLS="http://192.168.56.110:2380" #集群同步地址与端口
    ETCD_LISTEN_CLIENT_URLS="http://192.168.56.110:4001" #client通信端口
    #ETCD_MAX_SNAPSHOTS="5"
    #ETCD_MAX_WALS="5"
    #ETCD_CORS=""
    #
    #[cluster]
    ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.56.110:2380" #peer初始化广播端口
    ETCD_INITIAL_CLUSTER="192.168.56.110=http://192.168.56.110:2380,192.168.56.111=http:// 192.168.56.111:2380" #集群成员, 格式: $节点名字=$节点同步端口 节点之前用","隔开
    ETCD_INITIAL_CLUSTER_STATE="new" #初始化状态, 初始化之后会变为existing
    ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster" #集群名字
    ETCD_ADVERTISE_CLIENT_URLS="http://192.168.56.110:4001" #client广播端口
    #ETCD_DISCOVERY=""
    #ETCD_DISCOVERY_SRV=""
    #ETCD_DISCOVERY_FALLBACK="proxy"
    #ETCD_DISCOVERY_PROXY=""
    #
    #[proxy]
    #ETCD_PROXY="off"
    #
    #[security]
    #ETCD_CA_FILE=""
    #ETCD_CERT_FILE=""
    #ETCD_KEY_FILE=""
    #ETCD_PEER_CA_FILE=""
    #ETCD_PEER_CERT_FILE=""
    #ETCD_PEER_KEY_FILE=""
    </pre>
    除ETCD_INITIAL_CLUSTER项目所有节点保持一致外, 其他配置中的IP均为本机IP
    etcd的配置文件不支持每行后面加注释 哈哈, 所以在实际配置过程中需要把每行#后面的注释删掉

  • 3: 启动服务
    <pre>
    systemctl enable etcd
    systemctl start etcd
    </pre>

  • 4: 验证
    <pre>

    etcdctl member list

    dial tcp 127.0.0.1:2379: connection refused

    etcd默认连接127.0.0.1的2379端口, 而咱们配置的是192.168.56.110的4001端口

    etcdctl -C 192.168.56.110:4001 member list

    no endpoints available

    如果依然出现了上面的问题, 查看服务是否启动

    netstat -lnp | grep etcd

    tcp 0 0 192.168.56.110:4001 0.0.0.0:* LISTEN 18869/etcd
    tcp 0 0 192.168.56.110:2380 0.0.0.0:* LISTEN 18869/etcd #然后查看端口是否畅通
    telnet 192.168.56.111 4001
    Trying 192.168.56.111...
    Connected to 192.168.56.111.
    Escape character is '^]'.
    ^C

    etcdctl -C 192.168.56.110:4001 member list

    10f1c239a15ba875: name=192.168.56.110 peerURLs=http://192.168.56.110:2380 clientURLs=http://192.168.56.110:4001
    f7132cc88f7a39fa: name=192.168.56.111 peerURLs=http://192.168.56.111:2380 clientURLs=http://192.168.56.111:4001 </pre>

  • 5: 准备
    <pre>
    #etcdctl -C 192.168.56.110:4001 mk /coreos.com/network/config '{"Network":"10.0.0.0/16"}'
    {"Network":"10.0.0.0/16"}
    # etcdctl -C 192.168.56.110:4001 get /coreos.com/network/config
    {"Network":"10.0.0.0/16"} </pre>
    该配置后面的kubenetes会用到

2: kubenetes
  • 1: 控制节点安装

    • 1: 包安装
      <pre>
      yum -y install kubernetes
      </pre>

    • 2: 配置文件: /etc/kubernetes/apiserver
      <pre>
      ###
      # kubernetes system config
      #
      # The following values are used to configure the kube-apiserver
      #

      # The address on the local server to listen to.
      KUBE_API_ADDRESS="--address=0.0.0.0"

      # The port on the local server to listen on.
      KUBE_API_PORT="--port=8080"

      # Port minions listen on
      KUBELET_PORT="--kubelet_port=10250"

      # Comma separated list of nodes in the etcd cluster
      #KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:4001"
      KUBE_ETCD_SERVERS="--etcd_servers=http://192.168.56.110:4001,http://192.168.56.111:4001"
      # 修改为咱们配置的etcd服务

      # Address range to use for services
      KUBE_SERVICE_ADDRESSES="--portal_net=192.168.56.150/28"
      # 外网网段, kubenetes通过改网络把服务暴露出去

      # default admission control policies
      KUBE_ADMISSION_CONTROL="--admission_control=NamespaceAutoProvision,LimitRanger,ResourceQuota"
      # Add your own!
      KUBE_API_ARGS=""
      </pre>
      kubenetse的配置文件不支持每行后面加注释, 实际生产中需要将每行后面的解释删掉

    • 3: 启动服务

      API的启动脚本有问题
      /usr/lib/systemd/system/kube-apiserver.service
      <pre>
      [Unit]
      Description=Kubernetes API Server
      Documentation=https://github.com/GoogleCloudPlatform/kubernetes

      [Service]
      PermissionsStartOnly=true
      ExecStartPre=-/usr/bin/mkdir /var/run/kubernetes
      ExecStartPre=-/usr/bin/chown -R kube:kube /var/run/kubernetes/
      EnvironmentFile=-/etc/kubernetes/config
      EnvironmentFile=-/etc/kubernetes/apiserver
      User=kube
      ExecStart=/usr/bin/kube-apiserver
      $KUBE_LOGTOSTDERR
      $KUBE_LOG_LEVEL
      $KUBE_ETCD_SERVERS
      $KUBE_API_ADDRESS
      $KUBE_API_PORT
      $KUBELET_PORT
      $KUBE_ALLOW_PRIV
      $KUBE_SERVICE_ADDRESSES
      $KUBE_ADMISSION_CONTROL
      $KUBE_API_ARGS
      Restart=on-failure
      LimitNOFILE=65536

      [Install]
      WantedBy=multi-user.target
      </pre>
      启动服务
      <pre>
      systemctl enable kube-apiserver kube-controller-manager kube-scheduler
      systemctl restart kube-apiserver kube-controller-manager kube-scheduler </pre>

    • 4: 验证
      <pre>

      ps aux | grep kube

      kube 20505 5.4 1.6 45812 30808 ? Ssl 22:05 0:07 /usr/bin/kube-apiserver --logtostderr=true --v=0 --etcd_servers=http://192.168.56.110:2380,http://192.168.56.110:2380 --address=0.0.0.0 --allow_privileged=false --portal_net=192.168.56.0/24 --admission_control=NamespaceAutoProvision,LimitRanger,ResourceQuota
      kube 20522 1.8 0.6 24036 12064 ? Ssl 22:05 0:02 /usr/bin/kube-controller-manager --logtostderr=true --v=0 --machines=127.0.0.1 --master=http://127.0.0.1:8080
      kube 20539 1.3 0.4 17420 8760 ? Ssl 22:05 0:01 /usr/bin/kube-scheduler --logtostderr=true --v=0 --master=http://127.0.0.1:8080

      kubectl cluster-info

      Kubernetes master is running at http://localhost:8080
      </pre>

  • 2: 计算节点安装

    • 1: 包安装
      <pre>
      yum -y install kubernetes docker flannel bridge-utils net-tools
      </pre>

    • 2: 配置文件

      • /etc/kubernetes/config
        <pre>
        ###
        # kubernetes system config
        #
        # The following values are used to configure various aspects of all
        # kubernetes services, including
        #
        # kube-apiserver.service
        # kube-controller-manager.service
        # kube-scheduler.service
        # kubelet.service
        # kube-proxy.service
        # logging to stderr means we get it in the systemd journal
        KUBE_LOGTOSTDERR="--logtostderr=true"
        # journal message level, 0 is debug
        KUBE_LOG_LEVEL="--v=0"
        # Should this cluster be allowed to run privileged docker containers
        KUBE_ALLOW_PRIV="--allow_privileged=false"
        # How the controller-manager, scheduler, and proxy find the apiserver
        KUBE_MASTER="--master=http://192.168.56.110:8080" #将改IP改为控制节点IP
        </pre>
      • /etc/kubernetes/kubelet
        <pre>
        ###
        # kubernetes kubelet (minion) config
        # The address for the info server to serve on (set to 0.0.0.0 or "" for all interfaces)
        KUBELET_ADDRESS="--address=192.168.56.111" #本机地址
        # The port for the info server to serve on
        KUBELET_PORT="--port=10250"
        # You may leave this blank to use the actual hostname
        KUBELET_HOSTNAME="--hostname_override=192.168.56.111" #本机地址
        # location of the api-server
        KUBELET_API_SERVER="--api_servers=http://192.168.56.110:8080" #控制节点地址
        # Add your own!
        KUBELET_ARGS="--pod-infra-container-image=docker.io/kubernetes/pause:latest"
        #kubenet服务的启动需要依赖以pause这个镜像, 默认kubenet会从google镜像服务下载, 而由于***原因, 下载不成功, 这里我们指定为的docker的镜像
        #镜像下载: docker pull docker.io/kubernetes/pause
        </pre>
      • /etc/sysconfig/flanneld
        <pre>
        # Flanneld configuration options
        # etcd url location. Point this to the server where etcd runs
        FLANNEL_ETCD="http://192.168.56.110:4001,http://192.168.56.111:4001" #修改为etcd服务地址
        # etcd config key. This is the configuration key that flannel queries
        # For address range assignment
        FLANNEL_ETCD_KEY="/coreos.com/network"
        # Any additional options that you want to pass
        #FLANNEL_OPTIONS=""
        </pre>
    • 3: 服务修改

      kubernetes的默认服务启动有问题, 需要做写调整

      cat /usr/lib/systemd/system/kubelet.service
      <pre>
      [Unit]
      Description=Kubernetes Kubelet Server
      Documentation=https://github.com/GoogleCloudPlatform/kubernetes
      After=docker.service
      Requires=docker.service

      [Service]
      WorkingDirectory=/var/lib/kubelet
      EnvironmentFile=-/etc/kubernetes/config
      EnvironmentFile=-/etc/kubernetes/kubelet
      ExecStart=/usr/bin/kubelet
      $KUBE_LOGTOSTDERR
      $KUBE_LOG_LEVEL
      $KUBELET_API_SERVER
      $KUBELET_ADDRESS
      $KUBELET_PORT
      $KUBELET_HOSTNAME
      $KUBE_ALLOW_PRIV
      $KUBELET_ARGS
      LimitNOFILE=65535
      LimitNPROC=10240
      Restart=on-failure

      [Install]
      WantedBy=multi-user.target
      </pre>
      调整docker网络
      <pre>
      systemctl start docker
      systemctl stop docker
      ifconfig docker0 down
      brctl delbr docker0
      </pre>

      启动服务
      <pre>
      systemctl enable kube-proxy kubelet flanneld docker
      systemctl restart kube-proxy kubelet flanneld docker
      </pre>

    • 验证
      <pre>
      # kubectl get nodes
      NAME LABELS STATUS
      192.168.56.111 kubernetes.io/hostname=192.168.56.111 Ready
      192.168.56.112 kubernetes.io/hostname=192.168.56.112 Ready
      </pre>

3: Kubernetes使用

3.1 基本应用

kubenetes的管理实际上就是针对pod, rc, services的管理, 命令行针对kubenetes的管理建议基于配置文件进行, 这样更便于管理, 也更规范
<pre>
kubectl create -h
Create a resource by filename or stdin.
JSON and YAML formats are accepted.
Usage:
kubectl create -f FILENAME [flags]
Examples:
// Create a pod using the data in pod.json.
$ kubectl create -f pod.json
// Create a pod based on the JSON passed into stdin.
$ cat pod.json | kubectl create -f -
</pre>

  • 格式规范:
    <pre>
    apiVersion: v1beta3 #API版本, 要在 kubectl api-versions
    kind: ReplicationController #Pod, ReplicationController, Service
    metadata: #元数据, 主要是name与label
    name: test
    spec: #配置, 根据不同的kind, 具体配置项会有所不同
    ***
    </pre>
    kubenetes支持yaml或者json的文件输入, json的用API来处理的时候比较方便, yaml对人更友好一些, 以下用yaml格式.

    一个典型的业务大概架构类似这样:
    <pre>
    +-----------+
    | |
    | logic | #逻辑处理服务
    | |
    +---+--+----+
    | |
    +----+ +----+
    | |
    | |
    +----v-----+ +----v----+
    | | | |
    | DB | | redis | #调用其他服务
    | | | |
    +----------+ +---------+
    </pre>

思路: 每个pod内提供一组完整的服务

  • 1: 准备镜像

    • postgres: 数据库镜像
    • redis: 缓存服务镜像
    • wechat: 微信服务镜像
  • 2: rc配置wechat-rc.yaml:
    <pre>
    apiVersion: v1beta3
    kind: ReplicationController
    metadata:
    name: wechatv4
    labels:
    name: wechatv4
    spec:
    replicas: 1
    selector:
    name: wechatv4
    template:
    metadata:
    labels:
    name: wechatv4
    spec:
    containers:
    - name: redis
    image: redis
    ports:
    - containerPort: 6379
    - name: postgres
    image: opslib/wechat_db
    ports:
    - containerPort: 5432
    - name: wechat
    image: opslib/wechat1
    ports:
    - containerPort: 80
    </pre>
    导入rc
    <pre>
    # kubectl create -f wechat-rc.yaml
    replicationcontrollers/wechat
    </pre>
    确认
    <img src="./getpods.png" width=800>
    :
    在docker中可以利用link功能将容器之间连接起来, 而在kubenetes中是没有这样的系统的, 但是由于同一个pod内是共享网络存储相关空间的,在wechat的镜像中的配置文件中, 连接数据库和redis的配置项中的IP可以直接写'127.0.0.1', 类似这样:
    <pre>
    sql_connection='postgresql://wechat:wechatpassword@127.0.0.1/wechat'
    cached_backend='redis://127.0.0.1:6379/0'
    </pre>

  • 3: 服务配置wechat-service.yaml
    <pre>
    apiVersion: v1beta3
    kind: Service
    metadata:
    name: wechat
    labels:
    name: wechat
    spec:
    ports:
    - port: 80
    selector:
    name: wechatv4
    </pre>
    导入
    <pre>
    # kubectl create -f wechat-service.yaml
    services/wechat
    </pre>
    查看
    <pre>
    kubectl get service wechat
    NAME LABELS SELECTOR IP(S) PORT(S)
    wechat name=wechat name=wechatv4 192.168.56.156 80/TCP
    </pre>
    确认
    <pre>
    # curl -i http://192.168.56.156
    HTTP/1.1 200 OK
    Content-Length: 0
    Access-Control-Allow-Headers: X-Auth-Token, Content-type
    Server: TornadoServer/4.2
    Etag: "da39a3ee5e6b4b0d3255bfef95601890afd80709"
    Date: Mon, 06 Jul 2015 09:04:49 GMT
    Access-Control-Allow-Origin: *
    Access-Control-Allow-Methods: GET, POST, PUT, DELETE
    Content-Type: application/json
    </pre>

3.2 业务更新

基本的业务部署完成后, 在服务要更新的时候, kubenetes可以利用滚动更新,基本上实现了业务的热更新.
<pre>

kubectl rolling-update wechatv3 -f wechatv3.yaml

Creating wechatv4
At beginning of loop: wechatv3 replicas: 0, wechatv4 replicas: 1
Updating wechatv3 replicas: 0, wechatv4 replicas: 1
At end of loop: wechatv3 replicas: 0, wechatv4 replicas: 1
Update succeeded. Deleting wechatv3
wechatv4
</pre>

3.3 应用管理

当需要同一服务需要启动多个实例, 服务本身一样, 但是启动服务的配置不一样时候
一般我们可能会有3种需求:

  • 1: 不同的container设置不同的资源权限
  • 2: 不同的container挂载不同的目录
  • 3: 不同的container执行不同的启动命令

可以在配置文件中针对不同的container设置不同的设置.
<pre>
apiVersion: v1beta3
kind: ReplicationController
metadata:
name: new
labels:
name: new
spec:
replicas: 1
selector:
name: new
template:
metadata:
labels:
name: new
spec:
containers:
- name: redis
image: redis
ports:
- containerPort: 6379
- name: postgres
image: opslib/wechat_db
ports:
- containerPort: 5432
- name: wechat
image: opslib/wechat1
command: #container的启动命令有外部定义
- '/bin/bash'
- '-c'
- '/usr/bin/wechat_api'
- '--config=/etc/wechat/wechat.conf'
resources: #限制container的资源
request: #请求的资源
cpu: "0.5"
memory: "512Mi"
limits: #最大可以使用的资源
cpu: "1"
memory: "1024Mi"
ports:
- containerPort: 80
volumeMounts: #挂载目录
- name: data
mountPath: /data
volumes:
- name: data
</pre>

参考文章:
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,198评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,663评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,985评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,673评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,994评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,399评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,717评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,407评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,112评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,371评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,891评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,255评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,881评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,010评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,764评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,412评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,299评论 2 260

推荐阅读更多精彩内容