240 发简信
IP属地:黑龙江
  • SparkStreaming之写数据到Kafka

    本文主要记录使用SparkStreaming从Kafka里读取数据,并使用Redis保存Offset,并监听Redis中的某个Key是否存在来停...

  • Spark之HiveSupport连接(spark-shell和IDEA)

    本文介绍了使用Spark连接Hive的两种方式,spark-shell和IDEA远程连接。 1.spark-shell 1.1.拷贝配置文件 拷...

  • Resize,w 360,h 240
    SparkStreaming之使用redis保存Kafka的Offset

    本文主要记录使用SparkStreaming从Kafka里读取数据,并使用Redis保存Offset。 相关文章:1.Spark之PI本地2.S...

  • SpringBoot2.0之CORS跨域配置并保持登录

    本文主要记录了如何使用SpringBoot2.0配置CORS实现跨域,来解决前(Vue)后(SpringBoot)分离中带来的跨域问题。并实现S...

  • Resize,w 360,h 240
    Hadoop之本地运行WordCount

    本文主要记录在windows搭建Hadoop开发环境并编写一个WordCount的mapreduce在本地环境执行。 主要内容: 1.搭建本地环...

  • Resize,w 360,h 240
    Storm+Hbase广告实时统计

    本文主要讲述使用Kafka+Strom+Hbase搭建的一套广告实时计算系统。其中服务器显示使用的是SpringBoot+Vue+Element...

  • Resize,w 360,h 240
    Hadoop集群环境搭建(三台)

    本文讲述的是如何在CentOS 7中搭建Hadoop 2.7.3集群环境,并运行一个wordcount例子 主要内容: 1.集群规划 2.创建用...

  • Resize,w 360,h 240
    SparkStreaming之读取Kafka数据

    本文主要记录使用SparkStreaming从Kafka里读取数据,并计算WordCount 主要内容: 1.本地模式运行SparkStream...

  • Resize,w 360,h 240
    Flume之采集Nginx的日志

    Flume是一种分布式,可靠且可用的服务,用于有效地收集,聚合和移动大量日志数据。 它具有基于流数据流的简单灵活的架构。 它具有可靠的可靠性机制...