SparkStreaming累加计算单词出现的频率

SparkStreaming累加计算单词出现的频率,第1张

SparkStreaming累加计算单词出现的频率 SparkStreaming累加计算单词出现的频率

一.需求分析
二,实验环境
三,思路分析
四,编程思想
五.遇见的问题

一.需求分析

服务器中不断产生的数据,通过sparkstreaming的客户端统计服务器端不断产生的相同数据,即就是累计服务器中相同数据出现次数。

二,实验环境

centos7+nc+Spark-2.4.8+windows+idea

三,思路分析

思路:以windows 为客户端,在idea中编写对服务端要统计累加求和的方法,以centos7的Linux为客户端,内存作为数据的产生端,启动nc -l -p 666(链接的端口号)并向Linux中输入自己的数据,
原因:每次客户端程处理服务器端数据银行,会将其结果缓存到检查点中,下一次客户端读入数据并处理数据时回去检查点进行key 值进行查询更新,并且将结果重新更新到检查点,检查点:本质上就是对应的HDFS上的一个目录,将数据写入到该目录以文件的形式将结果保存下来,所以需要先在HDFS上创建检查点对应的目录hdfs dfs -mkdir /spark

四,编程思想

实验步骤:
1.启动idea,编写客户端处理程序:

package com.pmany.Test

import org.apache.spark.SparkConf
import org.apache.spark.storage.StorageLevel
import org.apache.spark.streaming.{Seconds, StreamingContext}

object SparkStreaming2 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("Sparksreaming").setMaster("local[2]")
    val sc = new StreamingContext(conf, Seconds(3))
    //检查点的位置
    sc.checkpoint("hdfs://niit01:9000/spark/checkpoint")
    val v1= sc.socketTextStream("niit01", 7777, StorageLevel.MEMORY_AND_DISK_SER)
    val v2 = v1.flatMap(_.split(" "))

    //累计求和
    val addfun=(currValues:Seq[Int],prevValueState:Option[Int])=>{
    val sum = currValues.sum
    val i = prevValueState.getOrElse(0)
    Some(sum+i)
  }
    val pairs = v2.map(word => (word, 1))
    val v3 = pairs.updateStateByKey(addfun)
    v3.print()
    sc.start()
    sc.awaitTermination()
  }

}

2.运行Iidea客户端的程序,
3.启动Linux,启动nc nc -l -p 6666 '如果没有安装nc :yum install -y nc并且向里面输入数据,一条数据就要执行一次回车:


4,客户端控制台的运行结果:


5.查看检查点数据:

五.遇见的问题

1.链接出错:没有启动 hdfs:start-all.sh或者start-yarn.sh

2.hdfs 处于安全模式;在Hadoop目录关闭安全模式就行bin/hadoop dfsadmin -safemode leave

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5573417.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-14
下一篇 2022-12-14

发表评论

登录后才能评论

评论列表(0条)

保存