一、下载 1.1 下载地址:https://raw.githubusercontent.com/smartloli/kafka-eagle-bin/master/efak-web-3.0.2-bin.tar.gz 二、安装 因为eagle是用java编写的,所以需要提前安装好java环境 2
1、创建topic 使用shell新开一个node001的窗口 命令建议手敲(不仅仅是为了练习代码,重要的是:我复制命令粘贴上去有时候要报错,手敲却没问题,不知道为啥) 终端输入: kafka-topics.sh --bootstrap-server node3:9092 --create --to
Run application locally(本地运行) /usr/local/spark-3.3.0/bin/spark-submit \ --master local[8] \ --class com.zxw.spark.Etl \ /opt/zxw-spark-1.0.jar hdfs://
前提:搭建hadoop集群环境、搭建好spark集群环境 1.新建maven项目 2.导入maven依赖 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0"
一、map map是对RDD中的每个元素都执行一个指定的函数来产生一个新的RDD。 任何原RDD中的元素在新 RDD中都有且只有一个元素与之对应 @Test public void testMap() { SparkConf sparkConf = new SparkConf()