# spark-haoop-docker **Repository Path**: wuchenlhy/spark-haoop-docker ## Basic Information - **Project Name**: spark-haoop-docker - **Description**: docker compose 集群部署 spark + Hadoop + jupyterlab - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2022-03-03 - **Last Updated**: 2023-07-07 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README 1、目录说明 ./conf spark和hadooop的配置文件备份 ./data 挂载到镜像的 /data 目录下了 spark-hadoop.yaml docker-compose 配置文件
2、启动 spark Hadoop 集群 目前为master slave1 有需要的可以自己加 slave docker-compose -f spark-hadoop.yaml up -d
web访问地址 可以通过 http://ip:8888 访问 jupyterLab 可以通过 http://ip:8080 访问 spark 可以通过 http://ip:9870 浏览 NameNode 的web页面 可以通过 http://ip:8088 浏览 yarn 的web页面