# hadoop **Repository Path**: MK-14/hadoop ## Basic Information - **Project Name**: hadoop - **Description**: 大数据仓库linux环境搭建 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2022-03-30 - **Last Updated**: 2022-03-30 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # flink-docker-compose Hadoop /hive/kafka/mysql flink-job 是将接收器写入 mysql 的任务 ## 下载各个版本的源码包 ```shell ./download.sh all ``` ## ENV 可以通过修改.env文件来修改一些环境变量参数 ### kafka-network 因为内网和外网配置为两个网络。所以kafka的网络可以直接链接到你本地的Flink进行本地开发。(但您需要将主机添加到本地) ```shell echo "127.0.0.1 kafka1 kafka2 kafka3 kafka4" >> /etc/hosts ``` ## 安装 ``` docker-compose up ```