同步操作将从 supermy/hadoop-docker-nn 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
2016-03-22 alpine for hadoop hbase hive 没有成功的案例;是否有意义.
2015-12-12 测试hdfs ok 配置fair-scheduler.xml; 测试fair 多租户配置ok
2015-12-12 升级完成; 使用翻墙工具,允许全局代理可以更新到最新版本。
2015-12-09
升级
解决/apt/https 错误
RUN DEBIAN_FRONTEND=noninteractive apt-get install -y apt-transport-https openssl
2015-04-10 千万数据载入45秒。
2015-04-08 todo:增加dns启动镜像版本:域名到dns解析 探索最佳的数据加载方式
2015-04-06 镜像名称规范化; lzo配置优化; snappy+spark安装包引入; 镜像包的集成关系优化。 优化测试完成。
2015-03-13 hive-hbase整合 ok hive 脚本数据初始化示例 ok。 hbase 脚本数据初始化示例 ok。 初始化环境:docker-enter 进入 hregionserver容器:cd /home/jamesmo/ && start pre-start-hive.sh
2015-03-30 hbse集群ok >fig up -d >boot2docker ssh >docker ps >docker-enter 123412341234 >hbase shell >version >status
https://issues.apache.org/jira/browse/HADOOP-10558
节点在zookeeper注册的是主机名,调试的时候要把host文件加上节点信息例如 192.168.159.2 master master
设定docker容器的hostname
**约定名称与变量替换混用**
**最终,约定名称使用;link不支持循环调用**
2015-03-05 hbase的集群配置进行中; web测试:http://192.168.2.100:60010/master.jsp /etc/init.d/hbase-master start hbase shell >status >version
重新build image;
web访问ok
http://192.168.59.103:50070/
http://192.168.59.103:60010/
http://192.168.59.103:60030/
2015-02-16 hadoop启动时候core-site.xml进行了处理; 完成了hadoop的集群处理; hbase的集群配置中;
测试说明: 2.1使用fig up -d 启动集群 2.2安装容器工具,进入namenode容器 docker run -v /usr/local/bin:/target jpetazzo/nsenter:latest docker ps -a|grep namenode docker-enter b58bc02af904 2.3运行指令 su hdfs hdfs dfs -mkdir -p hdfs://172.17.1.36:8020/user/hdfs/input hdfs dfs -put core-site.xml hdfs://172.17.1.36:8020/user/hdfs/input hdfs dfs -ls hdfs://172.17.1.36:8020/user/hdfs/input hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar grep input output 'dfs[a-z.]+'
nc -v -z -w2 172.17.1.36 8020
nc -v -z -w2 hdfsnamenoderpc.kubernetes.local 8020
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。