hadoop2.7.x 都可以使用,在windows环境下运行hadoop、hbase、spark需要winutils.exe,否则会报错Could not locate executable null\bin\winutils.exe in the Hadoop binaries。
2019-12-21 19:34:35 876KB winutils.exe
1
hadoop2.5.0 snappy编译jar包,解压到hadoop native目录下即可
2019-12-21 19:33:50 1.82MB snappy
1
CentOS6.0-Hadoop安装手册,详细介绍centos下hadoop的搭建过程
2019-12-21 19:33:47 3.88MB hadoop
1
linux中搭建spark环境使用的spark-1.6.0-bin-hadoop2.6.tgz安装包
2019-12-21 19:33:03 275.77MB spark 安装包
1
hadoop.dll与winutils.exe 64位windows下使用hadoop2.8必要插件,解压后放在windows/system32下
2019-12-21 19:24:23 82KB hadoop
1
仅针对hadoop2.8.0版本 win7(64位)系统,搭建dadoop环境时所学的hadoop.dll+winutils
2019-12-21 19:21:20 82KB hadoop2.8.0 windows 环境搭建 hadoop.dll
1
用来覆盖hadoop2.7.7里的bin的。先搭建好java环境,再下载hadoop 2.7.7,再解压本文件,覆盖在hadoop2.7.7的bin目录下(其他hadoop版本没试过)
2019-12-21 18:55:58 1.09MB hadoop windows bin
1
解压压缩包,将压缩包下bin目录整个原来的hadoop2.7.5的bin替换即可
2019-12-21 18:53:01 1.1MB 大数据
1
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
2019-12-21 18:52:57 191.63MB spark
1
hadoop2.7.1对应的hadoop.dll,winutils.exe等。亲测,可用! 针对问题: hadoop2.7.1运行Wordcount错误 at java.lang.ProcessBuilder.start(ProcessBuilder.java:1012) Exception in thread "main" java.lang.UnsatisfiedLinkError 解决办法: 1:将文件解压到hadoop的bin目录下 2:将hadoop.dll复制到C:\Window\System32下 3:添加环境变量HADOOP_HOME,指向hadoop目录 4:将%HADOOP_HOME%\bin加入到path里面 5:重启myeclipse或者eclipse
2019-12-21 18:52:11 781KB hadoop2.7.1 hadoop.dll winutils.exe Wordcount
1