hadoop-2.6.4.tar.gzhadoop-2.6.4.tar.gzhadoop-2.6.4.tar.gzhadoop-2.6.4.tar.gzhadoop-2.6.4.tar.gz
2019-12-21 21:42:10 186.94MB hadoop2.6.4
1
实验手册:搜狗搜索日志分析系统实现-Hadoop2.0-v1.2-noted
2019-12-21 21:38:30 896KB hadoop 搜狗搜索日志
1
hadoop2.6.5对应hadoop.dll、winutils.exe(包含32与64位完整版)
2019-12-21 21:32:08 186KB winutils hadoop 2.6.5
1
hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4hadoop2.7.4
2019-12-21 21:29:09 44.73MB hadoop
1
hadoop2 lzo 文件 ,编译好的64位 hadoop-lzo-0.4.20.jar 文件 ,在mac 系统下编译的,用法:解压后把hadoop-lzo-0.4.20.jar 放到你的hadoop 安装路径下的lib 下,把里面lib/Mac_OS_X-x86_64-64 下的所有文件 拷到 hadoop 安装路径下的lib/native ,再把core-site.xml 增加 io.compression.codecs org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,com.hadoop.compression.lzo.LzoCodec,org.apache.hadoop.io.compress.BZip2Codec io.compression.codec.lzo.class com.hadoop.compression.lzo.LzoCodec 看看hadoop jar /path/to/your/hadoop-lzo.jar com.hadoop.compression.lzo.LzoIndexer big_file.lzo 行不行,不行的话,重启一下hadoop 集群
2019-12-21 21:13:33 2.72MB hadoop2 lzo mac osx
1
自己编译的,亲测在windows 10 64位系统下,Hadoop 2.7.6可用,
2019-12-21 20:54:46 1.2MB winutils
1
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
2019-12-21 20:53:23 219.33MB spark hadoop
1
根据官网maven结构源码自动生成zip源码包,请放心使用
2019-12-21 20:51:22 9.3MB hadoop源码包
1
Hadoop在访问本地文件和hdfs文件系统时,需要使用本地库,本地库中使用了Windows的API来实现类posix的文件访问许可。而这个本地库的实现就是Hadoop.dll和winutils.exe 编译环境: hadoop2.7.7 - hadoop3.1.1 JDK1.7.0_80/JDK1.8.0_181 C# Compiler version 4.7.3062.0 maven 3.6.0 ProtocolBuffer 2.5.0 CMake 3.13.2 VS2010 mingw-w64 x86_64 8.1.0 请加星支持一下: https://github.com/caidaol/hadoopbuild
2019-12-21 20:49:56 531KB hadoop win64
1
配合eclipse 3.7.2(eclipse-jee-indigo-SR2-linux-gtk-x86_64.tar.gz),hadoop 2.7.1使用的插件
2019-12-21 20:25:27 32.16MB hadoop2.7.1 linux eclipse
1