自己找的,超好用CSV切割器,工具挺好的,如有侵权联系作者处理,大文件切割,下载解压后打开Data.olllo.exe脚本,选择内核 P内核
2022-12-06 16:11:04 59.8MB hadoop csv 大数据 数据分析
1
手把手教你搭建Hadoop云计算平台,这里有搭建hadoop集群详细步骤!
2022-12-05 16:44:41 924KB 大数据 hadoop 集群搭建
1
NCDC天气数据集Hadoop MapReduce猪蜂巢 国家气候数据中心(NCDC)是世界上最大的实时气象数据存档。 我下载了1930年的NCDC数据并将其加载到HDFS系统中。 我实现了MapReduce程序和Pig,Hove脚本,以找到不同站点的Min,Max,avg温度。 编译了Java文件:javac -classpath /home/student3/hadoop-common-2.6.1.jar:/home/student3/hadoop-mapreduce-client-core-2.6.1.jar:/home/student3/commons-cli -2.0.jar -d MaxTemperature.java MaxTemperatureMapper.java MaxTemperatureReducer.java 创建了JAR文件:jar -cvf hadoop-
2022-12-03 21:57:08 46KB Java
1
云计算技术及应用实践
2022-12-03 14:19:11 751KB 云计算 计算技术 应用实践
1
内含交通数据和日志数据
2022-12-03 11:22:52 93.9MB Hadoop ubuntu
1
hadoop source code源代码归档
2022-12-03 11:22:52 193.13MB hadoop
1
自述文件 该项目基于Hadoop和Hive。 如果您尚未设置它们,请参考以下说明: & 。 您可以从下载我们的测试数据。 README.txt具有有关其数据属性的非常详细的说明。 在wirteup中也有描述。 请将给定数据集中的::替换为 (这是一个标签)。 只要使其更容易处理即可。 请将目录更改为刚刚下载的数据文件。 对我来说是$cd ~/ml-1m 请启动hadoop,这是Hive运行的先决条件。 输入命令$hive -f extract.q 。 将出现目录“结果”。 它存储我们要使用的数据。 我们已经在源文件中提供了这样提取的数据,称为new_data.txt 。 在HDFS上创建文件夹,我们将数据放入文件夹: $ hadoop fs -makedir /hadoop 将数据放在HDFS上: $ hadoop -fs copyFromLocal /directory of
2022-12-02 20:42:13 84.58MB Java
1
Hadoop平台的性能优化研究从cnki上下的资料Hadoop平台的性能优化研究Hadoop平台的性能优化研究Hadoop平台的性能优化研究Hadoop平台的性能优化研究Hadoop平台的性能优化研究Hadoop平台的性能优化研究
2022-12-02 19:13:40 968KB Hadoop论文
1
基于伪分布式的文件上传,里面有java代码上传文件!
2022-12-02 01:18:19 1.29MB hadoop
1
本系统主要设计完成两件工作,一是搭建分布式的hadoop的集群环境,二是基于分布式的集群环境做日志分析。详细介绍参考:https://blog.csdn.net/newlw/article/details/127332767
2022-11-30 14:25:46 1.25MB hadoop hive 数据处理 电影数据分析