HDFS配置、启动与验证 HDFS配置、启动与验证 序号 任务名称 任务一 Hadoop安装及JDK环境变量配置 任务二 HDFS组件参数配置 任务三 配置Hadoop环境变量 任务四 分发Hadoop文件 任务五 NameNode格式化 任务六 启动HDFS集群 任务七 验证HDFS集群 任务一 Hadoop安装及JDK环境变量配置 所有节点,使用 root 用户登录,修改 /opt 的权限 # chmod 777 /opt --修改 /opt 文件夹的权限,使得 hadoop用户可读写 主节点使用 hadoop 用户登录 [root@master ~]# su – hadoop --从root用户切换为hadoop身份 通过 SecureCRT 软件上传 Hadoop安装文件到 /opt 目录,再由hadoop用户解压 [hadoop@master ~]$ cd /opt [hadoop@master opt]$ tar –zxvf hadoop-2.8.5.tar.gz 配置JDK环境变量,修改 hadoop解压缩后 etc 目录下的 hadoop-env.sh、mapred-e
2022-06-20 18:08:06 398KB Hadoop 大数据
hadoop3.x的Windows依赖, 使用IDEA并创建Maven工程之后,导入该文件中pom文件即可完成配置,同时该资源内置了可以直接使用的pom文件
2022-06-20 18:07:50 889KB hadoop
1
林子雨大数据原理与技术第三版实验5实验报告 大数据技术与原理实验报告 MapReduce 初级编程实践 姓名: 实验环境:  操作系统:Linux(建议Ubuntu16.04);  Hadoop版本:3.2.2; 实验内容与完成情况: (一)编程实现文件合并和去重操作 对于两个输入文件,即文件 A 和文件 B,请编写 MapReduce 程序,对两个文件进行合并, 并剔除其中重复的内容,得到一个新的输出文件 C。下面是输入文件和输出文件的一个样例 供参考。 输入文件 A 的样例如下:
2022-06-20 18:07:49 1.28MB 大数据 mapreduce Hadoop
教大家怎么安装Hadoop的一个文档: 1、掌握Linux虚拟机的搭建; 2、掌握Linux的常用命令及操作; 3、熟练掌握Hadoop安装及配置; 4、了解Hadoop的简单应用。
2022-06-20 12:47:27 8.03MB 安装Hadoop.d
1
1. 创建目录 2. mkdir wcinput 3. 在创建好的文件夹中创建文件wc.input,输入一些内容,例如 zhangsan zhangsan ss ss cls cls jiao 4. 将wc.input上传到HDFS上 hadoop fs -copyFromLocal wcinput/ /user/ 5. 调用上传的jar包,实现单词计数功能 hadoop jar wordcount.jar com.only.mapreduce.wordcount.WordcountDriver /user/wcinput /user/wcoutput 6. 查看结果 hadoop fs -
2022-06-20 10:37:42 292KB hadoop
1
hadoop-2.6.0-cdh5.14.2.tar.gz适用于Linux环境,centos7已测试
2022-06-19 22:29:56 768.19MB hadoop hadoop-2.6.0 Linux-Hadoop
1
云计算技术课程设计;基于hadoop的词频统计设计;hadoop,mapreduce,hdfs
2022-06-19 15:04:40 1.85MB 云计算 hadoop 词频统计 mapreduce
1
大数据技术之Hadoop知识分享 Hadoop面试题目及其答案 Hadoop面试题目整理 Hadoop使用经验 共9页.pdf
2022-06-19 09:09:35 217KB 大数据 hadoop 面试题
目前看到的较为完善具体的金融集团大数据分析平台总体架构方案,具有很强的实践指导意义
2022-06-18 00:37:27 3.87MB 大数据 Hadoop 总体架构 方案
1
apache-hive-3.1.3-bin.tar.gz apache-zookeeper-3.5.10-bin.tar.gz hadoop-3.3.3.tar.gz spark-3.2.1-bin-hadoop3.2.tgz mysql-8.0.29-1.el8.x86_64.rpm-bundle
2022-06-17 22:05:55 581.01MB hive spark zk
1