ARM体系结构数据类型级及寄存器堆栈操作操作实验报告 ①功能实现: 说明软、硬件的设计思路,并展示实现功能,考核对设计功能的实现程度。 ②结果实现: arm-linux-gcc仿真实现,或S3C6410试验箱硬件实现。 ③实验报告: 内容包括:实验题目、实现要求、所用设备与器材、硬件方案、软件方案、方案论证、调试过程、运行结果、收获体会及参考文献。
ERP基本操作实验指导书
2022-05-27 09:06:13 14.8MB 文档资料 ERP基本操作实验指导书
一、实验目的 上机实操,学会使用Hive开发。 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 1:创建内部表 (1):start-all.sh,启动Hadoop所有进程 (2):初始化元数据库生成metastore (3):启动hive (4):把linus上面的rg.txt放到hdfs下 (5):show databases;显示所有数据库 (6):新建数据库test (7):创建数据库表rg (8):给表导入数据 (9):查看数据 (10):查看hdfs下文件的变化 (11):drop table rg;删除表 (12):查看hdfs下文件的变化 2:创建外部表 (1):在hdfs上建rg文件夹,并把数据放文件夹下 (2):创建数据库表 (3):查看hdfs下文件的变化 (4):select * from rg_ext;查找数据 (5):drop table rg_ext;删除表 三、创建分区表 四、创建分桶表 五、java连接数据库窗口版 六、java连接数据库代码版
2022-05-25 14:07:44 9.81MB hadoop hdfs 文档资料 大数据
一、实验目的 (1)通过实验掌握 Spark SQL 的基本编程方法; (2)熟悉 RDD 到 DataFrame 的转化方法; (3)熟悉利用 Spark SQL 管理来自不同数据源的数据。 (4)java程序实现SparkSQL 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 (一)SparkSQL的基本知识 (1)输入start-all.sh启动hadoop相应进程和相关的端口号 (2)启动Spark分布式集群并查看信息 (3)网页端查看集群信息 (4)启动spark-shell控制台 (5)访问http://localhost:4040可以看到spark web界面 (6)进入/spark/examples/src/main/resources目录,查看该目录下的内容 (7)查看people.json和employees.json的内容 (8)读取people.json、employees.json,创建DataFrame
2022-05-25 12:04:48 10.36MB hadoop 文档资料 大数据 big
一、实验目的 1.理解Spark Streaming的工作流程。 2.理解Spark Streaming的工作原理。 3.学会使用Spark Streaming处理流式数据。 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 (一)Spark Streaming处理套接字流 1:编写处理套接字流的java程序代码 2:导入缺失的jar包 3:把java程序导出为jar包 4:start-all.sh,启动所有进程,并查看情况 5:启动Spark分布式集群并查看信息 6:启动9999端口 7:切换到jar包所在路径 8:提交程序到spark集群上运行 9:监测端口内容,每隔10秒钟输出一次,当有内容出现的时候,单词计数输出内容 10:退出监测,Ctrl+Z,但是这样并没有完全退出监测,到http://localhost:8080/里杀死该任务,也可以使用Ctrl+C完全退出 (二)Spark Streaming处理RDD队列流 (三)Spark Streaming处理文件流
2022-05-25 12:04:47 10.27MB hadoop spark 文档资料 大数据
一、实验目的 1. 理解Spark编程思想; 2. 学会在Spark Shell中编写Scala程序; 3. 学会在Spark Shell中运行Scala程序。 二、实验环境 Windows 10 VMware Workstation Pro虚拟机 Hadoop环境 Jdk1.8 三、实验内容 (一)Spark基础知识 (1)输入start-all.sh启动hadoop相应进程和相关的端口号 (2)启动Spark分布式集群并查看信息 (3)网页端查看集群信息 (4)启动spark-shell控制台 1:local模式启动 2:登录master服务器,在集群模式下启动 (5)访问http://localhost:4040可以看到spark web界面 (6)从本地文件系统中加载数据 (7)从分布式文件系统HDFS中加载数据 (8)可以调用SparkContext的parallelize方法,在Driver中一个已经存在的数组上创建RDD。 (9)可以调用SparkContext的parallelize方法,在Drive (二)spark运行wordcount程序
2022-05-25 12:04:47 6.74MB hadoop spark 文档资料 大数据
ERP基本操作实验指导书v20
2022-05-18 21:05:03 14.71MB 文档资料 ERP基本操作实验指导书v20
VISSIM基本认识及基本操作实验报告
2022-05-05 09:04:43 881KB VISSIM基本认识及基本操作实
栈,队列,循环队列; 数据结构实验报告,循环队列打印杨辉三角
2022-04-12 16:10:28 72KB 循环队列,栈
1
一、实验目的 1.了解Linux字符界面的操作特点,验证Linux命令的用途,掌握Linux的基本操作、管理、帮助、编辑命令。 2. 熟悉Linux字符界面下使用工具进行文本过滤、编辑的方法 3.能够启动和使用案例系统。
2022-01-26 21:00:48 6.37MB 西南科技大学 Linux 实验报告