Spark基础环境搭建
2022-12-10 09:24:12 2.81MB spark spark基础环境搭建 spark笔记
1
Spark及pyspark的操作应用 读写HBase数据
1
Bright Spark电子仿真软件
2022-12-09 14:23:19 7.31MB 仿真器 电子
1
内含13W+点击流数据,均已处理成结构化数据,可以直接用于统计操作。 数据格式: 158.189.122.206 江西 2018-11-12 1542011090255 341319664806502161 www.taobao.com Regist 103.190.42.13 江苏 2018-11-12 1542011090255 4152752257070526126 www.baidu.com View 103.190.42.13 江苏 2018-11-12 1542011090255 4152752257070526126 www.taobao.com Buy
2022-12-07 10:11:24 10.7MB 点击流 spark PVUV
1
一、首先搭建hadoop环境 https://blog.csdn.net/jiuweiC/article/details/104414651 二、安装scala 命令行执行:brew install scala 执行完成后,终端输入:scala -version 进行查看,如下表明安装成功: scala -version Scala code runner version 2.12.8 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc. 然后在环境变量中增加scala相关的变量,命令行输入:vim ~/etc/profile进行编辑,
2022-12-05 13:49:04 695KB ar ark c
1
大数据环境下如何架构实时推荐系统的说明文档,使用了目前流行的spark hbase kafa sparkstream ml spray ...等技术。
2022-12-03 21:39:25 3.34MB 大数据 实时推荐 spark
1
46488_Spark大数据技术与应用_习题数据和答案.rar
2022-11-30 20:18:38 120.37MB
1
Spark-Terasort TeraSort是一种流行的基准测试,用于衡量在给定群集上对1 TB随机分布的数据(或所需的任何其他数据量)进行排序的时间。 它最初是用来测量Apache:trade_mark:Hadoop:registered:集群的MapReduce性能的。 在此项目中,代码将在Scala中重写,以测量Spark集群的性能。 它是对Hadoop集群的存储层(HDFS)和计算层(YARN / Spark)进行组合测试的基准。 完整的TeraSort基准测试运行包含以下三个步骤: 通过TeraGen生成输入数据。 在输入数据上运行实际的TeraSort。 通过TeraValidate验证排序的输出数据。 您无需在每次TeraSort运行之前重新生成输入数据(步骤2)。 因此,如果对生成的数据感到满意,则可以跳过第1步(TeraGen),以便以后的TeraSort运行。 包装方式 $ sbt assembly
2022-11-27 02:17:40 24KB Java
1
spark-2.1.1-bin-hadoop2.6.tgz
2022-11-26 14:25:28 189.59MB spark 大数据
1
spark 3.3.1 使用 cdh 6.3.2 的hadoop版本。可以直接兼容并配合文档进行cdh spark-sql的使用。 具体查看https://editor.csdn.net/md/?articleId=127997188
2022-11-23 14:26:55 254.24MB spark
1