基于spark的电影推荐系统,内含sql脚本文件。推荐算法是基于协同过滤的算法。
2021-11-24 17:12:00 15.13MB spark 大数据 推荐系统
1
完整的基于spark的电影推荐系统数据集,保证可用,积分给少一点,大家放心下载吧
2021-11-24 16:34:30 5.6MB spark 协同过滤 推荐系统
1
Flink,Storm,Spark Streaming三种流框架的对比分析。比较清晰明确
2021-11-24 00:23:48 2.36MB flink strom spark
1
Spark综合题题库.docx
2021-11-24 00:00:01 39KB spark
基于机器学习的Spark大数据平台自动调优机制研究--毕业设计.rar,关键词:大数据,spark,大数据平台自动调优机制,毕业设计
2021-11-23 17:33:11 160.82MB 大数据 spark 自动调优机制
1
Kyuubi是基于构建的高性能通用JDBC和SQL执行引擎。 Kyuubi的目标是促进用户处理大数据(如普通数据)。 它提供了标准化的JDBC接口,在大数据场景中具有易于使用的数据访问。 最终用户可以专注于开发自己的业务系统并挖掘数据价值,而不必了解底层的大数据平台(计算引擎,存储服务,元数据管理等)。 Kyuubi依靠Apache Spark提供高性能的数据查询功能,并且引擎功能的每一项改进都可以帮助Kyuubi的性能取得质的飞跃。 此外,Kyuubi通过引擎缓存提高了临时响应速度,并通过水平缩放和负载平衡增强了并发性。 它提供了完整的身份验证和身份验证服务,以确保数据和元数据的安全性。 它提供强大的高可用性和负载平衡,以帮助您保证SLA承诺。 它提供了两级弹性资源管理体系结构,可以有效地提高资源利用率,同时满足包括交互,批处理和点查询或全表扫描在内的所有方案的性能和响应要求。 它包
2021-11-23 16:02:17 17.45MB multi-tenant sql spark yarn
1
spark操作kudu所依赖的官方jar包 写入,建表,删除表等。。
2021-11-23 15:23:41 9.35MB spark_kudu
1
hive on spark要求spark中不包含hive的jar包,必须重新编译,历尽艰辛终于搞好了,适配hive2.3、hadoop2.7.6环境。
2021-11-22 10:12:45 102.13MB spark
1
本地开发和运营 依存关系 确保您已将Python 2.7和pip一起安装。 然后运行: pip install -r requirements.txt 正在运行的工作 使用中央作业运行程序模块src/index.py运行所有作业。 您完全不需要编辑此文件。 python src/index.py 参数: src/spark_jobs.py定义的作业功能名称 生成的簇数 数据文件的文件路径(可以是项目中的绝对路径或本地路径) 这些作业可以占用多个文件。 这些应仅附加到命令中。 例如: python src/index.py user__reputation__to__upvotes_cast 3 tests/fixtures/users.xml 新增工作 所有作业均从src/s
2021-11-22 02:29:49 3.4MB python spark clustering pyspark
1
本文档描述了akka的作用及原理,及服务端和客户端之间的通信赋代码
2021-11-21 23:23:25 259KB spark akka
1