Flink,Storm,Spark Streaming三种流框架的对比分析。比较清晰明确
2021-11-24 00:23:48 2.36MB flink strom spark
1
Spark综合题题库.docx
2021-11-24 00:00:01 39KB spark
基于机器学习的Spark大数据平台自动调优机制研究--毕业设计.rar,关键词:大数据,spark,大数据平台自动调优机制,毕业设计
2021-11-23 17:33:11 160.82MB 大数据 spark 自动调优机制
1
Kyuubi是基于构建的高性能通用JDBC和SQL执行引擎。 Kyuubi的目标是促进用户处理大数据(如普通数据)。 它提供了标准化的JDBC接口,在大数据场景中具有易于使用的数据访问。 最终用户可以专注于开发自己的业务系统并挖掘数据价值,而不必了解底层的大数据平台(计算引擎,存储服务,元数据管理等)。 Kyuubi依靠Apache Spark提供高性能的数据查询功能,并且引擎功能的每一项改进都可以帮助Kyuubi的性能取得质的飞跃。 此外,Kyuubi通过引擎缓存提高了临时响应速度,并通过水平缩放和负载平衡增强了并发性。 它提供了完整的身份验证和身份验证服务,以确保数据和元数据的安全性。 它提供强大的高可用性和负载平衡,以帮助您保证SLA承诺。 它提供了两级弹性资源管理体系结构,可以有效地提高资源利用率,同时满足包括交互,批处理和点查询或全表扫描在内的所有方案的性能和响应要求。 它包
2021-11-23 16:02:17 17.45MB multi-tenant sql spark yarn
1
spark操作kudu所依赖的官方jar包 写入,建表,删除表等。。
2021-11-23 15:23:41 9.35MB spark_kudu
1
hive on spark要求spark中不包含hive的jar包,必须重新编译,历尽艰辛终于搞好了,适配hive2.3、hadoop2.7.6环境。
2021-11-22 10:12:45 102.13MB spark
1
本地开发和运营 依存关系 确保您已将Python 2.7和pip一起安装。 然后运行: pip install -r requirements.txt 正在运行的工作 使用中央作业运行程序模块src/index.py运行所有作业。 您完全不需要编辑此文件。 python src/index.py 参数: src/spark_jobs.py定义的作业功能名称 生成的簇数 数据文件的文件路径(可以是项目中的绝对路径或本地路径) 这些作业可以占用多个文件。 这些应仅附加到命令中。 例如: python src/index.py user__reputation__to__upvotes_cast 3 tests/fixtures/users.xml 新增工作 所有作业均从src/s
2021-11-22 02:29:49 3.4MB python spark clustering pyspark
1
本文档描述了akka的作用及原理,及服务端和客户端之间的通信赋代码
2021-11-21 23:23:25 259KB spark akka
1
Algorithm-dijkstra-hadoop-spark.zip,dijkstra算法-python hadoop streaming和pyspark,算法是为计算机程序高效、彻底地完成任务而创建的一组详细的准则。
2021-11-21 02:09:31 1.45MB Algorithm
1
统一监控平台方案(日志监控、方法监控、调用链路监控) 包含flume采集数据、kafka缓存数据、spark计算、es索引数据
2021-11-19 12:51:09 588KB flume kafka spark elasticsearc
1