脱敏的测试数据
2021-10-13 18:07:46 1.87MB 大数据 数据分析
1
Yarn-Cluster 官方求Pi案例.md
2021-10-13 16:01:43 4KB spark
1
包括:《Spark大数据处理:技术、应用与性能优 》 《Spark大数据处理技术》 《Spark高级数据分析》 《Spark快速数据处理_中文版》 《大数据Spark企业级实战》 《Spark 编程指南》 方便大家共同学习
2021-10-13 15:07:52 48.48MB Spark 大数据处理 技术
1
linux虚拟机hadoop全分布,安装spark详细流程
2021-10-13 14:01:40 4KB linux spark hadoop
1
Spark on Yarn模式部署.docx
2021-10-13 13:08:04 1.17MB spark配置
1
此课程主要介绍spark ml相关内容,共分10章,前2章主要介绍scala、spark原理,后面每章一个算法应用、算法原理和算法源码讲解,非常有帮助。
2021-10-12 20:35:48 75B spark ml
1
适合初学和巩固基础的人
2021-10-12 19:07:36 213KB scala 大数据 spark 知识点
用于Apache Spark / Flink和Ray上的分布式TensorFlow,Keras和PyTorch的统一数据分析和AI平台 什么是Analytics Zoo? Analytics Zoo无缝地将TensorFlow,Keras和PyTorch扩展到分布式大数据(使用Spark,Flink和Ray)。 用于将AI模型(TensorFlow,PyTorch,OpenVINO等)应用于分布式大数据的端到端管道 使用Spark代码内联编写或以进行分布式训练和推理。 管道中的本机深度学习(TensorFlow / Keras / PyTorch / BigDL)支持。 通过RayOn
2021-10-12 16:22:57 43.62MB python scala apache-spark pytorch
1
支持mysql8.x,使用utf8mb4编码。
2021-10-12 14:09:27 30KB hive库 utf8mb4 thriftserver元数据库
1
手把手视频详细讲解项目开发全过程,需要的小伙伴自行百度网盘下载,链接见附件,永久有效。 课程亮点: 1、系统的设计方法是采用面向对象的设计。本系统前端页面交互主要采用B/S的结构,采用MVC及流式数据的设计思路进行规划设计。 2、前端数展现使用Echarts技术。与地图相关的报表使用百度地图提供的API。 3、后端实时数据,实时接入mysql。为了不影响线上系统的正常使用,同时能够将数据发送到大数据平台,本项目使用Canal来解析实时数据,Flume收集数据并数据发送到实时计算业务流程和离线计算两个流程中。实时数据处理流程使用Canal+Flume+Kafka+SparkStreaming等技术。离线计算使用HDFS+Hive+Azkaban等技术。 4、设计过程中对系统的可靠性、可扩展性以及性能进行了充分考虑和研究分析,争取通过良好的设计,在实现系统功能的前提下,最大化的提高系统性能和扩展性,减少将来的维护代价和其他成本。 适用人群: 1、对大数据Spark感兴趣的在校生及应届毕业生。 2、对目前职业有进一步提升要求,希望从事大数据行业高薪工作的在职人员。 3、对大数据行业感兴趣的相关人员。 第一章 项目概述 1课程内容 1. 系统介绍 2. 模块介绍 3. 数据流程描述 4. 逻辑架构设计 5. 功能描述 6. 系统架构 第二章 离线数据入库 1. 数据上传 2. 创建数据表 3. 数据拆分 4. 数据表加载 第三章 离线数据整理 1. 业务SQL语句编写 2. 整理SQL语句生成结果表的结构及字段 3. 根据结果表所需的字段,在原始表中抽取该字段 4. 数据加工及入库 5. 创建索引 第四章 实时数据生成及计算 1. Mysql 数据写入 2. canal 解析mysql实时数据写入本地 3. Flume收集数据将数据上传至集群 4. SparkStreaming 实时计算
2021-10-12 14:09:20 75B spark flume 大数据 canal