中国开放数林指数”和《中国地方政府数据开放报告》是我国首个专注于评估政府数据开放水平的专业指数和报告,由复旦大学数字与移动治理实验室制作出品,复旦大学和国家信息中心数字中国研究院联合发布。“开放数林”意喻我国政府数据开放利用的生态体系,自2017年5月首次发布以来,定期对我国地方政府数据开放水平进行综合评价,精心测量各地“开放数木”的繁茂程度和果实价值,助推我国政府数据开放生态体系的培育与发展。
2022-07-30 17:13:19 13.19MB 数据开发 政府
1
给大家分享一套大数据零基础起步的视频教程,课程一共27周内容,从0开始,内容涉及Linux,数据库,Hadoop,HBASE,spark,flink,数据仓库,数据中通等等大数据相关的知识点,非常系统的一套大数据视频教程,配套有代码、课件和软件下载,资料齐全
2022-07-29 19:05:45 200B 大数据 flink spark hadoop
1
介绍:今天给大家分享一套大数据开发课程,课程是2022最新升级版的,一共有27周,大数据涉及到的内容基本都包含了,比如spark,Hadoop,hive,flink,数据仓库等等,可以说是学习大数据一部到位,有需要学习大数据的小伙伴抓紧时间下载了,视频+代码+课件+软件,资料齐全
2022-07-29 14:05:25 225B 大数据 spark
1
Hadoop大数据开发实战-教学设计.zip
2022-07-08 11:08:17 3.73MB 教学资料
Flink+ClickHouse 玩转企业级实时大数据开发(2022最新升级版19章全)分享课程:Flink+ClickHouse 玩转企业级实时大数据开发,2022最新升级版19章全,提供配套的源码下载。
2022-06-28 14:06:18 320B clickhouse 大数据 flink
1
分享课程——大数据开发工程师2022,内附下载地址,这套视频教程是2022最新升级版,一共23周内容,囊括了大数据相关的所有知识点,比如:flink/hadoop/spark/hive/hbase/数据仓库等等,可以说学习大数据一“部”到位!,想学习大数据的朋友,抓紧时间下载吧
2022-06-28 14:06:06 204B 大数据 flink spark hadoop
1
包含大数据领域所有流行技术框架文档,让学习大数据不在迷茫! 包含大数据领域所有流行技术框架文档,让学习大数据不在迷茫! 包含大数据领域所有流行技术框架文档,让学习大数据不在迷茫!
2022-06-27 15:16:25 192.71MB 技术文档
1
数据开发笔试全文共4页,当前为第1页。大数据开发笔试全文共4页,当前为第1页。1、 hdfs原理,以及各个模块的职责 大数据开发笔试全文共4页,当前为第1页。 大数据开发笔试全文共4页,当前为第1页。 答:Hadoop Distributed File System即: Hadoop分布式文件系统,就是把数据划分成不同的Block分别存储在不同节点的设备上。它分为两个部分:NameNode和DateNode,NameNode相当于一个领导,将文件系统的Meta-data存储在内存中,这些信息主要包括了文件信息、每一个文件对应的文件块的信息和每一个文件块在DataNode的信息等。它管理集群内的DataNode,当客户发送请求过来后,NameNode会根据Meta-data指定存储到哪些DataNode上,而其本身并不存储真实的数据。 2、 mr的工作原理 答:当客户提交作业后,MapReduce库先把任务splits不同的块,然后根据"移动计算比移动数据更明智"的思想,把任务分发到各个DataNode上。在不同的DataNode上分别执行Map操作,产生键值对,然后通过shuffl
2022-06-21 22:03:43 109KB 文档资料
史上最全的大数据面试题-大数据开发者必看 史上最全的大数据面试题-大数据开发者必看全文共9页,当前为第1页。史上最全的大数据面试题-大数据开发者必看全文共9页,当前为第1页。【某公司笔试面试题】 1\使用mr,spark ,spark sql编写word count程序 【Spark 版本】 val conf=new SparkConf().setAppName("wd").setMaster("local[1]") val sc=new SparkContext(conf,2) //加载 val lines=sc.textFile("tructField("name",DataTypes.StringType,true)") val paris=lines.flatMap(line=>line.split("^A")) val words=paris.map((_,1)) val result=words.reduceByKey(_+_).sortBy(x=>x._1,false) //打印 result.foreach( wds=>{ println("单词:"+wds._1+"
2022-06-21 17:06:20 52KB 文档资料