Distributed Computing with Python by Francesco Pierfederici AZW3/MOBI/EPUB/PDF 多版本 This book will teach you how to perform parallel execution of computations by distributing them across multiple processors in a single machine, thus improving the overall performance of a big data processing task. We will cover synchronous and asynchronous models, shared memory and file systems, communication between various processes, synchronization, and more.
2023-10-26 06:03:11 15.28MB Distributed Computing Python
1
dlsa分布式最小二乘近似 使用Apache Spark实施 介绍 在这项工作中,我们开发了一种分布式最小二乘近似(DLSA)方法,该方法能够解决分布式系统上的大量回归问题(例如,线性回归,逻辑回归和Cox模型)。 通过使用局部二次形式逼近局部目标函数,我们可以通过对局部估计量进行加权平均来获得组合估计量。 在统计上证明了所得的估计器与全局估计器一样有效。 而且,它只需要一轮通信。 我们使用自适应套索方法进一步基于DLSA估计进行收缩估计。 通过在主节点上使用LARS算法,可以轻松获得该解决方案。 从理论上讲,通过使用新设计的分布式贝叶斯信息准则(DBIC),得出的估计量具有oracle属性,并且选择一致。 广泛的数值研究和航空公司数据集进一步说明了有限的样本性能和计算效率。 整个方法已在的Spark系统中实现。 R软件包dlsa提供了上可用的概念演示。 系统要求 Spark >= 2
2022-05-16 20:25:16 105KB spark distributed-computing pyspark spark-ml
1
联合学习(PyTorch) 香草联合学习论文的实施:。 在MNIST,Fashion MNIST和CIFAR10(IID和非IID)上进行了实验。 在非IID的情况下,用户之间的数据可以相等或不相等地分割。 由于这些实验的目的是说明联合学习范例的有效性,因此仅使用诸如MLP和CNN的简单模型。 要求 从requirments.txt安装所有软件包 Python3 火炬 火炬视觉 数据 手动下载训练和测试数据集,否则它们将自动从Torchvision数据集下载。 实验在Mnist,Fashion Mnist和Cifar上进行。 要使用自己的数据集,请执行以下操作:将数据集移动到数据目录,并在pytorch数据集类上编写包装器。 运行实验 基线实验以常规方式训练模型。 要使用CPU在MLP上对MNIST运行基线实验,请执行以下操作: python src/baseline_ma
1
分布式计算-PySpark 该存储库包含有关在Python中使用Spark进行分布式计算的微型项目。 文本分析:PySpark中的逐点相互信息 计算文本文件中出现的所有单词的一个或多个标记的PMI。 图/网络分析:PySpark中的个性化PageRank算法 实现PageRank算法的修改版本,其中参照给定的源节点执行排名。 修改有两个方面: 随机仅跳到源节点 由于节点悬空而造成的质量损失将完全转移到源节点,而不是在整个图形上重新分配 使用Spark数据帧和Spark SQL查询TPCH
2021-11-21 13:07:45 1.96MB graphs pmi networks text-analytics
1
Distributed Computing with Go 英文epub 本资源转载自网络,如有侵权,请联系上传者或csdn删除 查看此书详细信息请在美国亚马逊官网搜索此书
2021-11-19 09:59:21 3.72MB Distributed Computing Go
1
讲分布式计算的教材书籍,其中对分布式算法的理论有很多涉及。英文版。清晰。 Distributed Computing - Fundamentals, Simulations and Advanced Topics (2nd Edition)
2021-11-05 14:24:45 21.2MB 分布式计算
1
Distributed Computing Through Combinatorial Topology 2013
2021-11-04 15:40:00 18MB Distributed Computing
1
树莓派的联合学习和拆分学习 这是为了发布SRDS 2020论文“物联网的联合学习和拆分学习的端到端评估”的源代码。 如果发现有用,则可用于发布。 请引用我们的工作为: @inproceedings{gao2020end, title={End-to-End Evaluation of Federated Learning and Split Learning for Internet of Things}, author={Gao, Yansong and Kim, Minki and Abuadbba, Sharif and Kim, Yeonjae and Thapa, Chandra and Kim, Kyuyeon and Camtepe, Seyit A and Kim, Hyoungshick and Nepal, Surya}, booktitle={The 39th
1
2.9 视在计算 2.9.1 视在功率计算 视在功率有两类计算公式: PQS视在功率(公式一): 2 2S P Q= + RMS视在功率(公式二): *S Urms Irms= HT7036提供两类计算方式,用户可通过寄存器配置选择使用任意一种计算公式。
2021-10-09 07:39:39 1.19MB HT7036
1
云计算(Cloud Computing ):是分布式处理(Distributed Computing)、并行处理(Parallel Computing)和网格计算(Grid Computing)的发展,或者说是这些计算机科学概念的商业实现。是指基于互联网的超级计算模式--即把存储于个人电脑、移动电话和其他设备上的大量信息和处理器资源集中在一起,协同工作。在极大规模上可扩展的信息技术能力向外部客户作为服务来提供的一种计算方式。
2021-09-24 10:17:18 2.88MB 云计算 分布式处理 并行处理 网格计算
1